Criar um Site Grátis Fantástico
Translate to English Translate to Spanish Translate to French Translate to German Translate to Italian Translate to Russian Translate to Chinese Translate to Japanese

  

 

Planeta Criança



Poesia & Contos Infantis

 

 

 


ÁTOMO / Isaac Asimov
ÁTOMO / Isaac Asimov

                                                                                                                                                   

                                                                                                                                                  

 

Biblio VT

 

 

 

 

Isaac Asimov começa com uma simples pergunta aquele que é, provavelmente, o mais fascinante dos seus livros: até que ponto pode a matéria ser dividida? Mas, tal como outras questões elementares, também esta nos conduz numa busca exaustiva de uma resposta final, uma busca que se transforma numa série de estruturas muito bem elaboradas com base no conhecimento.
O livro começa com as primeiras investigações dos Gregos e dos Romanos e vai, passo a passo, século após século, traçando o caminho da descoberta que revela a natureza do átomo, da luz, da gravidade, da força electromagnética - até mesmo a natureza e estrutura do universo. Átomo aborda também fenómenos como a luz e a electricidade; os protões, os neutrões e os quarks, que são as unidades fundamentais do universo; antipartículas e outros assuntos estranhos que desafiam as nossas ideias sobre a verdadeira natureza do espaço e do tempo.
Actual e incomparável, Átomo é um livro único no seu género, escrito por um autor de renome, cujo génio e capacidade de clarificar temas complexos de forma acessível e interessante, fizeram dele um dos autores mais consagrados dos nossos dias.

 


 


1. MATÉRIA


A Divisão da Matéria


Imagine o leitor que tinha à sua frente uma grande quantidade de pequenos seixos - um montículo com milhares de seixos. Se não tivesse nada de mais interessante para fazer, podia entreter-se a dividi-lo em dois conjuntos mais pequenos, de dimensões aproximadamente iguais. Pondo de parte um deles, voltava a dividir o outro em dois. Desses dois montículos ainda mais pequenos, punha de parte um e usava o outro para nova divisão, repetindo o processo vezes sem conta.

O leitor perguntará: durante quanto tempo seria possível fazê--lo? Para sempre? Sabemos bem que não. Ao fim de algum tempo, e independentemente da dimensão inicial do montículo de seixos, ficaria com um pequeno "montículo" constituído por apenas dois seixos. (Na verdade, essa situação ocorre com surpreendente rapidez. Mesmo que começasse com um milhão de seixos, ficaria reduzido a dois seixos após cerca de vinte divisões.) Se dividisse mais uma vez o montículo constituído por dois seixos, sobrar-lhe-ia um montículo constituído por um seixo apenas e o passatempo terminaria aí. Não é possível dividir um seixo ao meio.

Mas... alto aí! O leitor podia colocar o seixo sobre uma bigorna e desfazê-lo com um martelo. O seixo ficaria reduzido a fragmentos, que dividiria em conjuntos cada vez mais pequenos até lhe restar apenas um fragmento. Depois triturava esse fragmento de modo a obter pó e dividia as partículas de pó até só lhe restar uma única partícula de pó, quase invisível. O leitor podia, de seguida, tentar esmagá-la e prosseguir a tarefa.

Não seria certamente um passatempo muito prático porque é extremamente difícil manipular um grão de pó e tentar pulverizá-lo mais ainda. Mas podemos sempre tentar imaginar o que sucederia. Suponhamos então que conseguia desfazer o pó em partículas ainda mais pequenas, que por sua vez eram divididas em partículas mais pequenas ainda. E agora, leitor, pergunte a si mesmo: será que este processo tem um fim?

A interrogação pode não parecer muito importante, ou sequer pertinente, na medida em que não existe forma alguma de realizar, na prática, a experiência. Muito rapidamente somos confrontados com objectos demasiado pequenos para serem vistos, pelo que deixamos de saber se continuamos ou não a dividir o nosso montículo. No entanto, alguns filósofos da Grécia Antiga colocaram a si mesmos essa pergunta e, ao fazê-lo, iniciaram uma cadeia de ideias e raciocínios que ainda hoje, vinte e cinco séculos mais tarde, continua a ocupar o espírito de muitos homens.

O filósofo grego Leucipo (490-? a.C.) é a primeira pessoa cujo nome conhecemos e que supomos ter reflectido sobre este problema da divisão da matéria. Leucipo terá chegado à conclusão de que o processo não podia continuar indefinidamente, sublinhando que, mais cedo ou mais tarde, se obtinha um fragmento de matéria tão pequeno que não era possível dividi-lo em algo de mais pequeno ainda.

Um homem mais novo, Demócrito (460-370 a.C), que fora aluno de Leucipo, aceitou a ideia de que existiam fragmentos de matéria tão pequenos que eram indivisíveis. Demócrito designou tais fragmentos átomos, palavra que em grego significa "indivisível". Na nossa língua, ficaram conhecidos como átomos. Segundo Demócrito, a matéria consistia numa colecção de átomos e, se existia espaço entre eles, não continha nada (era o "vazio").

Demócrito terá escrito sessenta livros em que expôs as suas teorias, incluindo a sua concepção daquilo a que actualmente chamamos ato-mismo. Nesse tempo, porém, em que não havia imprensa e todos os livros tinham de ser copiados à mão, nunca existiam muitos exemplares de qualquer obra. E os livros de Demócrito não foram copiados muitas vezes, em parte devido à impopularidade das suas teorias. Ao longo dos séculos, muitas obras foram desaparecendo. Nenhum dos livros de Demócrito sobreviveu até aos nossos dias.

A maioria dos filósofos daquela época achava que não fazia sentido supor a existência de pequenas partículas indivisíveis. E que era mais razoável imaginar que tudo podia ser dividido em fragmentos cada vez mais pequenos, num processo sem fim.

Os filósofos gregos Platão (ca. 427-347 a.C.) e Aristóteles (384-322 a.C), em particular, não aceitavam a noção de átomos. Como um e outro eram os mais profundos dos antigos filósofos, cujas reflexões abrangiam um maior número de domínios, as suas opiniões prevaleceram. Mas o argumento não colhia a unanimidade. O influente filósofo grego Epicuro (341-270 a.C.) adoptou o atomismo como núcleo central das suas teorias. Supõe-se que Epicuro escreveu trezentos livros (na Antiguidade, diga-se de passagem, os livros costumavam ser bastante curtos), mas nenhum chegou até nós.

O epicurista mais importante, do ponto de vista que nos interessa neste livro, foi um romano, Titus Lucretius Carus (96-55 a.C), geralmente conhecido apenas como Lucrécio. Em 56 a.C. publicou um longo poema em latim intitulado De Rerum Natura (expressão que significa Da Natureza das Coisas), onde explicava em pormenor a concepção epicurista do atomismo.

A obra ficou famosa na época mas, alguns séculos mais tarde, depois do cristianismo se ter tornado uma religião popular, Lucrécio foi acusado de ateísmo. O seu livro deixou de ser copiado e os exemplares que existiam foram destruídos ou perderam-se. Ainda assim, um exemplar (um apenas!) sobreviveu até à Idade Média, tendo sido descoberto em 1417. O livro foi recopiado e, meio século mais tarde, quando a imprensa começou a ser usada, o poema de Lucrécio foi das primeiras obras a serem impressas.

O poema foi divulgado por toda a Europa Ocidental e tornou-se a principal fonte de conhecimento sobre as antigas teorias atomistas. O filósofo francês Pierre Gassendi (1592-1655), que o lera, adoptou a concepção atomista e escreveu sobre o tema duma forma persuasiva, ajudando a espalhar a doutrina.

Contudo, nos dois mil anos que medeiam entre Leucipo e Gassendi, o atomismo e os argumentos a favor e contra a doutrina não passaram de tema para discussões intermináveis entre sábios. Não existiam provas a favor ou contra a doutrina. Uns e outros aceitavam ou rejeitavam os átomos de acordo com o ponto de vista que mais lhes agradava, ou que lhes parecia mais sensato. Não havia maneira alguma de convencer pela força dos argumentos alguém que defendesse firmemente o ponto de vista contrário. As escolhas de cada qual eram meramente subjectivas, e os gostos não se discutem.

Por essa altura, todavia, alguns sábios começaram a realizar experiências: a interrogar a Natureza, por assim dizer, e a estudar os resultados obtidos. Desse modo tornou-se possível produzir provas que se "impunham" do ponto de vista científico; ou seja, provas que forçavam outros a aceitar um ponto de vista que subjectivamente rejeitavam (desde que fossem intelectualmente honestos).

O primeiro a realizar experiências que tinham uma relação com o problema do atomismo foi o cientista britânico Robert Boyle (1627-1691), que fora influenciado pelos escritos de Gassendi e era, por isso, um atomista.

Numa experiência realizada em 1662, Boyle utilizou um tubo de vidro em forma de "J". O braço mais curto estava fechado, o mais longo aberto. Boyle introduziu mercúrio por essa abertura, o qual se depositou no fundo, aprisionando algum ar no braço mais curto. Depois verteu no dispositivo mais mercúrio. O peso deste comprimiu o ar retido no braço mais curto, reduzindo o volume por ele ocupado. Ao duplicar a altura da coluna de mercúrio no braço longo, o volume de ar no braço curto reduzia-se a metade. Quando o mercúrio era retirado e a pressão aliviada, o volume do ar aumentava. Esta relação de proporcionalidade inversa entre pressão e volume ficou desde então conhecida como a lei de Boyle.

O comportamento do ar sob pressão pode ser facilmente explicado recorrendo à noção de átomo. Suponhamos que - como sugerira Demócrito - o ar é constituído por átomos que estão muito afastados uns dos outros, não existindo nada entre eles. (Uma tal hipótese explica o facto dum determinado volume de ar pesar muito menos que igual volume de água ou mármore, onde os átomos estão em contacto uns com os outros.) A aplicação de pressão sobre o ar força os átomos a aproximarem-se, espremendo, por assim dizer, o vazio existente entre eles, e provocando uma redução do volume. Ao aliviar a pressão, os átomos podem de novo afastar-se uns dos outros.

Pela primeira vez, o atomismo começava a levar a melhor. Alguns podiam achar que não era razoável, ou talvez estético, imaginar a existência de átomos. Mas era impossível duvidar dos resultados da experiência de Boyle. Isto era tanto mais verdadeiro quanto qualquer pessoa podia realizar a experiência e fazer observações idênticas.

Se aceitarmos a experiência de Boyle, então o atomismo fornece uma explicação lógica e simples para os resultados obtidos. A explicação dos resultados sem recorrer a átomos é muito mais difícil.

A partir dessa altura, um número cada vez maior de cientistas começou a aderir ao atomismo, embora a questão ainda não estivesse totalmente resolvida. (Voltaremos a falar deste assunto adiante.)


Os Elementos

 

Os filósofos gregos da Antiguidade interrogaram-se sobre aquilo de que era feito o mundo. Era óbvio que era feito de muitas coisas diferentes, mas os cientistas sempre sentiram necessidade de simplificar. Existia por isso o sentimento de que o mundo era feito dum material básico (ou de apenas alguns materiais básicos) de que tudo o resto eram variações.

Tales (ca. 640-546 a.C.) foi o primeiro filósofo grego que se supõe ter sugerido que a água era a matéria básica a partir da qual tudo era formado. Um outro filósofo, Anaxímenes (570-500 a.C.) achava que era o ar. Outro ainda, Heraclito (ca. 535-475 a.C.) pensava que era o fogo, e assim por diante.

Não havia maneira de decidir entre estas teorias porque não existiam dados concretos que apontassem numa direcção ou noutra. O filósofo grego Empédocles (495-435 a.C.) resolveu o problema com uma solução de compromisso. Afirmou que o mundo era constituído por várias substâncias básicas: fogo, ar, água e terra. A esta lista Aristóteles acrescentou o éter (termo derivado duma palavra grega que significa "fulgor"), uma substância especial de que seriam constituídos os corpos celestes luminosos.

Na nossa língua, designamos estas substâncias básicas elementos, termo que deriva duma palavra latina de origem desconhecida. (Ainda hoje, a propósito das tempestades, falamos na "fúria dos elementos" para nos referirmos à água que cai em bátegas, ao ar que sopra formando turbilhões e ao fogo de que parecem feitos os relâmpagos.)

Para as pessoas que aceitavam a ideia da existência de diversos elementos e que eram atomistas, fazia sentido supor que cada elemento era constituído por um tipo diferente de átomos, de modo que o mundo seria constituído por quatro tipos diferentes de átomos, com um quinto tipo para o éter.

Mesmo com apenas quatro tipos de átomos era possível explicar a grande variedade de objectos existente na Terra. Bastava imaginar que as diversas substâncias eram constituídas por combinações dum número diferente de diferentes tipos de átomos em arranjos diversos. Afinal, é possível construir centenas de milhares de palavras diferentes, só na nossa língua, utilizando apenas vinte e três letras (ou tão-só dois símbolos, um ponto e um traço).

No entanto, a doutrina dos quatro (ou cinco) elementos começou a perder força no preciso momento em que o atomismo ganhava terreno. Em 1661, Boyle publicou um livro, The Skeptical Chemist (O Químico Céptico), onde defendia ser inútil tentar adivinhar quais as substâncias básicas constituintes do mundo. A sua identificação teria de resultar de experiências. Qualquer substância que não pudesse ser decomposta em substâncias mais simples, por meio de manipulações químicas, era um elemento. Qualquer substância que pudesse ser reduzida a componentes mais simples não era um elemento.

Era um princípio incontroverso, mas difícil de pôr em prática. A decomposição de certas substâncias em algo mais simples podia não ser possível, levando a que fossem consideradas elementos. Mais tarde, porém, talvez os avanços da química permitissem afinal decompô-la. Além disso, quando uma substância é convertida noutra, nem sempre é fácil decidir qual das duas é mais simples.

Ainda assim, a partir da época de Boyle e ao longo de três séculos, os químicos esforçaram-se por identificar substâncias que pudessem ser classificadas como elementos. Ouro, prata, cobre, ferro, estanho, alumínio, crómio, chumbo e mercúrio são exemplos de substâncias conhecidas que foram reconhecidas como elementos. São também elementos gases como o hidrogénio, azoto e oxigénio. O ar, a água, a terra e o fogo não são elementos.

Conhecem-se actualmente 106 elementos. Destes, oitenta e três ocorrem naturalmente na Terra em quantidades razoáveis e os restantes vinte e três existem somente em quantidades mínimas ou apenas depois de terem sido produzidos em laboratório. Isso significa que existem 106 tipos diferentes de átomos.


O Triunfo do Atomismo

 

A maioria das substâncias existentes na Terra não são elementos, podendo ser decompostas nos elementos que as constituem. As substâncias constituídas a partir duma combinação de elementos são designadas compostos (da expressão latina que significa "pôr junto").

Gradualmente, os químicos começaram a interessar-se pela determinação da quantidade de cada elemento existente num determinado composto. A partir de 1794, o químico francês Joseph Louis Proust (1754--1826) resolveu estudar o problema e fez uma descoberta fundamental. Existe um composto a que chamamos actualmente carbonato de cobre. Utilizando uma amostra pura dessa substância, Proust conseguiu decompô-la nos seus três elementos constituintes: cobre, carbono e oxigénio. Em 1799, descobriu que em qualquer amostra, independentemente do modo de preparação, havia sempre quatro partes (em peso) de oxigénio e uma parte de carbono para cada cinco partes de cobre. Se, ao preparar carbonato de cobre, acrescentasse mais cobre à mistura, o material adicional ficava por usar. Se realizasse a operação com uma deficiência em cobre, apenas se combinavam com este as quantidades proporcionais de oxigénio e carbono, ficando o resto por utilizar.

Em 1799, Joseph Louis Proust decompôs uma amostra pura duma substância nos seus três elementos constituintes: cobre, carbono e oxigénio. Descobriu que em cada amostra utilizada, havia sempre quatro partes (em peso) de oxigénio e uma parte de cobre para cada cinco partes de cobre. Os elementos atómicos que constituem um composto estão sempre presentes em proporções definidas.

Proust demonstrou que o mesmo se passava com outros compostos, concluindo que, em qualquer um deles, os elementos constituintes estavam sempre presentes em proporções definidas. Este princípio ficou conhecido como a lei das proporções definidas.

A lei constituiu um argumento muito forte a favor do atomismo. Suponhamos, por exemplo, que o carbonato de cobre é constituído por pequenos grupos de átomos (designados moléculas, duma expressão latina que significa "massa pequena"). E que cada grupo é composto por um átomo de cobre, um átomo de carbono e três átomos de oxigénio. Suponhamos ainda que os três átomos de oxigénio, considerados em conjunto, são quatro vezes mais pesados do que o átomo de carbono, e que o átomo de cobre é cinco vezes mais pesado do que o átomo de carbono. Se cada molécula do composto for constituída por essa combinação de átomos, o carbonato de cobre será sempre constituído por cinco partes de cobre, quatro partes de oxigénio e uma parte de carbono.

Se fosse possível incluir na molécula 1 1/2 átomos de cobre, ou 3 1/3 átomos de oxigénio, ou apenas 5/6 dum átomo de carbono, as proporções das três substâncias poderiam variar de amostra para amostra de carbonato de cobre. Todavia, as proporções não se alteram. Este facto não só sustenta a ideia de átomos, mas a própria sugestão de Demócrito de que os átomos são indivisíveis. Os átomos existem como entidades indivisíveis, ou não existem.

Entre Demócrito e Proust havia, contudo, uma diferença: Demócrito formulara apenas uma hipótese; Proust obtivera provas. (Tal não significa, necessariamente, que Proust foi um homem mais sábio ou mais importante do que Demócrito. Proust beneficiou de vinte e um séculos de reflexões e trabalhos em que se pôde basear. Até se poderia afirmar que ter sido Demócrito capaz de acertar na verdade tão cedo constituiu um feito muito mais notável.)

Mesmo com a evidência experimental, Proust não convenceu logo todos os seus contemporâneos. Afinal, era sempre possível que as suas análises estivessem erradas, ou que ele estivesse tão interessado em demonstrar as suas ideias que, inconscientemente, falseasse as observações. (Os cientistas também são seres humanos e essas coisas acontecem.)

Um outro químico francês, Claude Louis Berthollet (1748-1822), contestou Proust ponto por ponto. Berthollet insistia que as suas análises provavam que os compostos podiam ser constituídos por elementos em proporções variáveis. Em 1804, todavia, o químico sueco Jõns Jakob Berzellius (1779-1848) fez um conjunto de análises minuciosas que reforçaram a ideia de Proust e provaram à comunidade química que a lei das proporções definidas estava correcta.

Pela mesma época, o químico inglês John Dalton (1766-1844) dedicava-se igualmente ao estudo deste problema. Dalton descobriu que diferentes compostos podiam ser constituídos pelos mesmos elementos em proporções muito diversas. Assim, num determinado gás com moléculas com carbono e oxigénio, a proporção era de três partes de carbono para quatro partes de oxigénio. Noutro gás constituído igualmente por moléculas com carbono e oxigénio, a proporção era de três partes de carbono para oito partes de oxigénio. Tratava-se, contudo, de dois gases diferentes, com propriedades distintas e, em cada um deles, a lei das proporções definidas aplicava-se.

Dalton sugeriu que, num dos gases, as moléculas eram constituídas por um átomo de carbono e um átomo de oxigénio, enquanto que no outro tinham um átomo de carbono e dois átomos de oxigénio. Mais tarde veio a confirmar-se que Dalton tinha razão e os gases receberam os nomes de monóxido de carbono e dióxido de carbono, respectivamente. (O prefixo mon- vem da palavra grega que significa "um", e di- do termo grego para "dois".)

O químico inglês descobriu que tal era igualmente verdadeiro noutros casos e, em 1803, enunciou o facto sob a forma da lei das proporções múltiplas. Dalton sublinhou que a lei estava de acordo com a noção de átomo, e foi ele quem usou a expressão átomos, regressando deliberadamente ao velho termo como homenagem a Demócrito.

Daltou afirmou que, para explicar as proporções dos elementos nos compostos, era necessário admitir que cada elemento era constituído por um determinado número de átomos, todos com a mesma massa fixa; que elementos diferentes tinham átomos de massas diferentes; e que as moléculas eram constituídas por um número pequeno e constante de diferentes átomos indivisíveis.

Em 1808, Dalton publicou uma obra intitulada New System 0/ Clie-mical Philosophy (Novo Sistema de Filosofia Química), onde reuniu todas as provas que conseguira recolher e que sustentavam o atomismo, mostrando como tudo fazia sentido à luz deste. Com o seu livro, Dalton estabeleceu as bases da moderna teoria atómica - a que chamamos moderna por oposição à teoria dos Gregos.

Acontece que o termo teoria não é adequadamente entendido pelo público em geral, que tende a pensar numa teoria como se dum "palpite" se tratasse. Os próprios dicionários não explicam de forma correcta aquilo que a palavra significa para os cientistas.

Uma teoria consiste, a bem dizer, num conjunto de regras básicas, sustentadas num grande número de observações confirmadas por muitos cientistas, que explicam e dão sentido a um grande número de factos que, sem a teoria, pareceriam não estar relacionados. É como se os factos e as observações fossem um conjunto de pontos, representando cidades, e de linhas, representando limites territoriais e fronteiras, distribuídos ao acaso numa folha de papel, sem fazerem sentido algum. Uma teoria será como que um mapa que coloca cada ponto e cada linha no lugar certo e que, ao uni-los, cria uma imagem que em que tudo faz sentido e se relaciona.

As teorias não estão necessariamente correctas em todos os seus detalhes, e podem mesmo nunca estar totalmente correctas, mas estão suficientemente correctas (se forem boas teorias) para guiarem os cientistas na compreensão do assunto que é objecto da teoria, na exploração de novas observações e até no aperfeiçoamento da própria teoria.

Cada uma das regras básicas que Dalton enunciou na sua teoria atómica não estava absolutamente certa. Mais tarde, veio a descobrir-se que um elemento pode ser constituído por átomos de diferentes massas, que dois elementos podem ter alguns átomos com a mesma massa, e que nem todas as moléculas são constituídas por um pequeno número de átomos. No entanto, as regras enunciadas por Dalton estavam suficientemente próximas da verdade para serem de enorme utilidade. E, como veremos adiante, à medida que os químicos foram aprendendo mais e mais sobre os átomos, tiveram oportunidade de as corrigir.

Nenhuma teoria científica é imediatamente aceite por todos os cientistas. Existem sempre cientistas que suspeitam de tudo aquilo que constitui novidade - o que até pode ser positivo. As teorias não devem ser aceites com demasiada facilidade. Bem pelo contrário, há que questioná--las e testá-las vigorosamente. Dessa forma, torna-se possível identificar os seus pontos fracos e, talvez, torná-los mais consistentes.

Alguns dos químicos mais eminentes da época de Dalton manifestaram grandes dúvidas em relação à sua teoria. No entanto, ela revelou-se tão útil na compreensão das observações da química que, gradualmente, todos acabaram por aderir a ela e a comunidade científica converteu-se ao atomismo.


A Realidade dos Átomos

 

Por melhor que funcionasse a teoria atómica, por muito engenhosos que fossem os seus aperfeiçoamentos e por mais que ela apontasse o caminho para novas descobertas, havia um facto perturbante que não podia ser ignorado: ninguém era capaz de ver átomos ou de os detectar, fosse de que modo fosse. Todas as provas a favor da existência de átomos eram de natureza indirecta. Inferia-se a sua existência de determinados factos, deduzia-se que os átomos existiam desta ou daquela observação. No entanto, todas essas inferências e deduções podiam estar erradas. Aparentemente, construíra-se com a teoria atómica um esquema que funcionava, mas que podia não passar dum simples modelo de algo, na verdade, muito mais complexo. A maneira de trabalhar dos cientistas naquele tempo assemelhava-se a um jogo de póquer com fichas. As fichas podem ser usadas para fazer apostas e para indicar o dinheiro ganho ou perdido e, nesse sentido, funcionam de forma absolutamente rigorosa. Mas as fichas não são dinheiro. Apenas simbolizam o dinheiro.

Suponhamos então que a noção de átomos mais não é do que brincar à química com fichas. O atomismo funciona, mas os átomos representam apenas uma verdade muito mais complicada. Passados cem anos sobre a descoberta de Dalton, havia ainda alguns químicos que, conscientes dessa possibilidade, aconselhavam prudentemente a que não se levasse os átomos demasiado à letra. Usem-nos, diziam, mas não pensem que existem necessariamente sob a forma de minúsculas bolas de bilhar. Um dos cientistas que partilhava este ponto de vista era o químico russo--germânico Friedrich Wilhelm Ostwald (1853-1932).

No entanto, a resposta a tal problema há muito que se desenhava. E tudo começou com uma observação que parecia nada ter que ver com átomos, feita por um cientista que não estava neles interessado. (É importante recordar que o conhecimento constitui um todo e que qualquer observação pode revelar uma ligação surpreendente e inesperada com algo aparentemente não relacionado.)

A vibração dum grão de pólen na água resulta dos movimentos das moléculas de água invisíveis que o rodeiam.

Em 1827, o botânico escocês Robert Brown (1773-1858), ao usar um microscópio para estudar grãos de pólen suspensos em água, reparou que estes se moviam ligeiramente e de forma errática, primeiro numa direcção e depois noutra diferente, como se estivessem a tremer. Brown certificou-se que o fenómeno não se devia à presença de correntes na água ou à evaporação desta, tendo concluído que a origem de tais movimentos tinha de ser algo de diferente.

Brown fez experiências com outros tipos de pólen e confirmou que em todos os casos os grãos se moviam daquela maneira, interrogando-se sobre se tal não se deveria ao facto de estarem animados de vida. Resolveu repetir a experiência com grãos de pólen obtidos de herbários e que tinham pelo menos um século de idade. Também estes se comportavam daquela forma. Depois usou pequenos objectos inanimados - minúsculos pedaços de vidro, carvão ou metal - e todos revelaram o mesmo comportamento errático. O fenómeno ficou conhecido como movimento browniano e, de início, ninguém soube explicá-lo.

No terceiro quartel do século XIX, porém, o matemático escocês James Clerk Maxwell (1831-1879) tentou explicar o comportamento dos gases a partir da ideia de que os átomos e moléculas que os constituem estão em constante movimento. Os primeiros atomistas tinham suspeitado da existência dum tal movimento, mas Maxwell foi o primeiro a conseguir formular uma teoria matemática. O modo como os átomos e moléculas em movimento faziam ricochete uns nos outros e nas paredes do recipiente que os continha, tal como modelado matematicamente por Maxwell, explicava perfeitamente o comportamento dos gases. Explicava, por exemplo, a lei de Boyle.

Dos trabalhos de Maxwell resultou também uma nova interpretação da temperatura, que passou a ser vista como uma medida da velocidade média a que se deslocavam os átomos e moléculas que compunham, não apenas os gases, mas também os líquidos e os sólidos. Mesmo nos sólidos, onde átomos e moléculas estão fixos nas suas posições e não se podem deslocar dum ponto para outro, eles vibram em torno duma posição média e a velocidade média dessa vibração representa a temperatura.

Em 1902, o químico sueco Theodor Svedberg (1884-1971) fez notar que o movimento browniano podia ser explicado supondo que um objecto colocado em água era bombardeado de todos os lados por moléculas de água em movimento. Em geral, esse bombardeamento será igual de todos os lados e, por isso, os objectos permanecem em repouso. Mas, por mero acaso, pode acontecer serem em maior número as moléculas que atingem um objecto de determinada direcção do que doutras. Porém, o número total de moléculas que o atingem é tão grande que um pequeno desvio duma situação de igualdade exacta (duas ou três moléculas em biliões) não produz qualquer deslocação mensurável.

Todavia, se o objecto suspenso em água for muito pequeno, o número de moléculas que o atingem de todos os lados é comparativamente pequeno e, por isso, um pequeno desvio pode ter um efeito comparativamente importante. A partícula reage ao empurrão de algumas moléculas adicionais vindas de determinada direcção, deslocando-se ligeira e bruscamente nessa direcção. No momento seguinte, surgem colisões adicionais doutra direcção, e a partícula é empurrada para esse lado. A partícula desloca-se de forma errática, em resposta ao movimento aleatório das moléculas que a rodeiam.

Svedberg limitou-se a especular mas, em 1905, o matemático ger-mano-suíço Albert Einstein (1879-1955) aplicou a teoria de Maxwell ao bombardeamento por moléculas de pequenas partículas, demonstrando de forma conclusiva que estas se comportavam exactamente como fora observado no caso dos grãos de pólen. Por outras palavras, apresentou um conjunto de equações matemáticas que descreviam o movimento browniano.

Em 1908, o físico francês Jean Baptiste Perrin (1870-1942) resolveu confrontar as equações de Einstein com observações experimentais. Colocou sobre água um fino pó de goma-resina. Se não existisse um bombardeamento por parte das moléculas de água, todas as partículas de goma-resina deveriam mergulhar até ao fundo do recipiente e aí permanecer. Caso contrário, algumas das partículas seriam empurradas para cima, contrariando a atracção da gravidade. Tais partículas voltariam a assentar, mas seriam de novo impelidas para cima. E algumas das que já estavam em suspensão seriam empurradas para cima mais ainda.

Em qualquer momento, existiria uma distribuição vertical das partículas de goma-resina. A maioria estaria no fundo do recipiente, mas várias estariam a pequena distância deste, algumas a uma distância um pouco maior e menos ainda a uma distância superior.

A equação matemática fojrmulada por Einstein permitia calcular o número de partículas que deviam ser encontradas a determinada distância do fundo, em função da dimensão das partículas e da dimensão das moléculas de água que com elas colidiam. Perrin contou o número de partículas encontradas a diferentes distâncias e verificou que obedeciam rigorosamente à equação de Einstein. A partir daí calculou a dimensão das moléculas de água e dos átomos que as constituíam.

Perrin publicou os seus resultados em 1913. Os átomos, segundo os seus cálculos, tinham um diâmetro correspondente a cerca da centésima milionésima parte dum centímetro. Dito doutro modo: uma fieira com 100 milhões de átomos colocados lado a lado teria um centímetro de comprimento.

Esta experiência foi aquilo que mais se aproximou duma observação directa de átomos. Se estes não podiam ser visualizados, era possível pelo menos observar os efeitos das suas colisões e, a partir daí, calcular as respectivas dimensões. Os cientistas mais reticentes tiveram de dar o braço a torcer. Mesmo Ostwald admitiu que os átomos eram reais e não apenas modelos de "faz-de-conta".

Em 1936, o físico alemão Erwin Wilhelm Mueller (1911-1977) imaginou um dispositivo capaz de ampliar a ponta duma agulha muito fina de tal maneira que fosse possível tirar fotografias em que eram visíveis os átomos que a constituíam, alinhados como pequenos pontos luminosos. Por volta de 1955, tais átomos puderam ser realmente visualizados.

Ainda assim, as pessoas continuam a falar em teoria atómica, porque é disso mesmo que se trata - dum mapa intelectual de domínios muito vastos da ciência que podem ser explicados duma forma precisa e elegante pela existência de átomos. Uma teoria, recordo, não é um "palpite", e nenhum cientista competente e no seu perfeito juízo duvida da existência de átomos. (Este aspecto da prova da existência de átomos também se aplica a outras teorias científicas bem estabelecidas. O facto de serem teorias não as torna incertas, mesmo quando diversos pormenores são ainda tema de discussão entre os cientistas. Isso é particularmente verdadeiro no caso da teoria da evolução, que é constantemente atacada por pessoas que são ignorantes do ponto de vista científico ou, pior ainda, que permitem que as suas superstições se sobreponham aos conhecimentos que possam ter adquirido.)


As Diferenças entre os Átomos

 

Parece razoável supor que, se existem diferentes tipos de átomos, eles devem apresentar diferenças nas suas propriedades. Se tal não sucedesse, e se todos os átomos tivessem as mesmas propriedades, por que razão haveriam alguns de resultar em ouro e outros em chumbo, quando reunidos?

A maior façanha intelectual dos Gregos na Antiguidade foi o desenvolvimento duma forma rigorosa de geometria. Por isso, era natural que alguns pensassem em formas quando reflectiam sobre os átomos que constituíam os seus "elementos". Para os Gregos, os átomos de água podiam ser concebidos como corpos esféricos que deslizavam uns sobre os outros com facilidade, razão pela qual a água podia ser vertida dum recipiente para outro. Os átomos de terra seriam cúbicos e estáveis e por isso a terra não fluía como a água. Os átomos de fogo eram denteados e tinham arestas afiadas, o que tornava o fogo doloroso. E assim por diante.

A ideia de que um tipo de átomo não se transformava noutro também ainda não estava clara nas mentes dos Gregos. Isso era especialmente verdade se considerarmos que o ouro e o chumbo constituíam duas variedades do elemento terra. Talvez bastasse separar os átomos de terra no chumbo e rearranjá-los doutra forma, ou modificá-los ligeiramente, para obter ouro.

Durante cerca de dois mil anos, diversas pessoas, algumas bem intencionadas e com espírito científico, mas na sua maioria aldrabões e charlatães, procuraram transformar metais de pouco valor, tais como o chumbo, no metal nobre ouro. Este processo foi designado por transmutação, da expressão latina que significa "mudar de lugar". Nunca ninguém foi bem sucedido.

Para os Gregos da Antiguidade, os átomos de água podiam ser encarados como corpos esféricos que deslizavam facilmente uns sobre os outros, razão pela qual era possível verter a água.

Uma vez elaborada a moderna teoria atómica, tornou-se claro não apenas que os átomos eram diferentes uns dos outros, mas que não se podiam transformar uns nos outros. Cada átomo apresenta propriedades fixas e permanentes e, por isso, um átomo de chumbo não pode ser convertido num átomo de ouro. (Mais tarde, como veremos, descobrir--se-ia que não era bem assim, mas apenas em condições muito especiais.)

Mas se diferentes tipos de átomos diferem uns dos outros, em que consiste exactamente essa diferença? Dalton raciocinou do seguinte modo: se uma molécula de água é constituída por oito partes de oxigénio para uma parte de hidrogénio, e se a molécula é constituída por um átomo de oxigénio e um átomo de hidrogénio, então o átomo individual de oxigénio pesa oito vezes mais que o átomo individual de hidrogénio. (Para sermos mais precisos, devíamos dizer que o átomo de oxigénio tem uma "massa" oito vezes superior à "massa" do átomo de hidrogénio. O peso dum objecto representa a força com que a Terra o atrai, enquanto que a sua massa corresponde, grosso modo, à quantidade de matéria que ele contém. Dos dois conceitos, o de massa é o mais fundamental.)

E claro que Dalton não tinha maneira de saber qual era a massa dos átomos de hidrogénio ou oxigénio mas, fosse qual fosse o seu valor, a do segundo era oito vezes superior à do primeiro. Ora, se dissermos que o átomo de hidrogénio tem uma massa de 1, sem dizer 1 de quê, é lícito afirmar que o átomo de oxigénio tem uma massa de 8. (Na verdade, dizemos actualmente que a massa do átomo de hidrogénio é de 1 dalton, em homenagem ao cientista, mas geralmente diz-se apenas 1.)

Dalton estudou outros compostos com diferentes elementos e deduziu um sistema de números representando as massas relativas de todos. Chamou-lhes pesos atómicos, e a designação ainda hoje é usada, embora devêssemos falar em massas atómicas. (É frequente os cientistas começarem por utilizar um determinado termo e, tempos depois, concluírem que outro seria mais adequado. Mas nessa altura é demasiado tarde para mudar porque as pessoas já se habituaram à palavra menos apropriada. Ao longo do livro, encontraremos outras situações deste tipo.)

O problema do método usado por Dalton para determinar os pesos atómicos reside no facto dele ter sido obrigado a partir de pressupostos que facilmente podiam estar errados. Dalton considerava, por exemplo, que a molécula de água era constituída por um átomo de hidrogénio e um átomo de oxigénio, mas não tinha quaisquer provas disso.

Em situações destas, as provas são essenciais. Em 1800, o químico britânico William Nicholson (1753-1815) fez passar uma corrente eléctrica através de água acidulada, obtendo bolhas de hidrogénio e de oxigénio. O estudo deste fenómeno permitiu concluir que o volume de hidrogénio formado era duplo do de oxigénio, embora a massa de oxigénio libertado fosse oito vezes superior à do volume duplo de hidrogénio.

Por que razão é que era produzido o dobro do volume de hidrogénio? Seria porque a molécula de água era composta por dois átomos de hidrogénio e um átomo de oxigénio, em vez de conter apenas um átomo de cada tipo? Seria possível que o átomo de oxigénio fosse oito vezes mais pesado do que ambos os átomos de hidrogénio, ou dezasseis vezes mais pesado do que um único átomo de hidrogénio? Por outras palavras, se o peso atómico do hidrogénio era 1, seria o peso atómico do oxigénio 16 e não 8?

Dalton recusou-se a aceitar esta ideia. (Acontece muitas vezes um grande cientista que deu um gigantesco passo em frente recusar-se a dar os passos seguintes - como se esse esforço inicial o tivesse esgotado - deixando a outros a tarefa de prosseguir em frente.)

Neste caso, foi Berzelius quem deu o passo seguinte, atribuindo ao hidrogénio o valor 1 e ao oxigénio o valor 16. Este cientista estudou igualmente outros elementos e, em 1828, publicou uma tabela de pesos atómicos muito melhor do que aquela que fora elaborada por Dalton. O trabalho de Berzelius tornou claro que cada elemento tinha um peso atómico diferente, e que todos os átomos dum determinado elemento apresentavam o mesmo peso atómico. (Devo recordar de novo aos meus leitores que tais conclusões se viriam a revelar não inteiramente correctas mas que, na altura, estavam suficientemente certas para terem sido da maior utilidade durante quase um século. À medida que foi crescendo o conhecimento, essas concepções foram sendo modificadas dum modo que alterou ligeiramente, e fortaleceu consideravelmente, a teoria atómica. O aperfeiçoamento das teorias é um fenómeno que se repete vezes sem conta na ciência e que constitui motivo de orgulho para os cientistas. Supor que isso não devia acontecer e que as teorias deviam estar absolutamente correctas desde o início é o mesmo que imaginar que uma escada que se estende por cinco andares devia ser constituída por um único degrau com a altura dos cinco andares.)

Dissemos atrás que o volume de hidrogénio produzido quando a água é decomposta nos seus elementos constituintes pela passagem duma corrente eléctrica é duplo do volume de oxigénio. Como é que, a partir daqui, deduzimos que em cada molécula de água existem dois átomos de hidrogénio para um apenas de oxigénio? Parece razoável supor tal coisa, mas Berzelius não estava absolutamente certo. Também aqui se tratava duma suposição, embora existissem mais indícios a suportá-la do que à suposição de Dalton.

Em 1811, o físico italiano Amedeo Avogadro (1776-1856) apresentou uma conjectura de natureza mais genérica, sugerindo que, para qualquer gás, um determinado volume contém sempre idêntico número de moléculas. Se um gás ocupar um volume duplo de outro, o primeiro tem o dobro de moléculas do segundo. Esta conjectura ficou conhecida como hipótese de Avogadro. (Uma hipótese é uma suposição por vezes avançada para avaliar quais seriam as consequências da sua aceitação. Se as consequências estiverem em contradição com observações conhecidas, a hipótese está errada e pode ser descartada.)

Quando um cientista competente avança uma hipótese que pensa poder estar correcta, existem naturalmente francas possibilidades da mesma se vir a revelar verdadeira. Uma forma de testar a hipótese de Avogadro, por exemplo, consiste em estudar um grande número de gases e determinar o número de diferentes tipos de átomos existentes nas respectivas moléculas, admitindo que a hipótese é verdadeira.

Se procedêssemos desse modo e acabássemos por violar observações conhecidas ou por produzir uma contradição - por exemplo, se um raciocínio baseado na hipótese revelasse que determinada molécula tinha de apresentar determinada composição atómica e outro raciocínio sugerisse uma composição atómica diferente - a hipótese de Avogadro teria de ser abandonada.

Até hoje, ninguém encontrou caso algum em que a hipótese de Avogadro estivesse em contradição com as observações e, por isso, ela já não é considerada uma hipótese mas um facto, embora existam condições em que tem de ser modificada. Continua, no entanto, a ser designada hipótese de Avogadro, porque os químicos se habituaram a chamá-la assim.

Todavia, quando Avogadro propôs a sua hipótese, poucos foram os químicos que lhe prestaram qualquer atenção. Não tinham ouvido falar nela, ou consideraram-na ridícula ou irrelevante. Mesmo Berzelius não se serviu da hipótese, o que fez com que a sua tabela de pesos atómicos apresentasse alguns erros.

Em 1858, porém, o químico italiano Stanislao Cannizzaro (1826-1910) ouviu falar na hipótese de Avogadro e compreendeu que ela era aquilo que faltava para determinar quantos átomos de cada elemento existiam num composto e para obter os valores correctos dos respectivos pesos atómicos.

A lei de Avogadro: igual volume de quaisquer gases sob idênticas condições de temperatura e pressão contêm igual número de moléculas. Por exemplo, pode ser necessário 0,1 grama de hidrogénio gasoso para encher o balão duma criança. Seriam necessários cerca de 1,6 gramas de oxigénio gasoso para encher um balão idêntico do mesmo tamanho, mas ambos os balões contêm aproximadamente o mesmo número de moléculas.

Em 1860, teve lugar um grande congresso internacional de química (foi o primeiro do género), no qual participaram cientistas de toda a Europa. Aí, Cannizzaro explicou a hipótese de forma muito convincente.

Tal facto reforçou imediatamente a noção de peso atómico. Por volta de 1865, o químico belga Jean-Servai Stas (1813-1891) publicou uma nova tabela de pesos atómicos que era melhor que a de Berzelius. Quarenta anos mais tarde, o químico norte-americano Theodore William Richards (1868-1928) fez observações ainda mais precisas e obteve os melhores valores alguma vez alcançados antes de (como veremos) toda a questão dos pesos atómicos ter sido modificada em resultado de novas descobertas. Na época de Richards já se atribuíam Prémios Nobel, e ele recebeu o da química em 1914 pelo seu trabalho na determinação de pesos atómicos.

O elemento com o peso atómico mais baixo é o hidrogénio. Se ao seu peso atómico atribuirmos arbitrariamente o valor 1, então o peso atómico do oxigénio é ligeiramente inferior a 16. (O facto de não ser exactamente 16 é uma questão que abordaremos mais à frente.) Contudo, o oxigénio combina-se facilmente com diversos outros elementos, sendo muito mais fácil comparar o peso atómico de qualquer elemento com o do oxigénio do que com o do hidrogénio. É, por isso, conveniente atribuir ao peso atómico deste elemento um valor que corresponda a um número inteiro. Esse valor não deverá ser 1, porque isso faria com que sete elementos tivessem pesos atómicos inferiores à unidade, o que seria pouco prático do ponto de vista dos cálculos químicos.

Tornou-se, assim, habitual atribuir ao peso atómico do oxigénio exactamente o valor 16, o que faz com que o peso atómico do hidrogénio seja ligeiramente superior a 1. Tal significa também que nenhum elemento tem um peso atómico inferior a 1. Foi deste modo que Stas construiu a sua tabela, estabelecendo um modelo que seria seguido a partir daí. (No entanto, a situação alterou-se ligeiramente em anos recentes, por razões que serão adiante explicadas.)

Se os elementos forem apresentados por ordem crescente dos respectivos pesos atómicos, torna-se possível dispô-los numa tabela bastante complexa que mostra como algumas das suas propriedades se repetem periodicamente. Se os elementos forem disposto correctamente na tabela, os elementos com propriedades semelhantes pertencem a uma mesma coluna. A tal tabela chamou-se tabela periódica, e uma versão praticável da mesma foi primeiro apresentada pelo químico russo Dmi-tri Ivanovich Mendeleev (1834-1907) em 1869.

Inicialmente, a tabela periódica apresentava um carácter bastante provisório, uma vez que Mendeleev não conhecia todos os elementos. Muitos ainda não tinham sido descobertos. Ao ordenar a tabela de modo a que elementos semelhantes estivessem nas colunas adequadas, Mendeleev foi obrigado a deixar algumas posições por preencher. Ele teve a intuição de que elas correspondiam a elementos ainda por descobrir e, escolhendo três dessas posições, anunciou em 1871 as propriedades dos elementos por descobrir, que descreveu em pormenor. Por volta de 1885, os três elementos foram descobertos e as previsões de Mendeleev revelaram-se correctas em cada um dos casos. Esse acontecimento constituiu uma prova muito forte de que a tabela periódica era um fenómeno legítimo, embora ninguém fosse capaz de explicar o porquê da sua razão de ser. (Voltaremos adiante a este assunto.)


2. LUZ


Partículas e Ondas

 

Se estivermos preparados para admitir que toda a matéria é composta por átomos, então é razoável interrogarmo-nos sobre se existe alguma coisa no mundo que não seja matéria e que, por isso, não seja constituída por átomos. A primeira possibilidade que nos poderá ocorrer é a luz.

Desde sempre pareceu óbvio que a luz é imaterial. Podemos tocar nos sólidos e líquidos: eles têm massa (e, portanto, peso) e ocupam espaço. Os gases não podem ser percepcionados do mesmo modo que os sólidos e líquidos, mas um gás em movimento pode. Todos já experimentámos a sensação de ventos fortes e sabemos perfeitamente o que um tornado pode fazer. O ar também ocupa espaço. Se mergulharmos um copo invertido vazio (na realidade cheio de ar) num tanque de água, esta não enche completamente o copo, a não ser que deixemos o ar escapar-se. Em 1643, o físico italiano Evangelista Torricelli (1608-1647) demonstrou que o ar tinha peso e que esse peso podia suportar uma coluna de mercúrio com 76 centímetros de altura.

A luz, porém, não apresenta nenhuma destas propriedades. Não a podemos tactear, embora seja possível sentir o calor que ela produz. Nunca se detectou que tivesse massa ou peso perceptíveis. E não parece ocupar espaço.

Tal não significa, no entanto, que a luz, por ser imaterial, fosse considerada pouco importante. Segundo a Bíblia, as primeiras palavras proferidas por Deus foram: "Que exista a luz!" Além disso, sob a designação de fogo, constituía o quarto dos antigos elementos terrenos, a par dos três elementos materiais - ar, água e terra.

A luz solar foi naturalmente considerada luz na sua forma mais pura. Tratava-se de luz branca, imutável e eterna. Fazendo a luz atravessar um vidro colorido, ela adquiria a cor do vidro, mas tal era considerado uma impureza terrena. Quando os corpos ardiam na Terra e emitiam luz, esta podia ser amarela, laranja ou vermelha. Nalguns casos, a luz podia mesmo tornar-se verde ou azul se fossem adicionados ao fogo certos pós. Contudo, também aqui eram impurezas terrenas que proporcionavam tais cores.

A única entidade colorida que parecia nada ter de terreno era o arco--íris, suficientemente deslumbrante para dar origem a mitos e lendas. Pensava-se que era a ponte entre o Céu e a Terra, uma ponte que seria utilizada pelos mensageiros divinos. (O mensageiro dos deuses tem, na mitologia grega, o nome de íris, que é a palavra grega para "arco-íris".) O arco-íris era também uma garantia divina de que o mundo nunca mais seria destruído por um dilúvio, aparecendo no final das tempestades para indicar que Deus se lembrara dos homens e parara a chuva.

Em 1665, todavia, o cientista inglês Isaac Newton (1642-1727) produziu ele mesmo um arco-íris. Newton fez entrar um feixe de luz numa sala às escuras através dum orifício numa persiana e passou-o através dum objecto triangular tridimensional de vidro chamado prisma. O feixe de luz dispersou-se, dando origem a uma banda de cores na parede branca situada no fundo da sala. As cores eram o vermelho, laranja, amarelo, verde, azul e violeta, por esta ordem - precisamente a ordem em que ocorrem no arco-íris.

O arco-íris, sabemo-lo actualmente, é provocado pela passagem da luz solar através das inúmeras gotículas de água que permanecem no ar após uma chuvada. Tais gotículas têm sobre os raios de luz efeito idêntico ao do prisma de vidro.

Parecia então que a luz solar não era, afinal, luz "pura". A sua brancura era simplesmente o efeito produzido no olho por uma mistura de todas aquelas cores. Fazendo a luz passar por um prisma e depois por um prisma colocado na posição inversa, era possível fazer com que as cores se juntassem outra vez, produzindo de novo luz branca.

Uma vez que tais cores eram manifestamente imateriais, Newton resolveu chamar à banda colorida espectro, da palavra latina para "fantasma". No entanto, o espectro de Newton colocava um problema. Para as diferentes cores se separarem à passagem pelo prisma, Newton achava necessário que a sua trajectória habitual em linha recta fosse curvada (refractada) no momento em que entravam e saíam do vidro. Cada cor seria flectida de modo diferente (curvatura mínima no caso do vermelho e máxima no caso do violeta), para que houvesse separação e as cores ficassem individualmente visíveis quando a luz atingia a parede. Mas se as coisas se passavam assim, de que era feita a luz e o que explicava a sua separação e a produção dum espectro?

Sendo Newton um atomista, era natural que lhe ocorresse a ideia de que a luz era constituída por pequenas partículas, semelhantes aos átomos de matéria, com a diferença que as partículas de luz não tinham massa. Newton não possuía, no entanto, uma noção clara sobre o modo como as partículas de luz se distinguiam umas das outras e a razão pela qual algumas eram mais refractadas por um prisma do que outras.

Além disso, quando dois feixes de luz se cruzavam, nenhum era afectado pelo outro. Se ambos fossem constituídos por partículas, não deviam elas colidir e ressaltar uma das outras de modo aleatório, tornando o feixe pouco nítido e mais disperso após as colisões?

O físico holandês Christiaan Huygens (1629-1695) apresentou uma sugestão alternativa. Para ele, a luz era constituída por pequenas ondas. Em 1678, demonstrou que um conjunto de ondas podia avançar segundo uma linha recta, tal como um feixe de partículas, e que dois feixes constituídos por ondas podiam cruzar-se sem que um perturbasse o outro.

O problema desta hipótese ondulatória estava em que as pessoas pensavam em ondas do tipo das que se produzem na água quando deixamos cair uma pequena pedra num lago: à medida que as ondas de água se expandem, tendem a circundar um obstáculo como, por exemplo, um pedaço de madeira (difracção) e a unir-se de novo do outro lado. Mas se assim fosse, as ondas luminosas deviam tornear os obstáculos e não produzir sombras ou, então, produzir sombras de contornos pouco nítidos. Contudo, e como é conhecido, a luz dá origem a sombras bem definidas se a fonte luminosa for pequena e constante. Ora, tais sombras de contornos bem nítidos são exactamente aquilo que seria de esperar se a luz consistisse num feixe de minúsculas partículas. Este facto foi por isso considerado um argumento muito forte contra a hipótese ondulatória de Huygens.

E interessante referir que o físico italiano Francesco Maria Grimaldi (ca. 1618-1663) notara que um feixe de luz passando através de duas aberturas estreitas, uma a seguir à outra, se dispersava ligeiramente, o que indicava uma pequeníssima difracção à passagem pelos orifícios. As observações de Grimaldi foram publicadas em 1665, dois anos após a sua morte, mas passaram despercebidas. (Na ciência, como em muitos outros empreendimentos humanos, descobertas ou acontecimentos importantes perdem-se por vezes na confusão.)

Huygens, contudo, mostrou que se a luz fosse constituída por ondas, podia muito bem incluir ondas com diferentes comprimentos. As parcelas de luz com as ondas maiores seriam as menos refractadas. Quanto mais curtas fossem as ondas, maior seria a sua refracção. Desta forma tornava-se possível explicar o espectro, considerando que o vermelho tinha as ondas mais longas e que o laranja, amarelo, verde e azul eram constituídos por ondas sucessivamente mais curtas, correspondendo ao violeta os comprimentos de onda mais curtos.

Em termos globais, e olhando retrospectivamente para a questão, verificamos que pertenciam a Huygens os argumentos mais fortes. Mas a reputação de Newton estava a crescer rapidamente (ele era, sem dúvida, o maior cientista que alguma vez vivera) e tornava-se por isso difícil defender uma posição contrária à sua. (Os cientistas, sendo tão humanos como qualquer outra pessoa, deixam-se por vezes influenciar não apenas pela lógica mas também pelas personalidades.)

Foi assim que, ao longo do século XVIII, a maioria dos cientistas aceitou a ideia de que a luz era constituída por pequenas partículas. Tal poderá ter ajudado à disseminação das concepções atomistas da matéria. E, à medida que o atomismo se consolidava, reforçava por sua vez a hipótese corpuscular da luz.

Em 1801, todavia, o físico inglês Thomas Young (1773-1829) levou a cabo uma experiência crucial. Deixou que a luz incidisse sobre uma superfície onde existiam duas ranhuras muito próximas uma da outra. Cada ranhura funcionava como fonte dum cone de luz, e os dois cones produzidos sobrepunham-se antes de atingirem um ecrã.

Se a luz fosse constituída por partículas, a zona onde existia sobreposi- , ção deveria receber o impacte de partículas provenientes das duas ranhuras e, por isso, apresentar-se mais iluminada do que as zonas que apenas recebiam partículas duma ou outra das ranhuras. Mas as coisas não se passaram assim. Aquilo que Young verificou foi que a zona de sobreposição consistia numa série de bandas alternadamente mais claras e mais escuras.

Parecia não haver forma de explicar este fenómeno recorrendo à hipótese corpuscular. Admitindo a existência de ondas, pelo contrário, o problema desapar ecia. Se as ondas oriundas duma das ranhuras estivessem em fase com as oriundas da outra e assim se mantivessem, os altos e baixos (ou os picos e concavidades) dum conjunto de ondas seriam reforçados pelos do outro, e a oscilação dos dois conjuntos combinados seria mais forte do que a de qualquer um deles individualmente. A luminosidade aumentaria.

Em 1801, Thomas Young realizou uma experiência em que fez incidir luz sobre uma superfície contendo duas ranhuras muito próximas. Os cones de luz saídos de cada uma incidiam sobre uma superfície, sobrepondo-se, e dando produzindo um padrão de bandas alternadamente mais claras e mais escuras. Não parecia haver forma de explicar este fenómeno recorrendo à hipótese corpuscular.

Pelo contrário, se as ondas provenientes duma das ranhuras não estivessem em fase com as saídas da outra - se um conjunto de ondas subisse enquanto o outro descia (ou se um apresentasse um pico quando o outro tinha uma concavidade) - as duas ondas cancelar-se-iam, pelo menos parcialmente, e a sua combinação seria mais fraca do que cada uma individualmente. A luminosidade diminuiria.

Young conseguiu mostrar que, nas condições da sua experiência, os dois conjuntos de ondas estavam em fase numa região, fora de fase na região seguinte, de novo em fase na que se lhe seguia, e assim por diante, alternadamente. As bandas claras e escuras que se observavam eram exactamente aquilo que seria de esperar do comportamento das ondas.

Uma vez que um conjunto de ondas interfere com, e cancela, o outro conjunto em pontos específicos, as bandas são conhecidas como padrões de interferência. Tais padrões de interferência são observados quando, numa superfície de água em repouso, um conjunto de ondas se justapõe a outro. O fenómeno também se observa quando dois feixes de som (que se sabe serem constituídos por ondas) se intersectam. A natureza ondulatória da luz parecia assim ter sido demonstrada através da experiência de Young (embora, como seria de esperar, tal não significasse que os partidários da concepção corpuscular se tinham rendido facilmente - porque não o fizeram.)

Era até possível, a partir da largura das bandas de interferência, calcular o comprimento duma única onda de luz (comprimento de onda). Verificou-se que as ondas luminosas apresentavam comprimentos da ordem dos I/20 000 centímetros. O comprimento de onda da luz vermelha era um pouco maior do que isso, enquanto que o da luz violeta era um pouco menor. Tal significa que um raio de luz com cerca de dois centímetros e meio de comprimento tem aproximadamente 50 000 ondas dum extremo ao outro. E que é possível colocar cerca de cinquenta átomos lado a lado, ao longo dum único comprimento de onda de luz.

Fica assim explicado por que razão a luz, apesar de ser constituída por ondas, dá origem a sombras bem definidas. As ondas só torneiam os obstáculos quando estes não são muito mais longos do que elas. Uma onda não circunda nada que seja substancialmente mais longo do que o seu comprimento. As ondas sonoras são muito longas e, por isso, podem rodear a maioria dos obstáculos habituais.

No entanto, praticamente tudo aquilo que conseguimos ver é muito mais longo do que uma onda luminosa, pelo que o fenómeno referido quase não ocorre e as sombras produzidas são bem definidas. Ele existe, ainda assim, de modo quase imperceptível, quando os objectos são bastante pequenos e, nesses casos, os limites da sombra tendem a mostrar-se um tanto ou quanto difusos. É isso que explica o efeito de difracção que Grimaldi descobrira 130 anos antes de Young.

Contudo, a questão da luz não ficara ainda resolvida. As pessoas conheciam dois tipos de ondas. As ondas de água, que se propagam radialmente e em que as partículas de água se movem para cima e para baixo numa direcção perpendicular à direcção de propagação da onda. Essas ondas eram chamadas transversais. E as ondas sonoras, que também se propagam radialmente mas onde as partículas de ar se movem para dentro e para fora, numa direcção paralela à direcção de propagação da onda. Estas ondas eram chamadas longitudinais.

1. As ondas de água propagam-se radialmente e as partículas de água movem-se para cima e para baixo numa direcção perpendicular à direcção de propagação da onda. A este tipo de ondas chamamos ondas transversais.

2. As ondas sonoras também se propagam radialmente, mas as partículas de ar deslocam-se para dentro e para fora numa direcção paralela à direcção de propagação da onda. A este tipo de ondas chamamos ondas longitudinais.

De que tipo seria o comportamento das ondas luminosas? Quando propusera a hipótese ondulatória, Huygens pensara que, sendo a luz e o som origem de percepções, deviam ter uma natureza semelhante. Uma vez que se sabia que o som resultava de ondas longitudinais, sugerira que a luz era constituída por ondas do mesmo tipo. Young pensava do mesmo modo, quando demonstrou a natureza ondulatória da luz.

Porém, vários anos antes, em 1669, o cientista dinamarquês Erasmus Bartholin (1625-1698) recebera da Islândia um cristal transparente dum material actualmente designado como espato da Islândia. E reparara que os objectos, quando vistos através dele, davam origem a uma dupla imagem. Bartholin concluíra que a luz, ao atravessar o cristal, era retractada segundo dois ângulos diferentes, pelo que uma parte dela emergia num determinado ponto e a restante num ponto ligeiramente diferente, produzindo uma imagem dupla.

Bartholin foi incapaz de explicar a razão de ser de tal fenómeno, tal como Newton ou Huygens. E, por isso, ele foi posto de lado e temporariamente considerado inexplicável. (Nem tudo pode ser explicado em determinado estádio do conhecimento. A atitude mais sensata consiste em explicar aquilo que pode ser explicado e esperar que, com o avanço do conhecimento, chegue o dia em que aquilo que é temporariamente inexplicável pode também ser explicado.)

Em 1817, Young compreendeu que a dupla refracção não podia ser facilmente explicada se a luz fosse constituída por partículas ou ondas longitudinais, mas sê-lo-ia admitindo que a luz eram ondas transversais.

O físico francês Augustin Jean Fresnel (1788-1827) adoptou este ponto de vista e levou a cabo um estudo teórico aprofundado e cuidadoso da luz enquanto fenómeno consistindo em ondas transversais, uma investigação que permitiu explicar tudo o que na época se conhecia acerca do comportamento da luz. O seu trabalho esclareceu de vez a questão. Durante os oitenta anos que se seguiram, os físicos contentaram-se com a ideia de que a luz consistia em pequenas ondas transversais e que nada mais havia para compreender.


Os Quatro Fenómenos

 

Raramente uma resposta é completamente satisfatória e isso parece ser particularmente verdadeiro na ciência, onda cada resposta parece pôr a nu uma pergunta mais subtil. Se admitirmos que a luz existe sob a forma de ondas, tal como o som e a superfície perturbada dum lago, fica por esclarecer a razão pela qual as ondas luminosas se deslocam facilmente através do vácuo, ao contrário do que sucede com as ondas sonoras ou de água.

As ondas de água existem porque as moléculas de água se deslocam com regularidade para cima e para baixo. Se não existisse água, também não existiam ondas de água. As ondas sonoras existem porque as moléculas de ar (ou as moléculas de qualquer meio em que o som se propague) se deslocam regularmente para a frente e para trás. Se não existir o ar ou outro meio de propagação, as ondas sonoras também não existem.

No caso das ondas luminosas, porém, o que é que se está a deslocar para cima e para baixo? Não pode ser uma forma vulgar de matéria, uma vez que as ondas luminosas se propagam no vácuo onde, aparentemente, não existe matéria.

Newton tinha enfrentado um problema semelhante quando elaborara a lei da gravitação universal em 1687. O Sol mantinha a Terra sob a sua influência gravitacional à distância de 150 milhões de quilómetros de vácuo. Como é que tal efeito, fosse qual fosse a sua natureza, podia viajar através do vazio?

Newton pensou que talvez o vácuo não fosse o nada, mas um tipo de matéria mais subtil do que a matéria vulgar e, por isso, não facilmente detectável. Essa matéria foi denominada "éter", em homenagem ao "éter" que Aristóteles imaginara ser o constituinte dos corpos celestes. A atracção gravítica exercia-se sobre o éter e o efeito propagava-se duma parcela de éter à seguinte até que, finalmente, o Sol atraía a Terra.

Talvez fosse este éter (ou outro tipo) que ondulava para cima e para baixo aquando da passagem da luz. Ele teria de ocupar todo o espaço, uma vez que conseguíamos ver até as estrelas mais distantes. Além disso, teria de ser uma forma de matéria tão fina e rarefeita que não interferisse com o movimento da Terra ou de qualquer outro corpo celeste pelo espaço, por mais leve que fosse. Fresnel sugeriu que o éter permeava a própria Terra e todos os outros corpos celestes.

No entanto, ao deslocarem-se para cima, as partículas de éter deviam ficar sujeitas a uma força restaurativa que as deslocasse de novo para baixo, para lá do ponto de equilíbrio e depois de novo para cima. Quanto mais rígido for um meio, mais rapidamente vibra para cima e para baixo e mais depressa uma onda se propaga nele.

A luz propaga-se à velocidade de 299 792 quilómetros por segundo. Este valor foi primeiro determinado duma forma muito aproximada, em 1676, pelo astrónomo dinamarquês Olaus Roemer (1644-1710). Para permitir a deslocação da luz a tal velocidade, o éter teria de ser mais rígido do que o aço.

Ora, a ideia dum vácuo feito de matéria tão fina e rarefeita que permitisse a livre passagem dos corpos sem interferências mensuráveis e ao mesmo tempo mais rígida do que o aço causava perplexidade. Mas aos cientistas não parecia restar então outra alternativa que não fosse supor que as coisas eram mesmo assim.

Para além da luz e da gravidade, conheciam-se dois outros fenómenos que se faziam sentir através do vácuo: a electricidade e o magnetismo. Segundo a tradição, ambos haviam sido estudados pela primeira vez por Tales, que investigara um certo fragmento de minério de ferro encontrado próximo da cidade de Magnésia, na margem oriental do Mar Egeu. Esse fragmento tinha a propriedade de atrair pedaços de ferro, contan-do-se que Tales lhe terá dado o nome de ho magnetes lithos ("a pedra de Magnésia"). Desde essa altura que se chama magnetes aos corpos que apresentam a propriedade de atrair o ferro.

Tales descobriu também que se esfregasse fragmentos de âmbar (uma resina fossilizada), estes atraíam, não o ferro em particular, mas qualquer objecto leve. Essa diferença de comportamento significava que a atracção não se devia ao magnetismo. A palavra grega para âmbar é elektron e o fenómeno ficou conhecido como electricidade.

Algures durante o século XI, descobriu-se na China - embora se desconheçam a data, o autor e as circunstâncias da descoberta - que uma agulha feita de minério magnético, ou de aço que tivesse sido magnetizado passando-o por minério magnético, deixada a rodar livremente, se alinhava segundo a direcção norte-sul. Além disso, se as respectivas extremidades fossem marcadas, era sempre a mesma que apontava o norte.

Essa extremidade foi designada pólo norte magnético e a outra pólo sul magnético. Em 1269, o sábio francês Petrus Peregrinus (1240-?) realizou experiências com tais agulhas e descobriu que o pólo norte magnético duma era atraído pelo pólo sul magnético de outra. Por outro lado, verificou que os pólos norte de duas agulhas magnetizadas se repeliam, o mesmo sucedendo com os seus pólos sul. Em suma: os pólos magnéticos iguais repeliam-se, enquanto que os pólos magnéticos diferentes se atraíam.

Em 1785, o físico francês Charles Augustin de Coulomb (1736-1806) mediu a força com que um pólo norte magnético atraía um pólo idêntico ou repelia um pólo diferente. E verificou que a atracção ou repulsão diminuíam com o quadrado da distância. Ou seja, se aumentasse a distância x vezes, a força entre os pólos passava a ser 1/ix l/x, ou l/x2 daquilo que era antes. Quando Newton estudara a gravitação, em 1687, também mostrara que a força de atracção gravítica variava na razão inversa do quadrado da distância entre os corpos.

1. e 2. Uma agulha de ferro não magnetizada é atraída pelo pólo norte ou pelo pólo sul dum magnete. Contudo, uma vez magnetizada, uma das suas extremidades será repelida e a outra atraída.

3. Pólos diferentes (N, S) atraem-se.

4. Pólos idênticos (N, N ou S, S) repelem-se.

Assim, a Lua está a uma distância do centro da Terra sessenta vezes superior à distância a que dele se encontra a superfície do nosso planeta. A atracção gravítica exercida pela Terra na Lua é apenas 1/60 x 1/60, ou 1/3600 do seu valor à superfície da Terra. No entanto, essa atracção é directamente proporcional ao produto das duas massas envolvidas e tanto a Terra como a Lua são tão maciças que a atracção exercida pela Terra é ainda suficientemente grande a essa distância para manter a Lua em órbita.

É por esse mesmo motivo que o Sol mantém a Terra em órbita, a uma distância quase 400 vezes superior à que vai da Terra à Lua. Também os enormes enxames de galáxias, que se estendem no espaço por milhões de anos-luz, são mantidos juntos por atracções desse tipo.

Contudo, e como se veio a verificar, a atracção magnética entre duas agulhas magnetizadas é biliões de biliões de biliões de vezes mais forte do que a atracção gravítica entre ambas. Por que será então que estamos tão conscientes das atracções gravíticas e praticamente não nos apercebemos das atracções magnéticas? Por que razão é que os objectos astronómicos são mantidos juntos pela gravitação, mas nunca ouvimos falar de dois corpos mantidos juntos por uma força magnética?

A resposta reside no facto do magnetismo envolver tanto uma atracção como uma repulsão, ambas de igual intensidade. A gravitação, pelo contrário, envolve apenas uma atracção. Não existe repulsão gravítica.

O mundo está cheio de magnetes. Como veremos adiante, cada átomo é um pequeno magnete. Os magnetes do Universo, todavia, estão orientados em todas as direcções, existindo tantas possibilidades de repulsões como de atracções. Tudo somado, umas e outras anulam-se e ficamos com um Universo em que não existem, globalmente falando, muitas atracções ou repulsões magnéticas.

A gravitação, porém, que apenas envolve uma atracção, tende, por assim dizer, a acumular-se. Embora o efeito da atracção gravítica seja tão pequeno que passa despercebido no caso de objectos vulgares, ou mesmo de montanhas, ele torna-se enorme quando estamos a lidar com corpos com as dimensões da Terra ou do Sol.

Ainda assim, o magnetismo desempenha uma função. Suponhamos que colocávamos uma folha dum papel rígido sobre uma barra de aço magnetizada. E que espalhávamos alguma limalha de ferro sobre o papel, permitindo à limalha deslocar-se e assumir posições naturais relativamente ao magnete. Se procedermos do modo descrito, a limalha organiza-se num conjunto de linhas curvas que vão dum pólo do magnete ao outro. Peregrinus já tinha observado este fenómeno e, em 1831, o cientista inglês Michael Faraday (1791-1867) resolveu dedicar-lhe a sua atenção.

Faraday considerou que a influência do magnete se fazia sentir no espaço em todas as direcções, num campo magnético cuja intensidade diminuía com o quadrado da distância. Era possível desenhar nesse campo um grande número de linhas (linhas de força magnética) que indicavam regiões de igual intensidade do campo magnético. A limalha de ferro distribuía-se segundo essas linhas, tornando-as assim visíveis.

E essa a razão porque as agulhas magnéticas duma bússola apontam o norte e o sul. A própria Terra é um magnete e as agulhas alinham-se segundo as linhas de força magnéticas que vão dum dos pólos magnéticos da Terra para o outro. (Os pólos magnéticos da Terra situam-se a norte e a sul, mas encontram-se a uma distância considerável dos pólos geográficos de rotação.) Muitos outros fenómenos relacionados com os magnetes podem ser explicados através dos conceitos de campo magnético e de linhas de força, e essa ideia de Faraday manteve-se válida desde então. (Existem igualmente campos gravíticos e eléctricos, com as suas linhas de força.)

E quanto à electricidade? O físico inglês William Gilbert (ca. 1544--1603) retomou os trabalhos de Tales sobre as substâncias electrificadas, ampliando-os. Numa obra publicada em 1600, explicou que outras substâncias para além do âmbar eram igualmente capazes de atrair objectos leves, quando esfregadas. Gilbert chamou a tais objectos eléctricos.

Em 1733, o químico francês Charles François de Cisternay Dufay (1698-1739) fez experiências com barras de vidro e de resina que podiam ser "electrificadas" se esfregadas, tornando-se capazes de atrair objectos leves. Umas e outras conseguiam atrair pequenos fragmentos de cortiça que ficavam, por sua vez, electrificados.

Um fragmento de cortiça electrificado pelo vidro atraía outro fragmento electrificado pela barra de resina. No entanto, dois fragmentos de cortiça electrificados pelo vidro repeliam-se e o mesmo acontecia com dois fragmentos electrificados pela barra de resina. Dufay concluiu que existiam dois tipos de electricidade, cada qual repelindo-se a si mesmo mas atraindo o outro tipo, como sucedia com os dois tipos de pólos magnéticos.

O cientista norte-americano Benjamin Franklin (1706-1790) deu o passo seguinte. Em 1747, sugeriu que existia apenas um tipo de electricidade, que toda a matéria possuía numa quantidade normal e que não era detectável. Ao serem esfregados, no entanto, certos corpos perdiam alguma da sua electricidade enquanto que outros a adquiriam. Os objectos que tinham um excesso de electricidade podiam ser considerados como estando positivamente carregados; aqueles que apresentavam um défice estavam negativamente carregados.

Em tais circunstâncias, um corpo carregado positivamente atraía um corpo carregado negativamente, uma vez que o contacto entre ambos permitia que o excesso de carga do primeiro fluísse para o segundo, compensando o défice que existia neste. Os dois efeitos cancelavam-se mutuamente e o que restava eram dois objectos sem carga. (Isto foi observado por Franklin, nas experiências que realizou.) Por outro lado, dois objectos positivamente carregados repeliam-se, tal como sucedia com dois objectos carregados negativamente, porque não havia em nenhum dos casos hipótese da carga fluir dum para o outro.

Faltava apenas a Franklin determinar qual dos dois tipos de corpos carregados electricamente possuía um excesso e qual possuía um défice de carga. Na altura não havia forma de resolver a questão, pelo que Franklin tomou uma decisão arbitrária, considerando que o vidro esfregado tinha um excesso de carga e devia por isso ser considerado positivo (+), enquanto que as resinas esfregadas tinham um défice de carga e deviam ser consideradas negativas (-).

Desde então, as pessoas que trabalham com correntes eléctricas consideram que estas se deslocam do positivo para o negativo. Infelizmente, Franklin tinha cinquenta por cento de probabilidade de acertar e enganou-se. Com efeito, era a barra de resina que tinha um excesso de carga e, portanto, a corrente flui do negativo para positivo. Isso, porém, é irrelevante em engenharia electrotécnica. Os resultados são os mesmos, seja qual for o sentido em que convencionarmos que a corrente se desloca, desde que tomemos uma decisão e não mudemos de ideias a meio dos nossos raciocínios.


A Combinação dos Fenómenos

 

Existem, portanto, quatro fenómenos que se fazem sentir através do vácuo - luz, electricidade, magnetismo e gravitação - e que naquele tempo se pensava que usavam o éter. Mas usariam todos o mesmo éter ou teria cada qual o seu próprio éter? Não havia maneira de saber, mas a luz era por vezes descrita em termos de ondas que se deslocavam no éter luminífero, duma expressão latina que significa "transportando luz". Existiriam também um éter "electrífero", "magnetífero" ou "gra-vitífero"?

As diferenças entre os quatro fenómenos não eram todas da mesma ordem. A luz parecia não atrair nem repelir. A gravitação só atraía. A electricidade e o magnetismo, no entanto, atraíam e repeliam, fazendo-o de forma muito semelhante, repelindo iguais e atraindo diferentes. Destes dois últimos fenómenos, um parecia ter origem no outro.

Em 1819, o físico dinamarquês Hans Christian Oersted (1777-1851) estava a dar uma aula sobre electricidade e, à laia de demonstração (não sabemos exactamente aquilo que pretendia demonstrar), aproximou uma bússola dum fio metálico através do qual passava uma corrente eléctrica. Para sua enorme surpresa, a agulha da bússola reagiu imediatamente, apontando numa direcção perpendicular à da corrente. Quando Oersted inverteu a corrente eléctrica, a agulha da bússola rodou, apontando na direcção contrária, de novo perpendicularmente à corrente.

Oested foi o primeiro a demonstrar a existência duma ligação íntima entre electricidade e magnetismo, mas não prosseguiu com as suas investigações. Outros, no entanto, que tinham ouvido falar no fenómeno, fizeram-no imediatamente.

Em 1820, o físico francês Dominique François Arago (1786-1853) demonstrou que um fio metálico onde passava uma corrente eléctrica funcionava como um magnete, sendo capaz de atrair limalha de ferro. Isso deixava de acontecer quando a corrente eléctrica era interrompida. Uma vez que o fio usado era de cobre, tal provava que o magnetismo não era necessariamente um atributo exclusivo do ferro, mas uma propriedade que podia existir em qualquer matéria. Os cientistas começaram a falar em electromagnetismo.

Nesse mesmo ano, um outro físico francês, André Marie Ampere (1775-1836) mostrou que dois fios metálicos paralelos onde passava uma corrente eléctrica na mesma direcção se atraíam mutuamente; se as correntes que neles circulavam tivessem direcções opostas, os fios repeliam-se.

Se torcermos um fio metálico dando-lhe a forma duma hélice (à maneira duma mola de colchão de cama), e passarmos por ele uma corrente eléctrica, esta circulará em cada volta da hélice na mesma direcção. Todas as voltas se atraiem umas às outras e cada qual cria um campo magnético que reforça todos os outros. O solenóide (espiral de fio metálico) funciona como um magnete de barra, com um pólo norte magnético numa extremidade e um pólo sul magnético na outra.

Em 1823, o físico britânico William Sturgeon (1783-1850) envolveu com fio metálico uma barra de ferro em forma de U. O ferro intensificava o campo magnético e, quando a corrente eléctrica foi ligada, transformou-se num electromagnete surpreendentemente poderoso.

Em 1829, o físico norte-americano Joseph Henry (1797-1878) utilizou fio metálico isolado (para evitar curto-circuitos), fazendo-o passar centenas de vezes em volta duma barra de ferro. Com tal procedimento fabricou um electromagnete capaz de levantar quantidades fenomenais de ferro quando fazia passar uma corrente eléctrica através do fio metálico.

Faraday pensou depois na possibilidade inversa. Se a electricidade podia criar magnetismo, seria o magnetismo capaz de dar origem a electricidade? Faraday resolveu introduzir um magnete de barra vulgar num solenóide que não estava ligado a qualquer pilha. O solenóide, no entanto, era atravessado por uma corrente eléctrica quando o magnete era introduzido e retirado do seu interior. A corrente não existia quando o magnete estava em repouso em qualquer ponto no interior do solenóide. Aparentemente, a corrente apenas circulava através do fio metálico quando este atravessava as linhas de força magnéticas, deslocando-se numa direcção quando o magnete era introduzido no solenóide e na direcção oposta quando aquele era retirado.

Em 1831, Faraday concebeu um sistema em que um disco de cobre girava entre os pólos dum magnete. Criava-se uma corrente eléctrica no disco, que fluía continuamente enquanto o disco estivesse a girar. Manter este em movimento exigia um certo esforço, porque era necessário realizar trabalho para fazer o disco atravessar as linhas de força do campo magnético. No entanto, se tal fosse feito recorrendo a força humana ou animal, através duma queda de água ou pela força do vapor produzido. pela queima de combustível, era possível transformar trabalho mecânico em electricidade.

Desta vez, foi Henry quem pensou na situação inversa. Nesse mesmo ano inventou o motor eléctrico, em que a circulação de electricidade fazia uma roda mover-se.

Todas estas descobertas serviram para electrificar o mundo (em sentido real e em sentido figurado) e alteraram de forma radical a sociedade. Para os cientistas, porém, a importância de tais descobertas residiu no facto de todas elas apontarem crescentemente para uma relação íntima entre electricidade e magnetismo.

Com efeito, houve quem começasse a pensar que existia um único campo electromagnético, um campo que por vezes revelava a sua faceta eléctrica e, outras vezes, a sua faceta magnética. Essas ideias culminaram nos trabalhos de Maxwell que, entre 1864 e 1873, estudou as implicações matemáticas das noções de campo e linha de força desenvolvidas por Faraday e da aparente ligação entre campos eléctricos e campos magnéticos. Maxwell formulou quatro equações matemáticas relativamente simples (simples para os matemáticos, pelo menos) que descreviam todos os comportamentos conhecidos da electricidade e do magnetismo. Essas equações ficaram conhecidas como as equações de Maxwell.

As equações de Maxwell (cuja validade foi confirmada por todas as observações realizadas desde então) mostram que os campos eléctrico e magnético não podem existir separadamente. Na verdade, existe apenas um campo electromagnético com uma componente eléctrica e uma componente magnética dispostas perpendicularmente.

Se os comportamentos eléctrico e magnético fossem análogos em todas as suas manifestações, as quatro equações seriam simétricas, como dois pares de imagens no espelho. Há, contudo, um aspecto em que os dois fenómenos não se assemelham. Nos fenómenos eléctricos, as cargas positivas e negativas podem existir independentemente umas das outras. Um corpo pode estar carregado positivamente ou negativamente. Nos fenómenos magnéticos, porém, os pólos magnéticos não existem separadamente. Qualquer corpo que apresente propriedades magnéticas tem um pólo norte magnético num ponto e um pólo sul magnético noutro. Se partirmos ao meio uma agulha magnetizada, com um pólo norte magnético numa extremidade e um pólo sul magnético na outra, os pólos não ficam isolados. A metade que tem o pólo norte magnético desenvolve instantaneamente um pólo sul magnético no local da quebra, enquanto que a metade com o pólo sul magnético desenvolve um pólo norte magnético na nova extremidade.

Maxwell incluiu esse facto nas suas equações, introduzindo desse modo uma nota de assimetria. Isso é algo que desde então tem incomodado os cientistas, que possuem uma preferência natural pela simplicidade e simetria. Esta "falha" nas equações de Maxwell é um assunto a que regressaremos mais à frente.

Maxwell mostrou como, a partir destas equações, se podia provar que um campo eléctrico variável produz inevitavelmente um campo magnético variável que, por sua vez, produz outro campo eléctrico variável, e assim por diante, indefinidamente. Isso equivale a uma radiação electromagnética que se expande sob a forma duma onda, a uma velocidade constante. A velocidade dessa radiação pode ser calculada, determinando o rácio entre unidades que exprimem fenómenos magnéticos e outras que exprimem fenómenos eléctricos. O valor a que se chega é de aproximadamente 300 000 quilómetros por segundo, que é a velocidade da luz.

Tal não podia ser uma mera coincidência. A luz era, aparentemente, radiação electromagnética. As equações de Maxwell serviram, assim, para unificar três dos quatro fenómenos que se sabiam serem capazes de atravessar o vácuo: electricidade, magnetismo e luz.

Apenas a gravitação ficara fora desta unificação. Ela parecia nada ter em comum com os outros três fenómenos. Em 1916, Albert Einstein elaborou a sua teoria da relatividade generalizada, que aperfeiçoou o conceito de gravitação de Newton. Na interpretação da gravidade feita por Einstein que, hoje em dia, é amplamente aceite e considerada essencialmente correcta, deve existir radiação gravítica sob a forma de ondas, análoga à radiação electromagnética. Tais ondas gravíticas são, contudo, muito mais subtis, ténues e difíceis de detectar do que as ondas electromagnéticas. Apesar dalguns falsos alarmes, ainda não tinham sido detectadas à data da escrita deste livro. Ainda assim, não existe praticamente nenhum cientista da especialidade que duvide da sua existência.


A Extensão do Espectro

 

As equações de Maxwell não colocavam quaisquer limites ao período das oscilações do campo electromagnético. Pode tratar-se duma oscilação por segundo ou menos ainda, de modo que cada onda tem 300 000 quilómetros de comprimento ou mais. Também pode ser a décima potência dum milhão de oscilações por segundo ou mais, de modo que cada onda tem um comprimento correspondente à bilionésima parte da bilionésima parte dum centímetro. E o valor pode ser qualquer número entre estes dois valores.

As ondas luminosas, contudo, representam apenas uma pequena parte destas possibilidades. Os comprimentos de onda mais longos da luz visível correspondem a 0,0007 milímetros de comprimento e os mais curtos correspondem a cerca de metade desse valor. Significará isto que existe radiação electromagnética que não vemos?

Ao longo de grande parte da história da humanidade, perguntar se existia luz que não éramos capazes de ver teria parecido uma contradição. A luz era, por definição, algo que se podia ver.

Em 1800, o astrónomo germano-britânico William Herschel (1738--1822) foi o primeiro a mostrar que isso não representava, afinal, uma contradição. Nesse tempo, pensava-se que a luz e o calor que nos chegavam do Sol eram dois fenómenos distintos. Herschel quis saber se o calor também produzia um espectro semelhante ao da luz.

E assim, em vez de analisar visualmente o espectro, o que apenas lhe permitia observar a luz, Herschel resolveu estudá-lo com um termómetro e medir a temperatura. Colocando o termómetro em diversos pontos daquele, registou a respectiva temperatura. Herschel esperava que a temperatura fosse mais alta no meio do espectro e que diminuísse nas suas extremidades.

Mas não foi isso que aconteceu. A temperatura crescia de forma constante à medida que se afastava do violeta, atingindo o seu valor mais elevado na extremidade vermelha do espectro. Surpreendido, Herschel interrogou-se sobre aquilo que sucederia se colocasse o termómetro para lá do vermelho. Para sua grande surpresa, descobriu que a temperatura era aí ainda mais elevada do que em qualquer ponto do espectro visível. Herschel pensou ter detectado ondas de calor.

Alguns anos mais tarde, porém, quando se generalizou a aceitação da teoria ondulatória da luz, tornou-se possível interpretar melhor estes fenómenos. A luz solar é constituída por um conjunto de comprimentos de onda que podem ser refractados por um prisma. A nossa retina reage a comprimentos de onda situados dentro de certos limites, mas a luz solar inclui ainda ondas que são mais longas do que o vermelho no espectro visível e que, por isso, se situam para lá da sua extremidade vermelha. A nossa retina não é sensível a tais ondas longas e, portanto, não as vemos. Contudo, elas estão lá. São designadas raios infravermelhos, sendo o prefixo oriundo duma palavra latina que significa "por baixo", uma vez que podemos encarar o espectro como indo do violeta, no topo, ao vermelho, em baixo.

A luz, quando incide sobre a nossa pele, é reflectida ou absorvida. Quando é absorvida, a sua energia acelera o movimento das moléculas que a constituem e esse efeito faz-se sentir sob a forma de calor. Quanto maiores forem os comprimentos de onda, mais profunda é a penetração na pele e mais fácil é a sua absorção. E assim, embora não possamos ver os infravermelhos, sentimo-los como calor e um termómetro pode registar o seu efeito.

Ultravioleta Violeta Azul Verde Amarelo Laranja Vermelho Infravermelho

1. Luz Infravermelha. Em 1800, quando William Herschel colocou o seu termómetro na região escura situada para lá da extremidade vermelha do espectro, verificou com surpresa que era aí que registava as temperaturas mais elevadas.

2. Luz Ultravioleta. Em 1770, Karl Wilhelm Scheele descobriu que papel embebido numa solução de nitrato de prata escurecia mais depressa quando exposto a luz violeta. Em 1801, John Wilhelm Ritter expôs o papel na região escura do espectro situada para lá do violeta e o papel escureceu ainda mais depressa.

Seria da maior utilidade, evidentemente, se pudéssemos demonstrar que os raios infravermelhos são ondas semelhantes às da luz, mas com comprimentos de onda maiores. Poderíamos porventura sobrepor dois feixes de raios infravermelhos e produzir padrões de interferência, mas ninguém seria capazes de os ver. Talvez o fenómeno pudesse ser detectado por um termómetro, que registasse a temperatura a subir de cada vez que o instrumento atravessasse uma zona "mais clara" e a descer sempre que passasse por uma zona "mais escura".

Em 1830, o físico italiano Leopoldo Nobili (1784-1835) inventou um termómetro capaz de realizar tais medições. Um dos seus colaboradores era o físico italiano Macedónio Melloni (1798-1854). Uma vez que o vidro absorvia uma grande parte dos raios infravermelhos, Melloni resolveu usar prismas de sal-gema, um material transparente aos raios infravermelhos. Formaram-se padrões de interferência e o termómetro de Nobili demonstrou a sua existência. Por volta de 1850, Melloni tinha já mostrado que os raios infravermelhos apresentavam todas as propriedades da luz - salvo que não podiam ser observados à vista desarmada.

E quanto à outra extremidade do espectro, que vai do violeta ao negro? Essa história começa em 1614, quando o químico italiano Angelo Sala (1576-1637) reparou que o nitrato de prata, um composto absolutamente branco, escurecia quando exposto à luz solar. Sabemos actualmente que isso sucede porque a luz contém energia e é capaz de decompor a molécula de nitrato de prata, dando origem a prata finamente dividida, que tem uma aparência escura.

Em 1770, o químico sueco Karl Wilhelm Scheele (1742-1786) estudou o assunto com mais atenção, utilizando o espectro solar, que não era conhecido no tempo de Sala. Embebeu estreitas tiras de papel em soluções de nitrato de prata, deixou-as secar e colocou-as em diferentes regiões do espectro. Scheele descobriu que as tiras de papel escureciam mais devagar na região do vermelho e mais rapidamente na região do violeta. Isso acontece (sabemo-lo agora, e por razões que serão explicadas adiante) porque a energia da luz aumenta à medida que se vai do vermelho para o violeta.

Uma vez descobertos os infravermelhos por Herschel em 1810, o químico alemão Johann Wilhelm Ritter (1776-1810) lembrou-se de verificar o que se passava na outra extremidade do espectro. Em 1801, embebeu tiras de papel numa solução de nitrato de prata e repetiu a experiência de Scheele, mas desta vez colocou tiras para lá da região do violeta, onde não era visível luz. Como suspeitava, as tiras de papel escureciam aí ainda mais depressa do que na região do violeta. Foi assim que se descobriram os raios ultravioletas, uma palavra cujo prefixo deriva do latim e significa "para lá de".

As radiações infravermelha e ultravioleta existem nos limites do espectro visível. As equações de Maxwell sugeriam a existência de radiação bem para lá desses limites. A sua detecção corroboraria as equações de Maxwell, uma vez que sem elas ninguém teria suspeitado da existência de tal radiação.

Em 1888, o físico alemão Heinrich Rudolf Hertz (1857-1894) utilizou um fio metálico de forma rectangular, com um espaço no meio, como dispositivo de detecção. Estabeleceu no seu laboratório uma corrente eléctrica variável. A medida que a corrente eléctrica oscilava, deslocando--se primeiro num sentido e depois no outro, devia emitir radiação electromagnética, com a onda de radiação movendo-se para cima, enquanto a corrente se deslocava num sentido, e depois para baixo, quando ela se deslocava na direcção contrária. Uma tal onda electromagnética devia apresentar um grande comprimento de onda uma vez que, mesmo que a corrente eléctrica variável mudasse de direcção a cada fracção de segundo, a luz se deslocaria grandes distâncias entre duas mudanças de direcção.

O fio metálico rectangular de Hertz adquiriria uma corrente eléctrica se a onda electromagnética o atravessasse, e uma faísca atravessaria o espaço nele existente. Hertz observou essa faísca. Além disso, ao deslocar o seu fio rectangular pela sala onde realizava a experiência, obteve uma faísca sempre que a onda estava muito alta ou muito baixa, mas nenhuma faísca entre estes dois extremos. Desse modo, pôde determinar a forma da onda e o seu comprimento.

Hertz descobrira aquilo que veio a ser conhecido como ondas rádio, que se situam bem para lá da radiação infravermelha e podem ter comprimentos de onda da ordem dos centímetros ou quilómetros.

Depois desta descoberta, ninguém mais pôs em causa a validade das equações de Maxwell. Se existia um éter luminífero, ele transportava tanto a electricidade como o magnetismo. E se existia outro tipo de éter, era apenas para a gravitação.

Em 1895, foi igualmente descoberta radiação electromagnética situada para lá do ultravioleta, com comprimentos de onda extraordinariamente curtos. Mas falaremos dela adiante, depois de termos falado doutros assuntos.


A Divisão da Energia

 

A electricidade, o magnetismo, a luz e a gravitação são todas formas de energia, entendendo-se por energia tudo aquilo que é capaz de realizar trabalho. Estas formas de energia são evidentemente diferentes umas das outras, mas podem ser convertidas umas nas outras. Como já vimos, a electricidade pode ser convertida em magnetismo e vice-versa, e um campo electromagnético variável pode produzir luz. A gravitação pode provocar a queda de água, a qual faz rodar uma turbina que pode obrigar um elemento condutor a atravessar linhas de força magnéticas a fim de produzir electricidade. As conversões de energia em trabalho e vice-versa são o domínio de estudo da termodinâmica.

Tais conversões nunca são completamente eficientes. Há sempre alguma energia que se perde nesses processos. Porém, a energia perdida não desaparece, antes surge como calor, que é outra forma de energia. Se entrarmos em linha de conta com o calor, a energia nunca é totalmente perdida, tal como também não se forma a partir do nada. Por outras palavras, a quantidade total de energia no Universo é constante.

Chama-se a isto a lei de conservação da energia, ou primeira lei da termodinâmica, uma lei que foi formulada de modo claro e definitivo, em 1847, pelo físico alemão Hermann Ludwig Ferdinand von Helm-holtz (1821-1894).

Num certo sentido, o calor é a forma mais fundamental de energia, uma vez que qualquer outra forma de energia pode ser completamente convertida em calor, enquanto que o calor não pode ser convertido completamente em energia não calorífica. Por esse motivo, o calor constitui o fenómeno mais conveniente para estudar a termodinâmica. Uma expressão, diga-se de passagem, que vem do grego e significa "movimento do calor".

O calor começou a ser estudado com grande atenção pelos cientistas a partir da invenção, pelo engenheiro britânico James Watt (1736-1819), da primeira máquina a vapor verdadeiramente funcional, em 1769. Uma vez compreendida a lei de conservação da energia, o estudo do calor tornou-se ainda mais intenso.

Após o advento da máquina a vapor, surgiram duas teorias acerca da natureza do calor. Alguns cientistas consideravam-no uma espécie de fluido subtil que podia deslocar-se duma porção de matéria para outra. Outros encaravam o calor como uma forma de movimento de átomos e moléculas, que se deslocavam ou vibravam.

Esta última sugestão, conhecida como teoria cinética do calor (em que a expressão "cinética" provém duma palavra grega que significa "movimento") foi finalmente reconhecida como estando correcta na década de 60 do século XIX, quando Maxwell e o físico austríaco Ludwig Eduard Boltzmann (1844-1906) a desenvolveram em termos matemáticos. Os dois cientistas demonstraram que tudo aquilo que se conhecia acerca do calor podia ser interpretado de forma satisfatória se pensássemos em átomos e moléculas que se deslocavam ou vibravam. Tal como sucede com os gases, a velocidade média da deslocação ou vibração dos átomos e moléculas constituintes seja do que for constitui uma medida da sua temperatura, se a massa dos átomos e moléculas também for considerada. A energia cinética total (que tem em conta tanto a massa como a velocidade) de todas essas partículas em movimento representa o calor total da substância em questão.

Quanto mais frio fica um corpo, mais lento se torna o movimento dos seus átomos e moléculas. Se o corpo arrefecer suficientemente, a sua energia cinética atinge um valor mínimo. A partir desse ponto não pode baixar mais, e a temperatura encontra-se no zero absoluto. Esta noção foi proposta e aclarada pela primeira vez em 1848 pelo matemático britânico William Thomson (1824-1907), mais conhecido pelo título com que seria agraciado Lord Kelvin. O número de graus Celsius a que um corpo se encontra acima do zero absoluto constitui a sua temperatura absoluta. Se o zero absoluto for igual a -273,15º C, então a 0º C correspondem 273,12º K (de Kelvin) ou 273,15º A (de absoluta).

Qualquer corpo que se encontre a uma temperatura superior à da sua vizinhança tende a perder calor sob a forma de radiação electromagnética. Quanto mais elevada for a temperatura, mais intensa é a radiação. Em 1879, o físico austríaco Joseph Stefan (1835-1893) estabeleceu a fórmula que exprime essa relação. Stefan mostrou que a radiação total aumenta com a quarta potência da temperatura absoluta. Assim, se a temperatura absoluta duplicar, digamos de 300º K para 600º K (ou seja, de 27º C para 327º C), a radiação total aumenta 2x2x2x2, isto é, 16 vezes.

Já antes, por volta de 1860, o físico alemão Gustav Robert Kirchhoff (1824-1887) mostrara que qualquer substância que esteja a uma temperatura inferior à da sua vizinhança absorve luz num comprimento de onda específico, emitindo de seguida nesse mesmo comprimento de onda quando a sua temperatura é aumentada para um valor superior ao da sua vizinhança. Daqui se conclui que se um corpo absorver radiação em todos os comprimentos de onda (isto é, se for um "corpo negro", na medida em que não reflecte luz alguma), emitirá também radiação em todos os comprimentos de onda quando aquecido.

Não existe, na verdade, nenhum corpo que absorva todos os comprimentos de onda da luz, na acepção usual da palavra, mas um objecto que possua um pequeno orifício comporta-se de modo muito próximo. É improvável que qualquer radiação que penetre no seu interior consiga sair de novo, acabando por ser absorvida. Quando um corpo com esta configuração é aquecido, devemos portanto obter radiação de corpo negro - ou seja, em todos os comprimentos de onda - à saída do orifício.

Esta ideia foi primeiro proposta pelo físico alemão Wilhelm Wien (1864-1928) na última década do século XIX. Ao estudar a radiação do corpo negro, Wien verificou a existência de radiação emitida numa ampla gama de comprimentos de onda, como seria de esperar, sendo reduzida a quantidade de radiação emitida nos comprimentos de onda mais curtos e mais longos e existindo um pico de radiação algures entre estes extremos. Wien descobriu ainda que tal pico se deslocava na direcção dos comprimentos de onda mais curtos à medida que a temperatura subia, tendo publicado os seus resultados em 1895.

As leis estabelecidas por Stefan e por Wien estão de acordo com a nossa experiência. Imaginemos um objecto que está a uma temperatura ligeiramente superior à do nosso próprio corpo. Se colocarmos as nossas mãos sobre esse objecto, sentimos um ligeiro calor por ele irradiado. A medida que a temperatura do objecto aumenta, a radiação torna-se mais perceptível e o pico de radiação ocorre a um comprimento de onda mais curto. Se colocarmos a nossa mão junto duma chaleira com água a ferver, ela emitirá um calor considerável. Se aumentarmos a temperatura ainda mais, o objecto emitirá radiação perceptível, a comprimentos de onda suficientemente curtos para poderem ser reconhecidos pela nossa retina como luz. Vemos primeiro luz vermelha porque se trata da luz com o comprimento de onda mais longo, e que é a primeira a ser emitida. Dizemos então que o objecto está incandescente. A maior parte da radiação continua a situar-se naturalmente na região do infravermelho, mas o que vemos é a pequena fracção que está na região visível do espectro.

A medida que a temperatura do objecto aumenta, ele brilha de forma cada vez mais intensa. A sua cor também se modifica, sendo emitida cada vez mais radiação na região dos comprimentos de onda mais curtos. O objecto vai ficando cada vez mais quente, torna-se mais claro e brilhante e a sua cor altera-se de novo, à medida que vão sendo emitidas radiações de comprimentos cada vez mais curtos, tornando-se laranja e depois amarelo. Quando algo atinge a temperatura da superfície do Sol, fica branco incandescente e o pico da radiação emitida situa-se na região visível do espectro. Se o objecto aquecer ainda mais, adquire uma tonalidade azul-esbranquiçada e, nessa altura, embora esteja mais brilhante do que nunca (admitindo que podíamos olhar para ele sem ao mesmo tempo destruirmos os nossos olhos), o pico da radiação encontra-se na região do ultravioleta.

Esta progressão calor/luz colocou um problema aos cientistas do século XIX, porque era difícil explicar a forma da curva da radiação do corpo negro. Quase no final do século, o físico britânico John William Strutt, Lord Rayleigh (1842-1919) resolveu partir do pressuposto de que, na radiação dum corpo negro, todos os comprimentos de onda tinham igual probabilidade de serem emitidos. Com base nessa hipótese, chegou a uma equação que mostrava claramente o modo como a radiação aumentava de intensidade à medida que se passava dos comprimentos de onda muito grandes para os comprimentos de onda mais pequenos. Essa equação não explicava, no entanto, a existência dum pico seguido dum decréscimo, à medida que nos aproximávamos de comprimentos de onda ainda mais curtos.

Em vez disso, a equação implicava que a intensidade continuava a crescer indefinidamente enquanto que os comprimentos de onda diminuíam. Isso significava que qualquer corpo devia emitir radiação principalmente nos comprimentos de onda mais pequenos, libertando-se de todo o seu calor numa explosão de radiação violeta, ultravioleta e para lá disso. Esse acontecimento é por vezes designado "catástrofe ultravioleta". Mas como não se observava essa catástrofe ultravioleta, algo devia estar errado no raciocínio de Rayleigh. O próprio Wien propôs outra equação que descrevia a distribuição dos comprimentos de onda mais curtos da radiação do corpo negro, mas que não se ajustava aos comprimentos de onda maiores. Parecia que os físicos eram capazes de explicar uma ou outra metade da curva, mas não ambas.

O físico alemão Max Karl Ernst Ludwig Planck (1858-1947) resolveu estudar o problema. Planck considerou que talvez algo estivesse errado no pressuposto de Rayleigh de que todos os comprimentos de onda tinham igual probabilidade de serem emitidos por um corpo negro. E se a probabilidade de serem emitidos fosse tanto menor quanto menor fosse o comprimento de onda?

Um modo de tornar este raciocínio plausível seria supor que a energia não é contínua e não pode ser indefinidamente dividida em quantidades cada vez mais pequenas. (Até à época de Planck, os físicos consideravam a natureza contínua da energia um dado adquirido. Nunca ninguém imaginara que a energia, tal como a matéria, podia ser constituída por pequenas partículas indivisíveis.)

Planck considerou que essa parcela fundamental de energia era tanto maior quanto menor fosse o comprimento de onda. Tal significava que, para uma dada temperatura, a radiação aumentava à medida que os comprimentos de onda se tornavam menores, tal como sugerido pela equação de Rayleigh. No entanto, para comprimentos de onda ainda mais pequenos, a dimensão crescente da unidade de energia aumentava a dificuldade de colocar energia suficiente num determinado ponto para a irradiar. Haveria assim um pico e, à medida que os comprimentos de onda diminuíssem, a radiação decrescia também.

Quando a temperatura aumentava e o calor era mais intenso, tornava-se mais fácil emitir as unidades de energia maiores e o pico deslocava--se em direcção aos comprimentos de onda mais curtos, tal como exigido pela lei de Wien. Em resumo: a utilização das unidades de energia postuladas por Plack resolvia completamente o problema da radiação do corpo negro.

Planck designou tais unidades de energia quanta (quantum no singular), que é uma expressão latina que significa "quantidade". O que importava, em última análise, no problema da radiação do corpo negro, era saber quanta energia existia nos quanta dos diferentes comprimentos de onda de radiação.

Planck propôs em 1900 a sua teoria quântica e a equação que descreve a radiação do corpo negro (e que estava de acordo com as observações realizadas, tanto para os comprimentos de onda mais longos como para os mais curtos). A teoria veio a revelar-se tão importante - muito mais do que Planck podia, naquela época, imaginar -, que toda a física anterior a 1900 é actualmente designada física clássica e toda a física posterior a essa data física moderna. Pelo seu trabalho sobre a radiação do corpo negro, Wien recebeu um Prémio Nobel em 1911. Planck seria galardoado em 1918.


3. ELECTRÕES


A Divisão da Electricidade

 

Nas primeiras experiências com electricidade, os cientistas lidaram com entidades que possuíam cargas eléctricas relativamente pequenas. Em 1746, todavia, o físico holandês Pieter van Musschen-broek (1692-1761), que trabalhava na Universidade de Leyden, inventou um dispositivo que ficou conhecido como garrafa de Leyden e que se podia encher com uma quantidade apreciável de carga eléctrica.

Quanto maior é a carga na garrafa de Leyden, maior é a pressão para a sua descarga. Se tocarmos com um objecto no dispositivo, a electricidade flui para aquele e a garrafa fica descarregada. (Se for um ser humano a tocar na garrafa, a passagem dessa corrente eléctrica pode ser dolorosa.)

Quando uma garrafa de Leyden está carregada com uma carga eléctrica suficientemente grande, o contacto directo não é necessário. Em tais condições, se a garrafa for aproximada dum objecto que provoque a sua descarga, a carga eléctrica consegue passar da garrafa para este através do ar existente entre ambos.

O resultado é um clarão de luz e um estalido. A luz não corresponde à própria electricidade. O que sucede é que a electricidade, seja lá o que for, aquece o ar ao atravessá-lo e este fica durante momentos suficientemente quente para irradiar luz. O calor também dilata o ar e, uma vez concluída a descarga, o ar contrai-se de novo produzindo o tal estalido.

Algumas pessoas repararam nas semelhanças entre a luz e os estalidos observados nas garrafas de Leyden e os relâmpagos e trovões que se ocorrem nas nuvens durante as trovoadas. Seriam os relâmpagos e trovões o resultado da descarga duma gigantesca garrafa de Leyden existente nos céus?

Em 1752, Benjamin Franklin provou que assim era ao fazer voar um papagaio de seda durante uma trovoada. Esse papagaio transportou a carga dos relâmpagos através duma corda de cânhamo até uma garrafa de Leyden não carregada. A garrafa de Leyden carregada que daí resultou demonstrou que a electricidade recolhida nos céus tinha as mesmas propriedades da electricidade produzida na Terra.

Mas o que se passava com a própria electricidade, escondida no interior dum corpo carregado ou na luz produzida pelo ar aquecido? Uma maneira possível de descobrir a resposta seria provocar uma descarga no vácuo para pôr a nu a electricidade e ver que aspecto tinha. Em 1706, um físico inglês, que trabalhava com objectos muito menos carregados do que uma garrafa de Leyden, conseguira produzir uma descarga através dum recipiente onde provocara o vazio, obtendo luz no processo.

1. Se fosse possível observar o núcleo dum átomo do ponto de vista dum electrão em órbita, o núcleo teria o aspecto dum pequeno ponto situado a grande distância.

2. Apesar de possuir carga igual à do protão, embora de sinal contrário, o electrão tem apenas 1/1837 da sua massa.

Nessa época, no entanto, o processo de obtenção do vácuo num recipiente era ainda muito imperfeito. Ficava sempre algum ar no seu interior, o suficiente para provocar uma luminescência aquando da passagem da electricidade. E isso não era a electricidade em si mesma. Para pôr a nu a electricidade, duas coisas se afiguravam necessárias: o vazio no interior do recipiente devia ser suficiente para que o ar remanescente não interferisse com a electricidade; e havia que encontrar um modo de forçar quantidades significativas de electricidade através dum vácuo adequado. Uma garrafa de Leyden podia ser usada para esse efeito, mas a descarga nela obtida durava apenas um instante. Haveria alguma maneira de manter a electricidade a fluir durante períodos consideravelmente mais longos?

O segundo problema foi resolvido em 1800 pelo físico italiano Alessandro Giuseppe Volta (1745-1827). Volta mostrou que era possível produzir electricidade mergulhando dois metais diferentes numa solução salina. Esse procedimento era acompanhado duma reacção química e, enquanto esta durasse, produzia-se electricidade. Se alguma dessa electricidade fosse extraída usando um fio metálico, ela circularia por este enquanto existisse reacção química.

Graças a esta descoberta, tornou-se possível produzir correntes eléctricas em vez de meras cargas eléctricas estacionárias. Volta utilizou diversas combinações de dois metais imersos em água salgada para produzir correntes eléctricas intensas. Chamamos pilha a qualquer dessas combinações. Volta acabara de inventar uma pilha eléctrica.

Após o anúncio por Volta da sua descoberta, os cientistas começaram a construir pilhas cada vez maiores e mais perfeitas e, no espaço duma geração, Faraday tinha inventado um método muito mais económico de produzir uma corrente eléctrica mediante a queima dum combustível. A criação de correntes eléctricas suficientemente fortes para se deslocarem através do vácuo deixou assim de constituir um problema - desde que fosse possível produzir um vácuo adequado.

O homem que resolveu esse problema foi o inventor alemão Johann Heinrich "Wilhelm Geissler (1814-1879). Em 1855, Geissler inventou uma bomba de ar que constituiu um avanço significativo relativamente às bombas anteriormente utilizadas. Em vez de recorrer a dispositivos mecânicos constituídos por componentes móveis, Geissler usou apenas níveis de mercúrio que subiam e desciam. A cada alteração do seu nível, o mercúrio aprisionava uma pequena porção de ar que era extraída. Tratava-se dum processo lento, mas esta bomba de mercúrio permitia extrair 99,9 por cento do ar dum recipiente.

Geissler, que era especialista no fabrico de objectos de vidro, concebeu recipientes deste material evacuados e selados que incluíam duas pequenas placas de metal nas suas extremidades. Os dispositivos foram designados tubos de Geissler pelo seu amigo e colaborador, o físico alemão Julius Plücker (1801-1868). Este ligou as duas placas de metal aos dois pólos dum equipamento de produção de electricidade. Deste modo, uma das placas, a que se chamou ânodo, ficou carregada positivamente. A outra adquiriu uma carga negativa e foi designada cátodo.

Tais designações foram utilizadas pela primeira vez por Michael Faraday. O ânodo positivo deriva o seu nome duma expressão grega que significa "via superior", enquanto que o cátodo negativo provém duma expressão que significa "via inferior". Desde o tempo de Benjamin Franklin que se acreditava que a electricidade fluía de positivo para negativo, ou seja, do ânodo (superior) para o cátodo (inferior), à maneira da água que flui dum nível superior para um nível inferior.

Plücker obrigou a electricidade a atravessar o vácuo criado num tubo de Geissler e desta vez não existia ar em quantidade suficiente para provocar luminescência. Ainda assim, o fenómeno foi observado. Tratava--se duma luminescência verde junto ao cátodo, sempre junto ao cátodo. Plücker anunciou as observações realizadas em 1858 e foi essa a primeira indicação de que talvez Franklin estivesse errado e a electricidade não fluísse do ânodo para o cátodo, mas na direcção contrária.

Seria a luminescência esverdeada a própria corrente eléctrica? Plücker não tinha a certeza e admitiu que se tratasse de pequenas partículas de metal incandescentes que se tivessem libertado. Ou que a luminescência tivesse que ver com o gás residual que permanecia no tubo.

O físico alemão Eugen Goldstein (1850-1930) estudou cuidadosamente o fenómeno e conclui que era indiferente o gás com que se enchera o tubo antes de nele produzir um vácuo. Verificou, além disso, que o metal de que eram feitos ânodo e cátodo também não importava. A única coisa que se mantinha constante em todos os casos era a corrente eléctrica, pelo que Goldstein conclui que a luminescência estava associada à própria corrente eléctrica. Em 1876, chamou ao material que atravessava o vácuo raios catódicos.

Estava implícito nesta designação que a corrente era emitida pelo cátodo e viajava para o ânodo. Com efeito, o vidro ficava luminescente no lado do ânodo, como se os raios catódicos o atingissem e lhe transmitissem energia.

Em 1869, o físico alemão Johann Wilhelm Hittorf (1824-1914), que fora aluno de Plücker, mostrou que quando um objecto sólido era encerrado no tubo diante do cátodo, produzia uma sombra na luminescência que surgia do lado do ânodo. Parecia pois evidente que algo viajava desde o cátodo e era em parte detido pelo objecto sólido.

1. Em 1858, Julius Plücker anunciou ter observado uma luminescência esverdeada junto ao cátodo carregado negativamente no quasivácuo dum tubo de Geissler. Foi a primeira indicação de que a suposição de Benjamin Franklin acerca da direcção da corrente eléctrica podia estar errada.

2. Em 1876, Eugen Goldstein defendeu que a luminescência estava associada à própria corrente. Chamou ao material que atravessava o vácuo raios catódicos. A corrente fluí do cátodo para o ânodo.

O físico britânico William Crookes (1832-1919) concebeu dispositivos ainda mais perfeitos para obter vácuo e, em 1878, criou o chamado tubo de Crookes, onde o ar remanescente representava apenas I/75000 daquele que existia nos tubos de Geissler. (Todos estes dispositivos ficariam conhecidos como tubos de raios catódicos.) Tornou-se então mais fácil observar os raios catódicos e Crookes pôde demonstrar que se deslocavam em linha recta e que era possível fazer girar uma pequena roda com eles.

Mas o que é que saía dos cátodos? Seriam os raios catódicos constituídos por partículas ou ondas? Ambas as possibilidades tinham os seus defensores entre os cientistas, numa repetição do debate entre Newton e Huygens a propósito da natureza da luz. Os argumentos a favor da natureza corpuscular dos raios catódicos eram semelhantes aos que tinham sido usados na polémica sobre a luz, baseando-se, principalmente, no facto dos raios catódicos produzirem sombras bem definidas.

No entanto, o facto da concepção corpuscular ter sido decisivamente derrotada no caso da luz levou alguns cientistas a hesitar, pois não queriam ser vistos a apoiar aquele que podia ser de novo o lado perdedor. (Os generais são com frequência acusados de estarem sempre preparados para a guerra anterior. Os cientistas são seres humanos e também se recordam das batalhas travadas no passado. Por vezes revelam uma tendência para deixar que as suas experiências anteriores influenciem a interpretação de novos fenómenos.)

A voz que mais alto se levantou em defesa da natureza ondulatória dos raios catódicos foi a de Hertz, que descobrira as ondas rádio. Em 1892, este cientista demonstrou que os raios catódicos conseguiam atravessar finas folhas de metal. Hertz considerava que partículas não eram capazes de o fazer, embora o mesmo não se passasse com ondas, uma vez que, se as folhas fossem suficientemente finas, até as ondas luminosas conseguiam atravessá-las.

Philipp Eduard Anton von Lenard (1862-1947), um aluno de Hertz, concebeu um tubo de raios catódicos com uma pequena e delgada "janela" de alumínio. Os raios catódicos podiam dispersar-se através da janela e sair do tubo. Se os raios catódicos fossem ondas de comprimento muito curto, deslocar-se-iam em linha recta e produziriam sombras bem definidas, à maneira das ondas luminosas. No início do século XIX, e durante algum tempo, a ideia de que os raios catódicos eram ondas gozou, portanto, de grande aceitação.

E, todavia, se os raios catódicos emergiam do cátodo carregado negativamente, não era natural que transportassem uma carga negativa? Se assim fosse, seria uma indicação de que os raios não eram ondas, uma vez que nenhumas ondas conhecidas naquele tempo transportavam qualquer carga eléctrica, por mais pequena que fosse. Além disso, se os raios catódicos transportassem uma carga eléctrica, seriam afectados pela presença dum campo eléctrico.

Em 1883, Hertz resolveu testar essa hipótese, fazendo passar raios catódicos entre duas placas metálicas paralelas carregadas positiva e negativamente. Se os raios catódicos tivessem carga, deviam afastar-se da sua trajectória em linha recta, mas tal não aconteceu. Hertz concluiu que os raios não tinham carga e também isso constituiu um argumento a favor da hipótese ondulatória.

Aquilo que Hertz não compreendeu foi que os raios catódicos se deslocavam muito mais depressa do que imaginava e que, por conseguinte, passavam para além das placas metálicas muito antes de poderem alterar significativamente a sua trajectória. Esse problema podia ser ultrapassado se as placas estivessem suficientemente carregadas, mas tal não sucedera. A grande velocidade dos raios catódicos e as placas metálicas fracamente carregadas tornavam imperceptível o desvio das trajectórias em linha recta e, por isso, a conclusão de Hertz não era válida. (As experiências científicas nem sempre constituem a última palavra sobre determinado assunto. Uma experiência específica, mesmo que executada de forma honesta e inteligente, pode produzir uma resposta errada por uma multiplicidade de razões. É por isso importante que as experiências sejam verificadas por outros cientistas, utilizando outros instrumentos, outras condições e, se possível, outras ideias.)

Foi assim que, em 1895, Perrin (o qual, na década seguinte, haveria de demonstrar a existência dos átomos) mostrou que os raios catódicos podiam induzir uma grande carga negativa num cilindro sobre o qual incidiam. Era difícil compreender como é que os raios catódicos podiam transportar uma carga negativa desde o cátodo até ao cilindro sem que eles próprios estivessem negativamente carregados enquanto se deslocavam. Esta descoberta fragilizou consideravelmente a conclusão de Hertz.

Algum tempo mais tarde, o físico britânico Joseph John Thomson (1856-1940) decidiu repetir a experiência de Hertz com placas metálicas electricamente carregadas. Thomson tinha a vantagem de conhecer a velocidade a que se deslocavam os raios catódicos. Em 1894, determinara que estes se moviam à velocidade de 200 quilómetros por segundo. Além disso, conseguira produzir no seu tubo um vácuo mais perfeito do que Hertz e utilizava placas com uma carga consideravelmente maior.

Em 1897, Thomson provocou uma descarga de raios catódicos entre duas placas carregadas e descobriu que o campo eléctrico causava um desvio significativo da trajectória, que se afastava da placa com carga negativa e se aproximava da que estava positivamente carregada. A experiência convenceu-o, e aos físicos dum modo geral, de que os raios catódicos eram constituídos por partículas que se deslocavam a grande velocidade e que transportavam, cada qual, uma carga eléctrica negativa.

Neste caso, o veredicto foi o oposto daquele que fora pronunciado para a luz. No que dizia respeito à luz, as ondas tinham levado a melhor sobre as partículas. No caso dos raios catódicos, as partículas tinham ganho às ondas. (Como veremos adiante, nenhuma destas vitórias foi absoluta. Na ciência, a escolha entre alternativas não é muitas vezes uma situação tão preto no branco como à primeira vista pode parecer.)


As Partículas dos Raios Catódicos

 

A deflexão duma partícula carregada por um campo eléctrico depende de três coisas: da magnitude da carga eléctrica transportada pela partícula, da velocidade a que a partícula se desloca e da sua massa. A deflexão duma partícula carregada por um campo magnético depende destes mesmos três factores, mas dum modo diferente. Se Thomson conseguisse medir ambos os tipos de deflexão poderia, a partir dos dois conjuntos de medições, calcular o rácio entre a carga e a massa das partículas. Uma vez determinado esse valor e conhecida a magnitude da carga eléctrica das partículas, seria possível calcular a respectiva massa.

Também não era de todo impossível calcular a carga eléctrica. Faraday estudara detalhadamente o modo como as correntes eléctricas induziam reacções químicas e estabelecera as leis da electroquímica em 1832. A partir destas, e de medições cuidadosas da quantidade de electricidade necessária para obter a deposição duma determinada massa de metal a partir duma solução dos seus compostos, foi possível calcular a magnitude da carga eléctrica necessária para depositar um único átomo de metal.

Não pareceu aos cientistas demasiado arriscado supor que a carga eléctrica envolvida na alteração química dum único átomo era a mais pequena carga eléctrica que podia existir. Era por isso razoável admitir que uma partícula dum raio catódico transportasse esta carga eléctrica mais pequena. Por outras palavras, que estas partículas fossem para a electricidade aquilo que os átomos são para a matéria - ou, como se estava em vias de descobrir, o que o quantum era para a energia.

Partindo deste pressuposto e das medições das deflexões sofridas pelos raios catódicos na presença dum campo eléctrico e dum campo magnético de intensidades conhecidas, Thomson foi capaz de calcular a massa duma partícula dum raio catódico. Em 1906, ser-lhe-ia atribuído o Prémio Nobel por esse feito.

Os resultados foram surpreendentes. O átomo mais pequeno que se conhecia na época de Thomson (e na nossa também) era o átomo de hidrogénio. Na verdade, temos actualmente a certeza de que o átomo de hidrogénio é o mais pequeno átomo que pode existir. Contudo, as partículas do raio catódico revelaram possuir uma massa muito mais pequena do que a dos átomos de hidrogénio. Com efeito, a sua massa é apenas 1/1837 da do mais pequeno átomo.

Durante um século, os cientistas tinham acreditado que os átomos eram as coisas mais pequenas que podiam existir e que, por isso, o átomo mais pequeno era a menor entidade que possuía massa. Mas agora essa ideia estava feita em pedaços ou tinha, pelo menos, de ser modificada. Contudo, talvez a modificação nem precisasse de ser muito radical. Na sequência das experiências de Thomson, era possível continuar a defender que os átomos eram os mais pequenos constituintes de matéria que podiam existir. E argumentar que a electricidade não era matéria, mas uma forma de energia muito mais subtil. Desse ponto de vista, não surpreendia que as partículas dos raios catódicos, que podiam ser encaradas como "átomos de electricidade", fossem muito mais pequenas do que os átomos de matéria.

Era na reduzida dimensão das partículas dos raios catódicos que residia talvez a explicação para o facto duma corrente eléctrica conseguir atravessar a matéria, ou das partículas conseguirem atravessar finas folhas metálicas. A passagem dos raios catódicos através de metais fora considerada um forte indício de que eles não podiam ser partículas, mas aquando da descoberta do fenómeno, ninguém imaginava quão pequenas tais partículas eram. (As experiências podem induzir em erro mesmo os melhores cientistas, quando faltam alguns dados importantes.)

As partículas de que são constituídos os raios catódicos são designadas partículas subatômicas, por serem muito mais pequenas do que qualquer átomo. Foram as primeiras partículas deste tipo a serem descobertas, e as primeiras dum conjunto de partículas que iriam alterar completamente a nossa concepção acerca da estrutura da matéria. A sua descoberta aumentou o nosso conhecimento, revolucionou as tecnologias e transformou radicalmente o nosso modo de vida. (A questão da tecnologia não é assunto deste livro, mas o facto merece ser referido. Por mais que as descobertas científicas pareçam ser feitas em torres de marfim, existe sempre uma possibilidade muito real de elas nos virem a afectar de modo muito significativo.)

Que nome deveria ser atribuído às partículas dos raios catódicos? Nomear uma coisa não aumenta o nosso conhecimento acerca dela, mas torna mais fácil referi-la e discutir as suas propriedades. Em 1891, o físico irlandês George Johnstone Stoney (1826-1911) sugeriu que a mais pequena carga eléctrica que se podia deduzir das leis de Faraday fosse designada electrão. Thomson gostou do nome e aplicou-o à partícula e não à carga que ela transportava. O nome pegou e tornou-se familiar, mesmo entre o público não científico (basta pensarem em todos os dispositivos electrónicos com que lidamos diariamente, tais como televisões e gira-discos). Podemos por isso dizer que Thomson descobriu o electrão em 1897.


Os Raios X

 

No capítulo anterior, referi a descoberta da radiação que, no espectro electromagnético, se situava bem para lá do ultravioleta, na direcção das ondas curtas. Não entrei então em grandes pormenores, mas é chegada a altura de falarmos mais demoradamente sobre ela.

Na última década do século XIX, o físico alemão Wilhelm Konrad Roentgen (1845-1923) estudava os raios catódicos duma maneira muito particular. Ao contrário de Hertz e Thomson, não estava preocupado com a sua natureza, antes com o seu efeito sobre determinados compostos químicos. Com efeito, ao incidirem sobre esses compostos, os raios catódicos provocavam fenómenos de luminescência. Ou seja, tais compostos adquiriam energia que depois perdiam de novo sob a forma de radiação de luz visível.

Um dos compostos que apresentava esse fenómeno de luminescência era uma substância denominada platinocianeto de bário. No seu laboratório, Roentgen tinha folhas de papel revestidas com esse composto.

A luminescência produzida era bastante ténue e, para a observar melhor, Roentgen resolveu escurecer o seu laboratório e cobrir com pedaços de cartão negro o dispositivo experimental. Desse modo, podia trabalhar num espaço totalmente escurecido. Quando ligava a corrente eléctrica, os raios catódicos percorriam o tubo, atravessavam a fina parede numa das suas extremidades, incidiam sobre uma folha de papel revestida com o composto químico e provocavam um fenómeno de luminescência que Roentgen podia observar e estudar.

No dia 5 de Novembro de 1895, Roentgen ligou a corrente e, ao fazê-lo, reparou pelo canto do olho num ténue clarão luminoso que não estava dentro do dispositivo experimental. Olhou nessa direcção e notou que, a uma distância considerável do aparelho, uma das folhas cobertas com platinocianeto de bário cintilava.

Roentgen resolveu desligar a corrente e a folha de papel revestida ficou escura. Voltou a ligá-la e a folha voltou a iluminar-se. Levou a folha para outra sala, que colocou na obscuridade fechando as portadas das janelas. Quando ligou de novo o tubo de raios catódicos, a folha de papel voltou a iluminar-se nessa sala.

Roentgen conclui que o tubo de raios catódicos estava a produzir uma radiação que não era de raios catódicos - uma radiação capaz de atravessar cartão e mesmo a parede entre as duas salas, ao contrário daqueles. A 28 de Dezembro de 1895, publicou o primeiro relato sobre esta radiação. Uma vez que não fazia ideia alguma sobre a sua natureza, resolveu chamar-lhe raios X. O nome pegou e a radiação passou, desde então, a ser assim designada. Pela sua descoberta, Roentgen recebeu um Prémio Nobel em 1901, o primeiro ano em que tais galardões foram atribuídos.

Levantaram-se em relação aos raios X os mesmos problemas e incertezas que tinham surgido com a luz e os raios catódicos. Alguns físicos admitiam que os raios X fossem feixes de partículas, outros achavam que eram ondas. Destes, alguns (como o próprio Roentgen) pensavam tratar--se de ondas longitudinais, como as ondas sonoras. Outros acreditavam serem ondas transversais, como as ondas luminosas. Se fossem ondas transversais, os raios X podiam ser um tipo de radiação electromagnética com comprimentos de onda muito mais curtos do que os raios ultravioleta, tal como as recém-descobertas ondas rádio apresentavam comprimentos de onda muito maiores do que a radiação infra-vermelha.

O problema estava em decidir entre as duas alternativas. A luz revelara ter uma natureza ondulatória pelo facto de dar origem a fenómenos de interferência. A fim de demonstrar a ocorrência de tal fenómeno, fizera-se passar a luz através de duas ranhuras situadas a pequena distância uma da outra. Os efeitos de interferência podiam ser tornados ainda mais pronunciados usando redes de difracção - placas de vidro em que eram feitas incisões paralelas muito próximas umas das outras. A luz, ao passar através dos intervalos entre as incisões, produzia fenómenos de interferência claramente observáveis, permitindo medir com grande precisão os comprimentos de onda.

Contudo, quanto mais curtos fossem os comprimentos de onda, mais pequenos teriam de ser os espaços entre as incisões. As redes de difracção não poderiam ser usadas com os raios X, se estes fossem realmente ondas transversais com comprimentos de onda extremamente curtos. Foi por essa altura que o físico alemão Max Theodor Felix von Laue (1879-1960) compreendeu que não era necessário tentar fabricar redes de difracção com distâncias impossivelmente curtas entre as incisões, uma vez que a Natureza já tinha providenciado nesse sentido.

Os cristais consistem em átomos e moléculas duma substância e organizados de um modo regular que se repete no espaço. Tal pode ser inferido das formas dos cristais e da sua tendência para fracturarem segundo certos planos, de maneira a conservarem as suas formas. Na verdade, as fracturas ocorrem ao longo de planos situados entre camadas adjacentes de moléculas. Laue considerou que se os raios X penetrassem nos cristais, entre as camadas, estes poderiam funcionar como redes de difracção, com "incisões" que não estariam mais espaçadas do que as suas camadas de átomos. E que um tal dispositivo podia revelar fenómenos de interferências dos raios X.

Se os raios X atravessarem um corpo onde os átomos e moléculas estão dispostos de forma desorganizada, são dispersos de forma aleatória. Há um fenómeno uniforme de sombreamento, mais escuro no centro e gradualmente mais claro à medida que nos afastamos do centro em qualquer direcção.

Mas se os raios X atravessarem um cristal constituído por camadas ordenadas de átomos e moléculas, os padrões de difracção dos raios X surgem e uma chapa fotográfica revela manchas de luz e sombra bem definidas, formando um padrão simétrico em torno do centro.

Em 1912, Laue experimentou fazer passar raios X através dum cristal de sulfureto de zinco. Tudo funcionou na perfeição, e os raios X comportaram-se como seria de esperar de ondas transversais muito curtas. A experiência esclareceu de vez a questão e Laue recebeu em 1914 um Prémio Nobel pelo seu trabalho.

O físico britânico William Henry Bragg (1862-1942), juntamente com o seu filho, William Lawrence Bragg (1890-1971), estudante de física em Cambridge, compreenderam que a difracção dos raios X podia ser usada para determinar o seu comprimento de onda desde que a distância entre as camadas de átomos no cristal fosse conhecida. Em 1913, os Bragg determinaram que o comprimento de onda dos raios X representava qualquer coisa entre I/50 e I/30 000 do comprimento de onda da luz visível. Pelo seu trabalho, partilharam um Prémio Nobel em 1915.


Electrões e Átomos

 

Parece óbvio, quando pensamos no assunto, que os electrões existem na matéria. Consideremos os primeiros estudos sobre a electricidade, quando uma carga eléctrica era produzida esfregando simplesmente uma vareta de vidro ou pedaço de âmbar. Dever-se-ia isso ao facto dos electrões se deslocarem do objecto esfregado para o objecto com o qual se esfregava, ou vice-versa? Qualquer substância que receba electrões adicionais acumulará uma carga negativa, e qualquer substância que perca alguns dos seus electrões ficará com uma carga positiva. A ser assim, os electrões têm à partida de estar presentes na matéria, para que possam ser transferidos num sentido ou no outro.

Por outro lado, uma corrente eléctrica pode consistir em electrões deslocando-se através do material onde essa corrente é criada. Assim, quando num tubo de raios catódicos a corrente eléctrica alcança o cátodo, os electrões acumulam-se (conferindo-lhe uma carga negativa, que é o que faz dessa extremidade um cátodo) e são forçados para o vácuo sob a forma dum feixe de partículas de raios catódicos.

O impulso eléctrico desloca-se à velocidade da luz. Se tivermos fios eléctricos ligando um telefone em Nova Iorque a outro em Los Angeles, uma voz pode modular na primeira destas cidades um fluxo eléctrico, o qual irá depois reproduzir a voz na segunda cidade cerca de 1/60 de segundo mais tarde. Os próprios electrões, todavia, colidem uns com os outros, deslocando-se muito mais devagar.

A situação é análoga à que ocorre quando, com um piparote, lançamos uma peça dum jogo de damas contra uma longa fieira de peças semelhantes. Assim que a nossa peça atinge a primeira da fieira, a última, na outra extremidade, sai disparada. As peças situadas no meio praticamente não se mexem, mas o impulso de compressão e expansão desloca-se ao longo da fieira de peças à velocidade do som, fazendo sair a última delas.

Apesar de a existência dos electrões na matéria parecer bastante provável, considerava-se que essas partículas de electricidade existiam independentemente dos átomos, que eram considerados entidades uniformes e indivisíveis.

Na verdade, as experiências químicas realizadas durante o século XIX tinham dado a entender que os átomos eram indivisíveis, mas a afirmação de que eram entidades uniformes não passava duma suposição. Contudo, os cientistas são seres humanos e na ciência, como noutros domínios do pensamento, uma suposição defendida durante muito tempo assume por vezes a força duma lei cósmica. As pessoas tendem a esquecer que se trata apenas duma hipótese e têm dificuldade em encarar a possibilidade dela poder estar errada.

A este propósito, considerem o modo como uma corrente eléctrica pode passar através de algumas soluções mas não de outras. O fenómeno foi primeiro estudado de modo sistemático por Michael Faraday.

Assim, uma solução de sal de cozinha (cloreto de sódio) conduzirá a electricidade, tal como Volta descobrira quando construiu a primeira pilha eléctrica. O cloreto de sódio é, por isso, um electrólito. Mas uma corrente eléctrica não atravessa uma solução de açúcar. Este é por isso um não-electrólito.

Com base nas suas experiências, Faraday concluiu que algo na solução transportava cargas negativas numa direcção e cargas positivas na outra. Não sabia exactamente o que era, mas podia dar-lhe um nome. E resolveu chamar a esses transportadores de carga iões, duma palavra grega que significa "caminhantes".

Na penúltima década do século XIX, um jovem estudante sueco de química, Svante August Arrhenius (1859-1927) abordou o problema de modo inovador. A água pura tem um ponto de congelação fixo a 0o C. A água que tem um não-electrólito nela dissolvido (por exemplo, açúcar) congela a uma temperatura ligeiramente inferior. Quanto mais açúcar dissolvermos na água, mais baixo se torna o seu ponto de congelação. Na verdade, a redução do ponto de congelação é proporcional ao número de moléculas de açúcar nela dissolvidas. Isto é verdade também para outros não-electrólitos. Um igual número de moléculas de qualquer não-electrólito em solução reduz em idêntica proporção o ponto de congelação da água.

Com os electrólitos a situação é diferente. Se dissolvermos cloreto de sódio em água, a redução do ponto de congelação é duas vezes aquela que seria de esperar, tendo em conta o número de moléculas que se encontram em solução. Por que razão é que as coisas se passam assim?

A molécula de cloreto de sódio é constituída por um átomo de sódio (Na) e um átomo de cloro (Cl). A sua fórmula é, por isso, NaCl. Arrhenius sugeriu que quando o cloreto de sódio era dissolvido em água, as moléculas se dissociavam nos seus dois átomos, Na e Cl. Por cada molécula de NaCl fora da solução existiam em solução, por assim dizer, duas meias moléculas - Na e Cl. Havia portanto duas vezes mais partículas em solução do que se imaginava e por isso a redução do ponto de congelação era dupla da prevista. (As moléculas constituídas por mais de dois átomos podem-se dissociar em três ou mesmo quatro partes e originar uma redução do ponto de congelação que é três, ou mesmo quatro, vezes a esperada.)

Uma molécula de açúcar comum possui 12 átomos de carbono, 22 átomos de hidrogénio e 11 átomos de oxigénio, num total de 45 átomos. Todavia, quando é dissolvida em água não se dissocia, permanecendo na sua forma molecular original. Por conseguinte, só existe em solução o número de moléculas esperado e a redução do ponto de congelação corresponde apenas ao valor previsto.

Quando o cloreto de sódio se dissocia, porém, não pode dar origem a vulgares átomos de sódio e cloro. As propriedades destes são conhecidas e não se encontram numa solução salina. Algo tem de acontecer para que o sódio e cloro do cloreto de sódio dissociado sejam diferentes do sódio e cloro vulgares.

Para Arrhenius, a resposta residia no facto de cada fragmento dissociado da molécula de cloreto de sódio transportar uma carga eléctrica e ser um dos iões de que Faraday falara. Tendo em conta os resultados da experiência em que uma corrente eléctrica passava através duma solução de cloreto de sódio, era fácil argumentar que cada partícula de sódio formada por dissociação transportava uma carga positiva e era um ião sódio que podia ser representado por Na+, enquanto que cada partícula de cloro transportava uma carga negativa e era um ião cloro, que se escrevia Cl'. Era precisamente porque os electrólitos tinham tendência a dissociar-se e a dar origem a tais fragmentos com carga eléctrica que eram electrólitos e podiam conduzir correntes eléctricas.

Os iões sódio e cloro apresentam propriedades muito diferentes das dos átomos de sódio e cloro, que não têm carga eléctrica. E por isso que uma solução de sal vulgar constitui uma substância inócua, enquanto que o sódio e o cloro são ambos tóxicos. Os não-electrólitos, como o açúcar, não se dissociam, dando origem a fragmentos carregados electricamente que possam transportar uma carga e, por isso, não conduzem a corrente eléctrica.

1. e 2. Quando sal de cozinha vulgar, cloreto de sódio (NaCl), é dissolvido em água, dissocia-se em iões de sódio de carga positiva Na* e iões cloreto de carga negativa Cl'.

3. Átomos em solução e fora dela.

Em 1884, Arrhenius apresentou a sua teoria da dissociação tónica sob a forma duma tese de doutoramento. O júri de examinadores recebeu-a com frieza, uma vez que os seus membros não estavam preparados para aceitar qualquer teoria que falasse de átomos transportando carga eléctricas. Como é que os átomos podiam transportar cargas eléctricas se eram uniformes e imutáveis? (Os membros do júri estavam irremediavelmente prisioneiros desse pressuposto.)

O júri não podia rejeitar a tese, uma vez que a argumentação de Arrhenius era sólida e também porque ela permitia explicar muitas coisas que de outro modo seriam incompreensíveis. Ainda assim, ele foi aprovado com a mais baixa nota possível.

Quando, treze anos mais tarde, J. J. Thomson descobriu o electrão, tornou-se subitamente óbvio que os átomos podiam transportar um ou dois electrões a mais ou perder um ou dois daqueles que normalmente possuíam. Cada ano que passava trazia novas descobertas que tornavam essa possibilidade mais certa e, em 1903, Arrhenius foi galardoado com o Prémio Nobel pela mesma tese com que, dezanove anos antes, fora aprovado à justa.

E claro que deduzir a presença de electrões unicamente do comportamento dos electrólitos não era inteiramente satisfatório. Haveria alguma maneira de observar directamente os electrões nos átomos? Seria possível, por exemplo, arrancar electrões aos átomos e detectá-los?

Em 1887, quando Herz fazia experiências com o dispositivo de detecção que lhe permitiria provar a existência de ondas rádio no ano seguinte, verificou que surgia uma faísca no espaço existente no seu dispositivo sempre que a electricidade o atravessava. Mas Hertz verificou ainda outra coisa curiosa: as faíscas apareciam com mais facilidade quando se fazia incidir luz sobre ele.

Aparentemente, a luz tinha um qualquer efeito sobre a descarga eléctrica, e por isso o fenómeno ficou conhecido como efeito fotoeléctrico, tendo o prefixo "foto-" origem na palavra grega que significa "luz".

No ano seguinte, outro físico alemão, Wilhelm Hallwachs (1859-1922), descobriu que o efeito fotoeléctrico não era igual com os dois tipos de carga eléctrica. Um fragmento de zinco metálico carregado negativamente perdia a sua carga quando exposto a raios ultravioleta. O mesmo fragmento de zinco, transportando uma carga positiva, não era de todo afectado pela radiação ultravioleta, conservando a sua carga. Não existia uma explicação para este fenómeno, até Thomson ter descoberto o electrão e se começar a acreditar que podiam existir electrões na matéria.

No primeiro dos fenómenos em questão, surgia uma faísca no espaço do dispositivo porque os electrões eram forçados a abandonar uma das suas extremidades metálicas. Se por alguma razão a luz provocasse a ejec-ção de electrões, a faísca formava-se com mais facilidade. Analogamente, um fragmento de zinco que estivesse negativamente carregado transportava um excesso de electrões. Se a luz provocasse a emissão desses electrões, o zinco perdia a sua carga. O zinco que se apresentava carregado positivamente tinha uma deficiência de electrões e, uma vez que não era de esperar que a luz fornecesse electrões para suprir essa deficiência, a carga positiva permanecia inalterada.

Esta era, pelo menos, uma explicação fácil para as primeiras observações do efeito fotoeléctrico. Contudo, não correr precipitadamente atrás duma explicação fácil constitui uma prática recomendável para todos os cientistas, porque os leva por vezes a cair em armadilhas (como quando alguns concluíram que os raios catódicos não eram constituídos por partículas porque atravessavam finas folhas metálicas).

E, por isso, o facto de haver electrões arrancados da matéria não ¦ significava necessariamente que eles existiam originalmente nessa matéria. Em 1905, Einstein demonstrou, no âmbito da sua teoria restrita da relatividade, que a massa era uma forma de energia. A massa podia ser transformada em energia e a energia em massa.

A luz continha energia. Podia então dar-se o caso da energia da luz, ao atingir o metal sob certas condições, ser convertida num pequeno fragmento de massa - um electrão - que transportava consigo uma pequena parte da carga negativa do metal? Desse modo, surgiriam electrões que nunca tinham feito parte do metal.

A teoria de Einstein, porém, não se limitava a afirmar que massa e energia eram intermutáveis. Apresentava uma equação simples que mostrava quanta massa seria convertida em quanta energia, e vice-versa. Ora, verifica-se que mesmo uma pequena quantidade de massa pode ser convertida numa grande quantidade de energia; e que, inversamente, é necessária uma grande quantidade de energia para constituir uma pequena quantidade de massa.

O electrão é uma porção particularmente pequena de massa, mas, ainda assim, a quantidade de energia necessária para o formar não está presente nos raios ultravioletas, como em breve se verificaria. O efeito fotoeléctrico não podia, portanto, ser o resultado da criação de electrões a partir de energia - tinha de ser o resultado da emissão de electrões já presentes nos átomos do metal.

Para arrancar da matéria um electrão que já existe é necessária muito menos energia do que para criar um electrão de raiz. Neste caso, por conseguinte, a explicação mais simples provou ser a correcta (e, na verdade, é agradável que tal suceda, por vezes, na ciência).

É claro que existia ainda a possibilidade de não serem electrões aquilo que era ejectado do metal. Podia tratar-se doutro tipo de partícuLa transportando uma carga negativa. Em 1889, todavia, Thomson aplicou campos magnéticos e eléctricos às partículas emitidas e verificou que possuíam a mesma massa e carga negativa dos electrões. Confirmada a correspondência dessas duas propriedades, parecia óbvio que as partículas fotoeléctricas eram electrões e, desde então, nenhum outro facto surgiu que viesse abalar essa convicção.


Electrões e Quanta

 

Philipp Lenard estudou o efeito fotoeléctrico em 1902, mostrando que os electrões emitidos por diversos metais apresentavam sempre propriedades idênticas. Por outras palavras, embora existissem muitos átomos diferentes, todos estavam associados a um único tipo de electrões. Tendo em conta que os cientistas adoram a simplicidade, essa informação foi muito bem recebida.

Por outro lado, Lenard descobriu que a luz não era toda igual quando se tratava de induzir um efeito fotoeléctrico. Acontecia frequentemente a luz vermelha não provocar a emissão de electrões e tornar a luz mais intensa não alterava esse estado de coisas. Por mais intensa que fosse a luz, não eram emitidos quaisquer electrões.

Contudo, se um metal específico fosse exposto a luz de comprimentos de onda cada vez mais curtos, acabava por se chegar a um ponto onde começavam a ser emitidos electrões. O comprimento de onda a que tal sucede é conhecido como valor limite.

Quando se atinge o valor limite, os electrões emitidos deslocam-se a muito baixa velocidade, como se a luz apenas dispusesse de energia suficiente para provocar a sua ejecção e nada mais. Se tornarmos mais intensa a luz no comprimento de onda do valor limite, serão emitidos mais electrões - mas todos continuarão a mover-se muito lentamente.

Se o mesmo metal for exposto a luz de comprimento de onda gradualmente inferior ao valor limite, os electrões serão emitidos com velocidade crescente. A velocidade dos electrões depende do comprimento de onda, enquanto que o número de electrões emitidos depende da intensidade da luz. Metais diferentes apresentam valores limite diferentes, como se alguns estivessem menos ligados aos seus electrões do que outros.

Lenard foi incapaz de explicar este fenómeno, como de resto sucedeu com J. J. Thomson quando sobre ele se debruçou. A física tradicional do século XIX não parecia funcionar. Quando finalmente surgiu a solução, ela veio através da teoria quântica, concebida por Planck cinco anos antes.

Planck admitira que a radiação electromagnética existia sob a forma de quanta de determinada dimensão. Quanto menor fosse o comprimento de onda, maior seria o teor energético dum quantum.

É também verdade que quanto mais curto é um comprimento de onda, maior é o número de ondas que a radiação pode produzir por segundo. O número de ondas de radiação por segundo é designado por frequência. Por isso, quanto mais pequeno for o comprimento de onda, maior é a frequência. Podemos assim dizer que a dimensão dum quantum é proporcional à sua frequência.

Até 1905, a noção de quanta apenas fora usada para explicar a radiação do corpo negro. Seria ela uma habilidade matemática que explicava esse fenómeno específico e nada mais? Existiriam os quanta realmente!

Einstein, cujos trabalhos teóricos de 1905 permitiriam demonstrar, alguns anos mais tarde, que os átomos existiam realmente, resolveu atacar, nesse mesmo ano, a questão da realidade dos quanta.

Einstein foi o primeiro a levar a teoria quântica a sério e a considerá--la mais do que um mero artifício que permitia resolver unicamente o problema da radiação do corpo negro. Einstein dispôs-se a aceitar que a energia existia sempre sob a forma de quanta, fossem quais fossem as condições, pelo que quaisquer fenómenos envolvendo energia, e não apenas a radiação do corpo negro, deveriam também tê-los em conta.

A hipótese de Einstein implicava que a radiação existia sob a forma de quanta quando interagia com a matéria. A radiação atingia a matéria sob a forma de quanta e, se absorvida, era-o sob a forma de quanta. Em qualquer local ou instante, essa absorção fazia-se por quanta inteiros; nem mais, nem menos.

Se a luz envolvida na interacção tiver um comprimento de onda longo e uma frequência baixa, os quanta são de baixa energia. Um quantum, quando absorvido, pode não conter energia suficiente para arrancar um electrão a determinado átomo. Nesse caso, o quantum é absorvido sob a forma de calor e o electrão pode vibrar mais rapidamente mas não se liberta. Se for fornecido um número suficiente desses quanta, uma determinada substância pode absorver energia suficiente para se fundir, mas em momento algum qualquer átomo individual absorve energia suficiente para que um electrão se liberte.

A medida que o comprimento de onda diminui e a frequência aumenta, os quanta contêm mais energia e quando é atingido o valor limite, a energia chega à justa para libertar um electrão. Uma vez que não existe energia em excesso que possa aparecer como energia cinética, o electrão desloca-se muito lentamente.

Com comprimentos de onda ainda mais curtos e quanta ainda mais energéticos, existe energia suplementar para ejectar um electrão com uma velocidade considerável. Quanto mais curto o comprimento de onda e mais energéticos os quanta, mais rápido é o seu movimento.

Os electrões estão ligados mais ou menos fortemente aos átomos em função da natureza destes, necessitando assim de quanta mais ou menos energéticos para serem emitidos. O valor limite varia por isso de elemento para elemento.

A teoria quântica explicava duma forma elegante e clara todos os factos observados que se relacionavam com o efeito fotoeléctrico, o que constituía um feito impressionante. Quando uma teoria que foi elaborada para explicar determinado fenómeno se revela capaz de explicar um fenómeno diferente, aparentemente sem relação com o primeiro, surge a tentação de aceitá-la como representando a realidade. (Aqui vemos um exemplo da utilização duma teoria: ela explica categorias muito diferentes de observações. Sem a teoria quântica, ninguém teria sido capaz de se aperceber da ligação entre a radiação do corpo negro e o efeito fotoeléctrico - para não falar de muitos outros fenómenos.) Foi pelos trabalhos realizados neste domínio que Einstein foi laureado com um Prémio Nobel em 1921.


Ondas e Partículas

 

Se a luz existe sob a forma de quanta, e se cada quantum se desloca individualmente pelo espaço, então o comportamento destes assemelha--se ao de partículas. O quantum recebeu inclusivamente um nome de partícula. Por causa do electrão, as partículas têm sido, na sua maioria, baptizadas com nomes terminados em -ão. E assim, em 1928, o físico norte-americano Arthur Holly Compton (1802-1962) chamou fotão a esse quantum em movimento, da palavra grega para "luz".

Calhou bem ser Compton quem lhe deu o nome, uma vez que fora ele quem, em 1923, demonstrara que a radiação se comportava como um conjunto de partículas, não apenas por ser constituída por entidades distintas, mas por agir como partículas. Quanto mais curto fosse o comprimento de onda e mais energéticos os quanta, mais provável se tornava estes demonstrarem propriedades corpusculares e não ondulatórias.

Compton estudou o modo como os raios X eram difractados por cristais e descobriu que alguma dessa radiação, ao ser difractada, aumentava o respectivo comprimento de onda. Isso significava que parte da energia dos quanta dos raios X era transmitida aos electrões do cristal.

Em 1923, Arthur Holly Compton descobriu que os raios X se comportavam como partículas, perdendo energia quando eram difractados por cristais. Um raio X comporta-se como uma bola de bilhar que choca contra outra: uma perde energia e a outra adquire-a. Quanto mais curto é o comprimento de onda, e mais energéticos os quanta, mais provável se torna revelarem propriedades corpusculares em vez de ondulatórias.

Compton considerou que o fenómeno podia ser de natureza corpuscular, análogo ao que sucede quando uma bola de bilhar choca com outra, perdendo energia que é adquirida por esta. Ao estabelecer uma relação matemática que descrevia com precisão aquilo que se passava, descobriu que assim era na verdade. O fenómeno é actualmente designado efeito Compton.

Parecia afinal que tanto Newton como Huygens tinham estado parcialmente certos dois séculos e meio antes. A luz consistia em algo que era simultaneamente onda e partícula. Isto parece um pouco confuso. No mundo que habitualmente nos rodeia, existem ondas, tais como as ondas na água; e existem partículas, tais como partículas de areia. E não há qualquer confusão. Ondas são ondas e partículas são partículas.

A questão está em que a luz não se assemelha aos objectos que encontramos normalmente à nossa volta, não podendo ser metida à força em categorias definidas de acordo com as regras que aí vigoram. A luz, quando estudada de determinada maneira, revela fenómenos de interferência, como as ondas de água. Estudada de outros modos, no entanto, revela fenómenos de transferência de energia, à maneira das bolas de bilhar. Não existe, porém, qualquer observação capaz de mostrar a luz com-portando-se simultaneamente como onda e partícula. Podemos estudar a luz como uma ou outra coisa, mas nunca as duas ao mesmo tempo.

Na verdade, não se trata dum mistério assim tão extraordinário. Imagine o leitor que está a olhar de lado para um cone de gelado vazio, de modo que a parte mais larga esteja em cima e a ponta em baixo. O perfil é o dum triângulo. Imagine agora que o observa de cima, com a abertura voltada directamente para si e a ponta do lado mais afastado. O que vê agora é um círculo. Se só lhe for permitido observar o cone dessas duas maneiras, vê-lo-á, ou como um círculo, ou como um triângulo, mas nunca como sendo as duas coisas ao mesmo tempo.

E claro que o leitor se pode interrogar sobre o perfil bidimensional real do cone, mas a resposta a essa pergunta só poderá ser: "Depende do modo como o observar." Analogamente, o leitor poderá querer saber se a luz é realmente uma onda, ou realmente uma partícula. E a resposta a essa pergunta terá de ser: "Depende do modo particular como for observada."

Um importante efeito secundário da descoberta da natureza corpuscular da luz foi que tornou o éter luminífero desnecessário. Após um século de existência no espírito dos cientistas, durante o qual a necessidade de explicar a sua existência e propriedades criou uma confusão crescente, o éter desapareceu como se nunca tivesse existido - e, na verdade, nunca tinha existido.

Se algo que parecia ser uma onda revelava características de partícula, poderia dar-se o caso de algo que parecia uma partícula revelar propriedades ondulatórias?

O físico francês Louis Victor de Broglie (1892-1987) sugeriu, em 1924, que assim era, de facto. Broglie utilizou as equações de Einstein, que relacionavam massa e energia, e a equação de Planck, que relacionava a dimensão dum quantum com a frequência da radiação, para mostrar que toda a partícula se devia comportar também como uma onda com determinado comprimento de onda.

Em 1925, o físico norte-americano Clinton Joseph Davisson (1881--1958) estava a estudar a reflexão de electrões provocada por um alvo de níquel encerrado num tubo onde fizera o vácuo. O tubo partiu-se acidentalmente e o níquel aquecido combinou-se com o oxigénio do ar, formando uma película de óxido na superfície do alvo. Para a remover, Davisson teve de aquecer o níquel durante um longo período. Uma vez terminada a operação, verificou que as propriedades de reflexão dos electrões da superfície de níquel se tinham alterado. Antes do acidente, a superfície era constituída por um grande número de pequenos cristais; mas agora restavam apenas alguns cristais de maiores dimensões.

Davisson, que tinha conhecimento da sugestão de Broglie, pensou que seria útil ir mais longe e preparar uma superfície de níquel constituída por um único cristal. Uma tal superfície permitiria talvez revelar eventuais propriedades ondulatórias dos electrões. Davisson fez incidir um feixe de partículas sobre uma tal superfície e descobriu que os electrões não só eram reflectidos como também difractados, dando origem a fenómenos de interferência. Os electrões tinham mesmo propriedades ondulatórias.

Ainda em 1925, o físico britânico George Paget Thomson (1892--1975), filho de J. J. Thomson, realizou experiências em que electrões rápidos atravessaram películas muito finas de ouro, tendo observado igualmente fenómenos de difracção. Na sequência de todos estes trabalhos, de Broglie recebeu um Prémio Nobel em 1929 por ter elaborado a teoria das ondas associadas aos electrões, enquanto que Davisson e G. P. Thomson partilharam idêntico prémio em 1937 por terem demonstrado a sua existência. As ondas associadas aos electrões, diga-se de passagem, não são ondas electromagnéticas mas "ondas de matéria".

Hoje em dia, os físicos estão convencidos de que todas as coisas possuem características de partícula e de onda, embora não necessariamente em igual medida. Quanto mais maciça é uma partícula, mais importantes são as suas características de partícula e mais difícil se torna observar as suas propriedades ondulatórias. Uma bola de bilhar (ou a própria Terra) possuem um aspecto ondulatório, mas o seu comprimento de onda é tão pequeno que é bem possível que nunca venha a ser observado. Sabemos, em teoria, que existe, mas é tudo. Mesmo um grão de areia possui propriedades ondulatórias que são certamente demasiado subtis para poderem ser observadas. Um electrão, pelo contrário, possui uma massa tão pequena que o seu carácter ondulatório pode ser facilmente observado, uma vez realizada a experiência adequada.

De modo análogo, quanto menos energética for uma onda, mais importante é o seu aspecto ondulatório, e mais difícil se torna observar as suas propriedades corpusculares. Uma onda de água é tão fraca (se considerarmos apenas uma molécula de água) que não é de todo provável que possamos observar as suas características de corpúsculo. O mesmo se aplica às ondas sonoras, embora os físicos falem em fonões quando se referem ao aspecto corpuscular das ondas sonoras, da palavra grega para "som".

As propriedades corpusculares da radiação electromagnética são difíceis de observar quando os quanta são muito pequenos, como sucede com as ondas rádio. Somente quando os quanta se tornam maiores e os comprimentos de onda mais curtos, como sucede com os raios X, é que o seu aspecto corpuscular pode ser facilmente observado.

Einstein mostrou que o campo gravítico produz ondas, tal como um campo electromagnético. Contudo, o campo gravítico é tão menos intenso do que o electromagnético que as ondas gravíticas são extremamente fracas e o seu aspecto corpuscular praticamente impossível de detectar. Ainda assim, os cientistas falam das ondas gravíticas como consistindo em gravitões em movimento.

E apenas porque no mundo que nos rodeia as partículas são muito maciças e as ondas têm tão pouca energia que pensamos nos dois fenómenos como excluindo-se mutuamente. No mundo dos átomos e das partículas subatômicas, tal exclusividade desaparece.

Diz-se, por vezes, que a ciência produz resultados paradoxais e que vai contra o senso comum. É importante lembrar que o senso comum se baseia frequentemente nas observações muito limitadas que fazemos do mundo à nossa volta. Ir contra o senso comum significa, por vezes, adoptar uma visão mais ampla e mais rigorosa do Universo. (Lembremo--nos de que o "senso comum" nos disse, em tempos idos, que a Terra era plana e o Sol girava à sua volta.)


4. NÚCLEOS


Investigando o Átomo

 

Suando os cientistas começaram a suspeitar que os electrões podiam estar associados aos átomos, surgiu um problema. Os electrões tinham uma carga eléctrica negativa, mas os átomos electricamente neutros. O que significava que tinham de existir algures no átomo cargas eléctricas positivas que neutralizassem as cargas dos electrões.

A ser assim, quando removêssemos electrões dum átomo, a parte sobrante ficaria com uma carga positiva. Se acrescentássemos electrões a um átomo, o átomo e os electrões em excesso teriam uma carga negativa. Isto explicava os iões positivos e negativos de Faraday e Arrhenius.

J. J. Thomson, em 1898, foi o primeiro a sugerir uma estrutura atómica que tinha em conta a questão da carga eléctrica. Thomson defendia que o átomo era uma pequena esfera uniforme, tal como havia sido imaginado há séculos, mas com uma carga positiva. E nesse átomo positivamente carregado estavam embutidos electrões (como passas num bolo) em número suficiente para neutralizar a carga.

A estrutura atómica proposta por Thomson continuava a descrever os átomos como algo de sólido, e se muitos deles estivessem em contacto e se alinhassem nas três direcções do espaço, o sólido assim formado seria exactamente aquilo que o seu nome indica - um sólido.

E, todavia, as coisas não podiam passar-se assim. Lenard notara em 1903 que os electrões que se deslocavam num tubo de raios catódicos atravessavam finas folhas metálicas, o que parecia indicar que os átomos eram constituídos, pelo menos em parte, por espaço vazio. Lenard admitiu que os átomos fossem nuvens de pequenas partículas: algumas seriam electrões e outras partículas de dimensão semelhante carregadas positivamente. Uma partícula positiva e outra negativa girariam em torno uma da outra, constituindo um par que seria globalmente neutro.

Um conjunto maior de tais pares podia então corresponder a um átomo, mas entre esses pares e no seu interior existia espaço vazio através do qual uma pequena partícula como um electrão em movimento podia facilmente passar.

Mas se assim fosse, os átomos deviam perder com igual facilidade um ou outro tipo de partículas. Se a exposição à luz provocava a ejecção dum metal de electrões carregados negativamente, por que razão é que o mesmo não se passava com as partículas positivas - nem que fosse ocasionalmente? Além disso, se os electrões saíam dum cátodo sob a acção duma corrente eléctrica, por que razão é que do ânodo não emergiam partículas carregadas positivamente? Parecia óbvio que as partículas carregadas positivamente, a existirem, seriam de natureza bastante diversa da dos electrões. Teriam de ser, por alguma razão, muito menos móveis do que estes.

Em 1904, o físico japonês Hantaro Nagaoka (1865-1950) sugeriu que a porção positiva do átomo não ocupava a totalidade do seu volume, tal como Thomson propusera, nem ocupava tanto espaço como os electrões, como fora avançado por Lenard. Nagaoka propôs um compromisso. Ele acreditava que a porção do átomo carregada positivamente estava localizada no seu centro, sendo menor do que a totalidade do átomo. E que estava rodeada por electrões que giravam à sua volta e se mantinham em órbita devido à atracção electromagnética, tal como os planetas giram em volta do Sol presos pela atracção gravítica.

A sugestão de Nagaoka significava que um átomo era neutro em circunstâncias normais, explicava a produção de iões positivos e negativos, e deixava espaços vazios por onde podiam passar os electrões em movimento. Além disso, esclarecia por que razão os electrões podiam ser facilmente removidos dos átomos, ao contrário do que sucedia com as partículas de carga positiva. Os electrões estavam, bem vistas as coisas, na periferia do átomo, enquanto que as partículas carregadas positivamente se encontravam protegidas no seu centro.

No entanto, nenhuma destas hipóteses teve grande aceitação. Todas não passavam de especulações e nenhuma conseguiu realmente impor--se. Aquilo de que os cientistas precisavam era de dados experimentais directos sobre a estrutura interna do átomo. Mas tais dados não pareciam fáceis de obter. Como é que alguém podia investigar o interior duma entidade tão pequena como o átomo? E, todavia, no preciso momento em que Thomson, Lenard e Nagaoka avançavam as suas hipóteses, um tal dispositivo para investigar os átomos já existia. A história da sua descoberta é o que a seguir se conta.

Assim que os raios X foram descobertos por Roentgen, outros cientistas puseram-se a estudar a nova radiação e muitos interrogaram-se sobre se a mesma não podia ser encontrada noutras situações onde antes não fora detectada apenas porque ninguém se lembrara de aí a procurar.

O físico francês Antoine Henri Becquerel (1852-1908) interessou-se especialmente por compostos fluorescentes, substâncias que absorvem a luz solar (ou outra radiação energética) e depois libertam essa energia emitindo luz apenas nalguns comprimentos de onda. A fluorescência é um fenómeno semelhante ao da fosforescência, com a diferença de que as substâncias fluorescentes deixam de emitir luz assim que deixam de estar expostas à radiação, enquanto que as substâncias fosforescentes continuam a emitir luz durante um certo tempo após o fim da exposição.

Becquerel queria saber se as substâncias fluorescentes, para além de luz visível, emitiam igualmente raios X. A fim de testar tal hipótese, propôs-se envolver chapas fotográficas em papel negro e expor o conjunto à luz solar com um cristal duma substância química fluorescente sobre ele. A luz solar não podia atravessar o papel negro, o mesmo acontecendo com qualquer luz fluorescente emitida pelo cristal. Se, todavia, o cristal emitisse raios X, estes atravessariam o papel negro e sensibilizariam a película fotográfica.

Os cristais usados por Becquerel eram de uranilsulfato de potássio, uma substância fluorescente bem conhecida. Cada molécula desse composto continha um átomo do metal urânio.

No dia 25 de Fevereiro de 1896, Becquerel realizou a sua experiência e confirmou o escurecimento da película fotográfica. O físico concluiu que o cristal emitia realmente raios X e preparou-se para repetir a experiência com nova película, a fim de se certificar do resultado obtido. Contudo, o tempo esteve nebulado nos dias que se seguiram. Becquerel colocou a película fotográfica envolta em papel negro e o cristal numa gaveta, e esperou pelo regresso do sol.

No dia 1 de Março, Becquerel começou a ficar impaciente. Para não ficar desocupado, o físico decidiu revelar a película, a fim de se certificar que, na ausência de fluorescência, nada atravessara o papel negro. Para sua surpresa, descobriu que algo estava a atravessá-lo, e em grandes quantidades. A chapa apresentava-se fortemente obscurecida. Os cristais tinham estado a emitir uma radiação que não dependia da luz solar nem tinha que ver com a fluorescência. Becquerel esqueceu a luz solar e começou a estudar a nova radiação.

Em breve compreendeu que a radiação emitida pelo uranilsulfato de potássio tinha origem no átomo de urânio, uma vez que outros compostos contendo urânio emitiam o mesmo tipo de radiação, mesmo quando não eram fluorescentes. Em 1898, a física polaca-francesa Marie Curie (1867-1934) mostrou que existia outro metal, o tório, que também emitia tal radiação. Marie Curie chamou radioactividade a esse comportamento do urânio e do tório. Tanto Becquerel como Curie suspeitavam que havia mais dum tipo de radiação envolvido.

Em 1899, o físico de origem neo-zelandesa Ernest Rutherford (1871--1937) estudou o modo como a radiação radioactiva penetrava folhas de alumínio. E descobriu que parte da radiação podia ser detida por 1/500 de centímetro de alumínio, enquanto que para a restante eram necessárias folhas consideravelmente mais espessas. Rutherford designou o primeiro tipo de radiação raios alfa, da primeira letra do alfabeto grego, e o segundo tipo raios beta, a segunda letra do alfabeto. Um terceiro tipo de radiação, a mais penetrante de todas, foi descoberta em 1900 pelo físico francês Paul Ulrich Villard (1860-1934) e designada raios gama, da terceira letra do alfabeto grego.

Não passou muito tempo sem que estas diferentes radiações fossem quantificadas. Os raios beta eram desviados por um campo magnético de tal modo que era evidente que se tratava de partículas de carga negativa. Em 1900, Becquerel determinou a massa e a carga de tais partículas, verificando que, tal como os raios catódicos, eram constituídos por electrões em movimento. Um electrão em movimento é, por isso, designado às vezes como uma partícula beta.

Os raios gama não eram desviados por campos magnéticos, o que sugeria não possuírem carga eléctrica. Rutherford suspeitou que os raios gama pudessem ter uma natureza electromagnética e resolveu fazê-los atravessar um cristal. A presença dum padrão de difracção mostrou que se comportavam de modo análogo aos raios X, embora com comprimentos de onda ainda mais curtos.

Quanto aos raios alfa, eram desviados por um íman de tal modo que indicavam ser compostos por partículas com carga positiva. Seriam estas as partículas carregadas positivamente que Lenard supunha constituírem os átomos, juntamente com os electrões?

Não. Lenard imaginara partículas de carga positiva com propriedades em tudo análogas às dos electrões, excepto no que dizia respeito à natureza da carga. As partículas alfa, todavia, diferiam muito dos electrões noutros aspectos que não apenas a carga eléctrica. Em 1906, Rutherford mostrou que as partículas alfa tinham uma massa muito superior à dos electrões. Actualmente sabemos que a sua massa é cerca de 7344 vezes a do electrão.

Assim que Rutherford descobriu a natureza particularmente maciça das partículas alfa, compreendeu também que elas constituíam o instrumento ideal para investigar o átomo. Um feixe de partículas alfa que incidisse sobre uma folha metálica delgada penetrá-la-ia e o modo como essa penetração se processasse poderia fornecer informações muito úteis.

Rutherford resolveu colocar um fragmento duma substância radioactiva numa caixa de chumbo dotada dum orifício. As radiações eram incapazes de penetrar o chumbo mas um estreito feixe de radiação emergia do orifício e, deslocando-se através do espaço, incidia sobre uma fina folha de ouro. Atrás desta, Rutherford colocara uma chapa fotográfica que seria sensibilizada por quaisquer partículas alfa que atravessassem a folha de ouro.

Essa folha era tão fina que era semitransparente mas, mesmo assim, os átomos são tão pequenos que ela tinha uma espessura de cerca de 20 000 átomos de ouro. No entanto, as partículas alfa atravessaram-na como se esses 20 000 átomos não existissem, obscurecendo a chapa fotográfica precisamente no local onde o teriam feito se a folha de ouro lá não tivesse estado.

Ou quase. Rutherford reparou que algumas partículas alfa tinham sido desviadas da sua trajectória. Com efeito, era visível na chapa fotográfica um leve halo em torno dum ponto negro central. Esse halo tornava-se rapidamente mais ténue com a distância ao centro, mas não desaparecia totalmente. Cerca de 1 partícula alfa em cada 8 000 era desviada noventa graus ou mais. De facto, parecia que ocasionalmente uma partícula alfa atingia algo e sofria um ressalto.

Para explicar este fenómeno, Rutherford propôs, em 1911, o seu próprio modelo de átomo. O átomo, segundo ele, tinha quase toda a sua massa concentrada numa entidade pequena, de carga positiva, situada no centro. Na periferia do átomo, espalhados por um volume que ocupava a sua quase totalidade, existiam apenas electrões. Tratava-se duma sugestão semelhante ao modelo de átomo proposto por Nagaoka, com a diferença de que, no átomo de Rutherford, a entidade de carga positiva situada no centro era muito mais pequena e maciça.

Além disso, Rutherford apoiava-se em observações experimentais, algo que não sucedera com Nagaoka. As partículas alfa penetravam na parte do átomo onde se encontravam os electrões como se ela estivesse vazia, uma vez que eram muito mais maciças do que os electrões. Quando uma partícula alfa se aproximava da entidade central maciça, de carga positiva, era desviada da sua trajectória em virtude da sua própria carga. A partir da magnitude dos desvios, Rutherford pôde calcular a dimensão do núcleo. Nagaoka não dispunha de dados desse tipo.

É por isso que é a Rutherford que, correctamente, se atribui o avanço conseguido. A entidade central é designada núcleo do átomo, duma expressão latina que significa "caroço", uma vez que se assemelha a um pequeno caroço no interior dum invólucro atómico relativamente espaçoso. Uma vez que, em biologia, as células também possuem entidades centrais designadas núcleos, os dos átomos são por vezes referidos como núcleos atómicos. Neste livro, todavia, tal qualificativo não será utilizado.

O modelo do átomo sugerido por Rutherford revelou-se inteiramente satisfatório, embora muitos pormenores fossem acrescentados, como veremos, nos três quartos de século que se seguiram. Por este e outros trabalhos, Rutherford foi laureado com um Prémio Nobel em 1908. (O prémio foi-lhe atribuído na categoria da química, o que lhe desagradou, uma vez que se considerava, obviamente, um físico.)


Partículas de Carga Positiva

 

Ao núcleo corresponde qualquer coisa como 99,945 a 99,975 por cento da massa do átomo a que pertence. Por esse motivo, o estudo do núcleo é da maior importância. Com efeito, quase se poderia dizer que o núcleo constitui o "verdadeiro" átomo. No século XIX, a ideia que se tinha do átomo era que consistia quase inteiramente em espaço vazio ou, pelo menos, em espaço preenchido com as partículas/ondas muito pouco substanciais dos electrões. Era o núcleo que podia corresponder à pequena porção última de matéria, esférica e sólida, primeiro imaginada por Leucipo e Demócrito.

Apesar da sua massa, o núcleo tem dimensões reduzidas, com um diâmetro que é apenas l/ioo 000 do átomo. Por isso, é considerado, tal como o electrão, uma partícula subatômica.

Um núcleo tem de ter uma carga eléctrica positiva suficientemente grande para neutralizar a carga de todos os electrões que normalmente se encontram no átomo. No entanto, a história de tais partículas subatômicas de carga positiva não começa com Rutherford.

O núcleo de carga positiva contém quase toda a massa do átomo, mas tem um diâmetro que é apenas /l00.000 deste.

Goldstein, que inventara a expressão raios catódicos, estava interessado em verificar se existia qualquer radiação que se deslocasse na direcção oposta. Goldstein foi incapaz de detectar qualquer radiação emitida pelo ânodo. Contudo, em 1886, ocorreu-lhe conceber um cátodo que permitisse a uma eventual radiação deslocar-se na direcção oposta. Foi o que tentou fazer quando usou um cátodo perfurado, que possuía pequenos orifícios (ou "canais"). Quando um tal cátodo era encerrado no meio dum tubo no qual se fizera o vácuo e se forçava uma corrente eléctrica a atravessar este, formavam-se raios catódicos. Todavia, radiação de sinal positivo com origem próxima do cátodo podia atravessar os canais e deslocar-se na direcção oposta.

Foi isso precisamente que Goldstein observou, tendo chamado a essa nova radiação Kanahtrahlen, que é uma expressão alemã que significa "raios canal".

Em 1895, Perrin recolheu alguns desses raios canal num objecto colocado na sua trajectória, demonstrando que o objecto adquiria carga positiva. Foi isso que levou J. J. Thomson a propor, em 1907, que eles fossem designados raios positivos.

Em 1898, Wien submeteu tais raios a campos eléctricos e magnéticos, tendo descoberto que as partículas que compunham os raios positivos eram muito mais maciças do que os electrões. Com efeito, a sua massa era análoga à dos átomos. Além disso, observou que a massa das partículas dos raios positivos dependia dos vestígios de gás presentes no tubo onde se estabelecera o vácuo. Se se tratasse de hidrogénio, as partículas dos raios positivos apresentavam a massa dum átomo de hidrogénio; no caso de ser oxigénio, a sua massa era a dum átomo de oxigénio, e por aí fora.

Uma vez aceite a teoria de Rutherford acerca do átomo nuclear, os físicos compreenderam imediatamente em que consistiam as partículas dos raios positivos. Os electrões em movimento que constituíam os raios catódicos colidiam esporadicamente com os átomos dispersos pelo tubo de raios catódicos - fossem eles de hidrogénio, oxigénio, azoto, etc. Os electrões não tinham massa suficiente para perturbar os respectivos núcleos que, de resto, raramente atingiam. No entanto, chocavam com electrões, arrancando-os aos átomos a que pertenciam. Os átomos, sem esses electrões, transformavam-se em núcleos com carga eléctrica positiva e deslocavam-se na direcção oposta à das partículas dos raios catódicos.

Em 1903, Rutherford já tinha reconhecido que as partículas alfa eram muito semelhantes nas suas propriedades às partículas dos raios positivos. Por volta de 1908, estava certo de que uma partícula alfa tinha uma massa quase idêntica à dum átomo de hélio. Parecia-lhe por isso que devia existir alguma relação entre as partículas alfa e o hélio, uma vez que os minerais de urânio, que produziam constantemente partículas alfa, pareciam conter também, de modo igualmente constante, pequenas quantidades de hélio.

Em 1909, Rutherford colocou algum material radioactivo num recipiente com uma parede de vidro dupla. A parede interna era bastante fina, mas a exterior era consideravelmente mais espessa. Entre as duas estabeleceu o vácuo.

As partículas alfa emitidas pelo material radioactivo conseguiam atravessar a parede mais delgada, mas não a parede exterior, mais espessa. As partículas ficavam assim aprisionadas no espaço entre as duas paredes. Ao fim de vários dias, as partículas entre as duas paredes constituíam uma quantidade que podia ser analisada e, quando tal foi feito, detectou--se hélio. Tornava-se assim evidente que as partículas alfa eram núcleos de hélio. Os outros raios positivos eram núcleos de outros tipos de átomos.

Uma das diferenças entre as partículas constituintes dos raios positivos e os electrões era o facto dos electrões terem todos a mesma massa e a mesma carga eléctrica, enquanto que as massas e cargas eléctricas das partículas dos raios positivos variavam. Os físicos interrogaram-se naturalmente sobre se seria possível dividir de alguma forma as partículas dos raios positivos em entidades mais pequenas e talvez localizar uma partícula positiva muito pequena que não fosse maior do que o electrão.

Rutherford foi um dos físicos que procuraram esse pequeno "electrão positivo", mas não o encontrou. A mais pequena partícula de carga positiva que conseguiu encontrar pesava tanto como um átomo de hidrogénio e devia por isso ser um núcleo de hidrogénio. Em 1914, Rutherford decidiu que essa partícula devia ser a mais pequena partícula de carga positiva que podia existir. A partícula apresentava uma carga eléctrica exactamente igual à do electrão (embora de sinal contrário), mas tinha uma massa que era - sabemo-lo actualmente - 1836,11 vezes superior.

Rutherford designou esta partícula mais pequena dos raios positivos um protão, da palavra grega para "primeira", uma vez que quando tais partículas eram listadas por ordem crescente de massa, o protão era a primeira.


Números Atómicos

 

Como disse anteriormente, os núcleos, que podem ser encarados como a parte essencial dos átomos, diferem entre si em dois aspectos: a massa e a magnitude da sua carga positiva. Isto representa um avanço significativo relativamente a um nível anterior de conhecimentos. Durante o século XIX, nada se sabia acerca das cargas eléctricas existentes no interior dos átomos e a única diferença conhecida era entre as respectivas massas. Mas a massa, por si só, não era inteiramente satisfatória.

Num capítulo anterior do livro referi que quando os elementos são organizados por ordem crescente da massa dos seus átomos (peso atómico), é possível construir uma tabela periódica. Nessa tabela, os elementos são organizados de modo a que elementos com propriedades análogas fiquem na mesma coluna.

Uma tabela desse tipo, baseada apenas nos pesos atómicos, apresenta alguns problemas. O valor da diferença de massa varia à medida que se avança na tabela. Por vezes, a diferença de massa entre um átomo e o seguinte é pequena mas, por vezes, é bastante grande. Em três casos, o peso atómico dum elemento é, na verdade, um pouco maior do que o do elemento que se lhe segue.

Com efeito, se a massa fosse o único critério a ter em conta, a posição dos dois elementos nos três casos atrás referidos devia ser invertida. Mas tal não é feito porque, desse modo, cada um dos elementos envolvidos ficaria a fazer parte dum grupo com o qual não partilha propriedades. Men-deleev, que foi quem primeiro teve a ideia duma tabela periódica, achou que manter os elementos dentro das famílias respectivas era mais importante do que seguir cegamente a ordem crescente das massas atómicas, um ponto de vista com que mais tarde os químicos viriam a concordar.

Além disso, se a massa fosse a única característica distintiva, nunca se poderia saber quando é que era descoberto um elemento com um peso atómico situado entre os de dois elementos já conhecidos. Já na última década do século XIX, toda uma família de elementos até aí desconhecidos foi descoberta e houve necessidade de acrescentar uma nova coluna à tabela periódica. No entanto, talvez os aspectos confusos da tabela periódica pudessem ser ultrapassados se fosse possível integrar a segunda característica distintiva dos átomos recém-descoberta, a magnitude da carga positiva dos seus núcleos.

Essa possibilidade surgiu por via dos raios X. (Quando os raios X foram descobertos, não se podia prever que viriam a ser úteis para a tabela periódica. Contudo, o conhecimento é um só. Quando uma luz ilumina determinado recanto duma sala, contribui igualmente para a iluminação geral da mesma. As descobertas científicas têm fornecido, vezes sem conta, respostas a problemas sem qualquer relação aparente com os fenómenos que deram origem a essas descobertas.)

Os raios X, detectados pela primeira vez por Roentgen, eram produzidos quando os raios catódicos incidiam sobre o vidro dum tubo de gás rarefeito. Os electrões em movimento sofriam uma desaceleração súbita e havia perda de energia cinética. Mas tal energia não era realmente perdida, antes convertida noutra forma de energia; neste caso, em radiação electromagnética. A energia perdida num dado instante era tão elevada que se formavam fotões invulgarmente energéticos e a radiação era emitida sob a forma de raios X.

Uma vez entendido este fenómeno, os cientistas compreenderam rapidamente que se algo mais denso do que o vidro, e formado por átomos mais maciços, fosse colocado na trajectória dos electrões em movimento, a sua desaceleração seria ainda mais brutal. Formar-se-iam desse modo raios X de comprimentos de onda ainda mais curtos e energias mais elevadas. A solução óbvia parecia ser chapas metálicas de diferentes tipos. Estas eram colocadas no tubo, na extremidade oposta à do cátodo, onde eram atingidas pelos electrões. Tais placas foram designadas anti-cátodos, onde a expressão anti- vem duma palavra grega que significa "oposto". (Geralmente, colocam-se ânodos defronte dos cátodos, mas para criar espaço para os anticátodos, os ânodos eram dispostos lateralmente nos tubos.)

Em 1911, o físico britânico Charles Glover Barkla (1877-1944) reparou que os raios X produzidos por um anticátodo de determinado metal tendiam a penetrar as substâncias somente até determinado ponto. Cada metal produzia raios X com um poder de penetração que era específico desse metal. Quando, mais tarde, os cientistas compreenderam que os raios X eram radiação electromagnética, o fenómeno foi interpretado como significando que cada metal produzia raios X com determinado comprimento de onda. Barkla chamou-lhes raios X característicos de cada metal.

Barkla descobriu ainda que, por vezes, o anticátodo de certos metais produzia dois tipos distintos de raios X, cada qual com o seu próprio poder de penetração, mas sem que existisse outra radiação entre ambos. Ao feixe mais penetrante chamou raios X K e ao menos penetrante raios X L. Mais tarde, descobriu-se que nalguns casos eram produzidos feixes de raios X ainda menos penetrantes, tendo sido usadas as letras seguintes do alfabeto para os designar: raios X M, raios X N, etc. Pelos trabalhos realizado neste domínio, Barkla foi galardoado com um Prémio Nobel em 1917.

As investigações de Barkla foram continuadas por um dos alunos de Rutherford, Henry Gwyn-Jeffreys Moseley (1887-1915). Em 1913, Moseley estudou cuidadosamente os raios X característicos, utilizando a difracção de raios X por cristais que fora recentemente descoberta pelos Bragg.

Moseley descobriu que à medida que subia na lista de elementos da tabela periódica, o comprimento de onda dos raios X produzidos diminuía regularmente. Quanto maior o peso atómico dos átomos no anticátodo, menor o comprimento de onda dos raios X. Além disso, a alteração no comprimento de onda era muito mais regular do que a alteração do peso atómico.

Os físicos estavam certos de que a desaceleração dos electrões era provocada, principalmente, pela magnitude da carga positiva do núcleo atómico, pelo que as observações de Moseley constituíam uma indicação de que a magnitude dessa carga aumentava mais regularmente do que a massa do núcleo atómico à medida que se subia na tabela periódica.

Moseley sugeriu, com efeito, que a magnitude da carga aumentava duma unidade com cada posição que se subia na tabela. Assim, o hidrogénio, o primeiro elemento, tinha como núcleo o protão, com uma carga de +1. O hélio, segundo elemento, tinha um núcleo (a partícula alfa) com uma carga de +2. O lítio, terceiro elemento, tinha uma carga nuclear de +3 e assim por diante até ao urânio, o átomo mais maciço até então conhecido, que tinha uma carga nuclear de +92.

Moseley chamou à magnitude da carga nuclear o número atómico do elemento, e esse parâmetro revelou-se mais importante do que o peso atómico. De facto, o número atómico permitiu resolver muitos dos problemas da tabela periódica, à medida que os conceitos de Moseley foram sendo refinados e desenvolvidos por outros físicos.

Assim, aqueles casos em que, ao avançar na tabela periódica, surgia um elemento com um peso atómico ligeiramente superior ao elemento que se lhe seguia, deixavam de constituir um problema se, em vez desse parâmetro, se considerassem os respectivos números atómicos. Um elemento que parecia fora de sítio por ter um peso atómico mais elevado do que o do elemento seguinte, revelava ter afinal um número atómico mais baixo. Se os átomos fossem organizados pelos seus números atómicos, todos, sem excepção, ficavam colocados na respectiva família, sem necessidade de inversões. Além disso, quando dois elementos adjacentes tinham números atómicos que diferiam numa unidade apenas, sabia-se que não podia existir nenhum elemento ainda desconhecido entre ambos.

Em breve se tornou claro que todas as cargas eléctricas negativas eram múltiplos exactos da carga dum electrão, enquanto que todas as cargas eléctricas positivas eram múltiplos exactos da carga dum protão. É possível ter cargas nucleares de +16 e +17, mas não é possível ter cargas de+16,4 ou+16,387.

Onde faltava um elemento na tabela periódica, a alteração no comprimento de onda dos raios X característicos, quando se passava dum elemento para o elemento conhecido seguinte na tabela, era o dobro daquela que seria de esperar, o que constituía uma indicação segura de que entre um e o outro existia um terceiro elemento.

Na época em que Moseley propôs o conceito de número atómico, existiam sete espaços vazios na tabela periódica, representando cada qual um elemento ainda desconhecido. Em 1948, todos esses espaços tinham já sido preenchidos. Os físicos tornaram-se capazes de criar átomos com números atómicos superiores a 92, usando métodos que serão adiante explicados. Actualmente, conhecem-se todos os elementos com números atómicos entre 1 e 106. (Moseley teria quase de certeza recebido daí a alguns anos um Prémio Nobel pelo seu trabalho mas, em 1915, morreu em combate em Gallipoli, na Turquia, durante a Primeira Guerra Mundial.)

O número atómico indica-nos a magnitude da carga positiva existente no núcleo. Uma vez que um átomo normal é globalmente neutro do ponto de vista eléctrico, tem de existir um electrão nas regiões exteriores do átomo para cada carga positiva existente no seu núcleo. Assim, e porque o hidrogénio possui uma carga de +1 no núcleo, um átomo normal deste elemento tem de possuir um electrão. O hélio, com uma carga nuclear de +2, tem de ter dois electrões em cada átomo; o oxigénio, com uma carga nuclear de +8, tem de ter oito electrões; o urânio, com uma carga nuclear de +92, tem de ter noventa e dois electrões, etc. Em síntese: o número atómico reflecte não apenas a magnitude da carga nuclear, mas também o número de electrões num átomo normal.

Faz sentido pensar que as reacções químicas têm lugar quando os átomos, quer independentemente, quer integrados em moléculas, colidem uns com os outros. Se for esse o caso, as colisões ocorrem principalmente entre os electrões dum átomo e os electrões de outro. Os núcleos dos dois átomos em questão encontram-se bem longe, no seu centro, escondidos por detrás dos electrões, não sendo provável que participem nas reacções químicas ou sequer as influenciem dum modo determinante.

Esta suposição não só faz sentido (as coisas não são necessariamente como as imaginamos, apenas porque fazem sentido), mas parece decorrer de algo como a teoria da dissociação iónica de Arrhenius. A formação de iões é, aparentemente, o resultado da transferência dum ou mais electrões dum átomo para outro.

No caso duma molécula como a do açúcar, a formação de iões não parece ocorrer. Em vez disso, os átomos existentes na molécula mantêm--se ligados, talvez porque partilhem electrões e não possam, por isso, separar-se facilmente e conservar a sua integridade enquanto átomos. Parecem existir, portanto, situações em que a transferência de electrões é a situação mais estável, e outras em que o é a partilha de electrões. Porquê?

A resposta a esta questão começa a esboçar-se olhando para um grupo de seis elementos constituídos por átomos que não apresentam tendência para transferir ou partilhar electrões, antes permanecendo átomos individuais. Os três átomos mais leves deste grupo - hélio, néon e árgon - nunca transferem ou partilham electrões, pelo menos tanto quanto os químicos foram capazes de observar. Os três mais pesados - crípton, xénon e rádon - partilham electrões em circunstâncias excepcionais, mas nunca de modo muito estável.

Estes seis elementos são designados gases nobres ("nobres" porque são "altivos" e não tendem a misturar-se com a "ralé"). A razão da "nobreza" destes elementos pode ser melhor entendida se imaginarmos que os electrões estão organizados num átomo em camadas concêntricas. A medida que nos afastamos do núcleo, cada camada é naturalmente maior do que a anterior e pode conter mais electrões. Assim, o átomo de hélio tem dois electrões, que parecem preencher a camada mais interior. Tal facto não deve surpreender-nos, tendo em conta que se trata da camada mais próxima do núcleo e que, como tal, deve ser a mais pequena de todas, capaz de conter o menor número de electrões.

Os químicos norte-americanos Gilbert Newton Lewis (1875-1946) e Irving Langmuir (1881-1957), trabalhando independentemente a partir de 1916, desenvolveram as noções de camada e de transferência, ou partilha, de electrões, uma vez que tais fenómenos pareciam capazes de explicar adequadamente os processos químicos. (Na verdade, este domínio do conhecimento seria enormemente refinado em décadas posteriores, mas falaremos disso adiante.)

As camadas individuais estão associadas às séries de raios X característicos primeiro descobertas por Barkla. A série K de raios X é a mais penetrante e parece ter origem na camada de electrões mais próxima do núcleo. A primeira camada electrónica é por isso designada camada K.

Seguindo este raciocínio, a camada que se segue imediatamente à camada K é a camada L, uma vez que parece ser a origem dos raios X menos penetrantes da série L. A camada L seguem-se a M, a N, e assim por diante.

Talvez os átomos de hélio sejam nobres e não transferiram nem partilhem electrões (e, por isso, não se envolvam em quaisquer reacções químicas) porque uma camada preenchida é particularmente estável. A partilha ou transferência dum electrão iria diminuir a estabilidade da situação, e as estabilidades nunca diminuem espontaneamente. (E sempre necessária energia para forçar algo a desestabilizar-se; pelo contrário, a estabilização ocorre por si só. Estas propriedades estão associadas àquilo que se designa por segunda lei da termodinâmica.)

O gás nobre que se segue é o néon, que tem dez electrões nos seus átomos. Os dois primeiros preenchem a camada K e os oito seguintes a camada L, que é maior e pode conter mais electrões. O padrão electrónico do néon é, por isso, 2, 8. Com uma camada L preenchida e estável, o néon é um gás nobre.

Depois do néon vem o árgon, com dezoito electrões nos seus átomos, que estão organizados do seguinte modo: dois na camada K, oito na cama L e oito na camada M, ou seja, 2, 8, 8. A camada M, sendo maior do que a L, pode conter mais de oito electrões. Com efeito, pode conter dezoito electrões. Todavia, a presença de oito electrões na camada mais exterior (independentemente do número máximo que esta pode conter) é uma configuração particularmente estável, o que faz do árgon um gás nobre.

Ao árgon segue-se o crípton, com trinta e seis electrões, organizados assim: 2, 8, 18, 8. Depois vem o xénon, com cinquenta e quatro electrões, dispostos como se segue: 2, 8, 18, 18, 8. E, finalmente, o rádon, com oitenta e seis electrões, assim distribuídos: 2, 8, 18, 32, 18, 8.

A camada K, a mais interior, a camada L intermédia e a camada M mais externa de electrões no gás nobre árgon. As setas indicam a intensidade relativa dos raios X produzidos por cada camada quando atingidos por raios catódicos.

Aparentemente, os átomos interagem, sempre que possível, uns com os outros, de modo a alcançarem a configuração electrónica dum gás nobre. O sódio tem onze electrões assim dispostos: 2, 8, 1. O décimo primeiro electrão é o único existente na camada Meé facilmente perdido. Quando tal sucede, o átomo de sódio transforma-se num ião de sódio, com uma carga positiva, uma vez que a carga de +11 no núcleo deixa de estar completamente neutralizada por apenas dez electrões nas regiões exteriores. (Repare-se que a perda dum electrão não transforma o sódio em néon, que também tem dez electrões nos seus átomos. O que conta para a identidade do átomo é a carga nuclear, não o número de electrões.)

Por outro lado, o cloro tem dezassete electrões, distribuídos assim: 2, 8, 7. Para alcançar uma configuração de gás nobre, necessita dum electrão adicional. Tem por isso tendência a ganhar um electrão e a transformar-se num ião cloro de carga negativa, com dezoito electrões nos seus átomos que desequilibram a carga nuclear de +17.

É por esta razão que os átomos de sódio e cloro reagem facilmente uns com os outros. A transferência dum electrão dá origem a iões de sódio e de cloro, que se ligam uns aos outros uma vez que as cargas positivas e negativas se atraem. Quando dissolvemos sal em água, a ligação entre os iões torna-se mais ténue e estes podem deslizar uns pelos outros. É por isso que uma tal solução salina conduz uma corrente eléctrica.

Dois átomos de cloro podem alcançar um outro tipo de configuração estável se cada qual contribuir com um electrão, por assim dizer, para um fundo comum. Cada átomo possui seis electrões na sua camada mais exterior que lhe pertencem inteiramente, e mais dois electrões que partilha com o outro átomo. Cada uma das camadas mais exteriores está completamente preenchida e é estável, desde que os dois átomos permaneçam em contacto e mantenham entre si a partilha dos dois electrões. O resultado é a formação duma molécula de cloro com dois átomos (Cl2), que é mais estável do que os dois átomos de cloro individualmente.

Ao interpretarem deste modo a distribuição dos electrões nos átomos, os químicos descobriram que eram capazes de compreender a razão porque a tabela periódica estava organizada como está - baseada em reacções químicas que, por sua vez, dependem das configurações electrónicas na camada mais externa. Os químicos descobriram que podiam usar a distribuição dos electrões para explicar inúmeras reacções químicas que antes se tinham limitado a constatar, sem compreender o porquê das mesmas.

Até aqui, podíamos encarar os electrões como minúsculas partículas sólidas que existem em determinadas configurações geométricas. Contudo, uma tal perspectiva é insuficiente para explicar as linhas espectrais, outra das características que também distingue cada elemento dos demais.


Linhas Espectrais

 

Uma vez demonstrada por Newton a existência do espectro luminoso, o mesmo foi estudado atentamente por muitos cientistas. Se, por exemplo, fizermos passar a luz solar através duma ranhura estreita antes de atravessar um prisma, cada comprimento de onda produz uma imagem da ranhura numa cor característica. Os comprimentos de onda dispõem-se muito próximos uns dos outros, parecendo formar uma banda contínua de cores que se vão gradualmente transformando umas nas outras (como acontece num arco-íris). Mas o que sucede se, por qualquer motivo, alguns dos comprimentos de onda não estiverem presentes? Nesse caso, existem porções do espectro que não produzem qualquer imagem colorida ao atravessarem a ranhura, dando origem a linhas negras no espectro.

Em 1802, o químico britânico William Hyde Wollaston (1766-1828) observou tais linhas escuras, mas não investigou a sua origem, como de resto ninguém o fez durante algum tempo.

Em 1814, todavia, o óptico alemão Joseph von Fraunhofer (1787--1826), que fabricava prismas e outros equipamentos ópticos de grande qualidade, conseguiu obter espectros mais nítidos do que alguém alguma vez fora capaz. Ao fazê-lo, verificou a existência de centenas de linhas escuras no espectro. Tomou nota, cuidadosamente, das suas posições e importância relativa e mostrou que tais linhas surgiam sempre nas mesmas posições, quer se tratasse de luz solar, do luar ou da luz proveniente dos planetas. (É claro que a luz que nos chega da Lua e dos planetas é a luz do Sol por eles reflectida, pelo que o facto não é, talvez, surpreendente.)

A partir de então, as linhas de Fraunhofer, como passaram a ser chamadas, foram cuidadosamente estudadas, sendo embora consideradas pouco mais do que meras curiosidades. Até que, em 1859, Kirchhoff fez uma descoberta importante.

Kirchhoff verificou que os elementos, ao serem aquecidos, produziam um espectro que não era contínuo como o do Sol. Em vez disso, emitiam luz em comprimentos de onda específicos, de tal modo que o espectro formado era constituído por um conjunto de linhas claras separadas por regiões escuras. Além disso, fazendo passar luz solar através dos vapores arrefecidos desses elementos, estes absorviam apenas nos mesmos comprimentos de onda em que emitiam. De resto, cada elemento emitia, quando quente, ou absorvia, quando arrefecido, em comprimentos de onda característicos. Deste modo, os elementos presentes num mineral específico podiam ser identificados pelos comprimentos de onda emitidos quando o mineral era fortemente aquecido. E elementos até então ignorados podiam ser identificados através da presença de comprimentos de onda que não eram emitidos por qualquer elemento conhecido. Os elementos presentes no Sol e noutras estrelas puderam assim ser identificados pelas linhas escuras nos seus espectros.

Todos estes conhecimentos acerca das linhas espectrais tornaram-nas extremamente importantes para os químicos e astrónomos. Contudo, ninguém sabia por que razão elementos diferentes emitiam ou absorviam em diferentes comprimentos de onda. Um passo importante na resolução desse problema foi dado pelo físico suíço Johann Jakob Bal-mer (1824-1898). Balmer interessara-se especialmente pelo espectro do hidrogénio incandescente, que parecia mais simples do que o de outros elementos (o que fazia sentido, visto ser o hidrogénio o elemento mais leve e, presumivelmente, o mais simples de todos).

O espectro do hidrogénio consiste numa série de linhas, com espaçamentos entre si que são tanto menores quanto menor é o comprimento de onda. Em 1885, Balmer chegou a uma fórmula que lhe permitia obter os comprimentos de onda de tais linhas. A fórmula incluía um símbolo que podia ser substituído sucessivamente pelos quadrados de números inteiros: 1, 4, 9, 16, etc. Fazendo essa substituição, era possível calcular os comprimentos de onda das sucessivas linhas do espectro do hidrogénio. Isto continuava a não explicar por que razão as linhas apareciam nas posições em que apareciam, mas pelo menos demonstrava a existência duma regularidade intrínseca nas linhas que devia, de algum modo, estar reflectida na estrutura do átomo. Porém, não havia maneira de avançar neste domínio sem que se soubesse mais sobre a estrutura do átomo. Vejamos agora como é que esses conhecimentos foram adquiridos.

Uma vez aceite pelos físicos o modelo nuclear do átomo, foi necessário reflectir sobre aquilo que mantinha os electrões ligados ao núcleo. Com efeito, se os electrões têm carga negativa e o núcleo uma carga positiva, e se as cargas de sinal contrário se atraem, por que razão não caíam os electrões no núcleo? O mesmo se poderia perguntar da Terra - por que é que não cai sobre o Sol, se os dois corpos se atraem mutuamente? No caso da Terra, a resposta é que ela se encontra em órbita. A Terra está de facto a cair sobre o Sol, mas o movimento adicional de que se encontra animada, perpendicular ao movimento de queda, mantém-na para sempre em órbita.

Houve por isso tendência a considerar que o átomo era uma espécie de sistema solar em miniatura, com os electrões girando em torno do núcleo. Existia todavia um problema com tal suposição. É que se sabia da teoria electromagnética (e tinha-se observado experimentalmente) que um corpo com carga eléctrica deslocando-se desse modo emitia radiação electromagnética, perdendo energia no processo. E que, à medida que perdia energia, descrevia um movimento em espiral, acabando por cair no núcleo.

Por razões análogas também a Terra, ao girar em torno do Sol, emite radiação gravitacional e vai perdendo energia. Também ela, por isso, vai descrevendo um movimento em espiral em direcção ao Sol. No entanto, a gravitação é tão mais fraca do que o electromagnetismo que a quantidade de energia perdida pela Terra neste processo é extremamente reduzida, permitindo-lhe girar em torno do Sol durante milhares de milhões de anos sem que a aproximação entre os dois corpos celestes se torne apreciável.

Um electrão, porém, sujeito a um campo electromagnético que é muito mais intenso, perde tanta energia sob a forma de radiação que a sua queda no núcleo parece ser uma questão de tempo. E, todavia, não é isso que sucede. Os átomos permanecem estáveis durante períodos infindos, com os seus electrões nas regiões exteriores.

O físico dinamarquês Niels Henrik David Bohr (1885-1962) tentou encontrar uma solução para o problema. Bohr decidiu que não fazia sentido dizer que um electrão emitia energia ao girar em torno dum núcleo, quando era óbvio que isso não sucedia. E insistiu na ideia de que um electrão não emitia energia enquanto permanecia em órbita.

E, contudo, o hidrogénio, quando aquecido, emitia energia e, quando arrefecido, absorvia-a. O hidrogénio emitia e absorvia em certos comprimentos de onda que obedeciam à equação de Balmer. Para explicar estes factos, Bohr admitiu, em 1913, que o electrão no átomo de hidrogénio podia adoptar uma de várias órbitas distintas a diferentes distâncias do núcleo. Quando se encontrava numa determinada órbita, fosse qual fosse o seu tamanho, não adquiria nem perdia energia. No entanto, quando o electrão mudava de órbita, ou absorvia energia se se afastava do núcleo, ou emitia energia, se se deslocava para mais perto deste.

Mas por que razão haveria um electrão que se encontrasse em determinada órbita de saltar subitamente para a órbita seguinte, maior, depois de absorver energia - sem nunca ir parar a uma órbita intermédia? Bohr compreendeu que isso tinha de estar relacionado com a teoria quântica. Se o átomo só fosse capaz de aceitar quanta de determinada magnitude, apenas poderia absorver luz com um certo comprimento de onda e isso enviaria automaticamente o electrão para a órbita seguinte.

Bohr produziu uma série de cálculos que mostravam como era possível obter um conjunto de órbitas permitidas resultantes da absorção ou emissão de quanta de magnitude fixa (e, portanto, de radiação de comprimento de onda bem definido) e que explicavam perfeitamente os comprimentos de onda característicos observados nas linhas do espectro do hidrogénio.

1. Quando um electrão permanece em determinada órbita, não adquire nem perde energia.

2. Quando passa para uma órbita mais elevada, absorve energia.

3. O electrão emite energia quando se desloca para mais perto do núcleo.

Aquilo que Bohr fez foi mostrar que não era possível esclarecer a estrutura do átomo trabalhando apenas nos limites da física clássica e que havia necessidade de utilizar a teoria quântica. Pelo seu trabalho foi galardoado com um Prémio Nobel em 1922.

Bohr teve de usar números inteiros para um dos termos da sua fórmula. Cada número representava um conjunto diferente de linhas espectrais. A necessidade de usar números inteiros resultava da circunstância daquelas implicarem um número inteiro de quanta. Não era possível ter fracções de quanta. Por esse motivo, os números usados na fórmula foram designados números quânticos.

Embora a fórmula de Bohr reproduzisse os valores dos comprimentos de onda das linhas espectrais, não explicava tudo. Quando estas linhas foram estudadas com instrumentos mais sensíveis, verificou-se que cada linha possuía uma "estrutura fina" - um conjunto de linhas mais finas situadas muito próximas umas das outras. Era como se cada uma das órbitas de Bohr consistisse num conjunto de órbitas com pequeníssimas diferenças entre si.

Em 1916, o físico alemão Arnold Johannes Wilhelm Sommerfeld (1868-1951) fez notar que as órbitas de Bohr eram todas circulares. E que as órbitas podiam igualmente ser elípticas, em maior ou menor grau. Para levar em linha de conta estas novas órbitas, houve necessidade de introduzir um segundo número quântico. Este podia assumir qualquer valor inteiro, desde zero até um valor inferior em uma unidade ao número quântico de Bohr.

Se o número quântico de Bohr (ou número quântico principal) for 1, o valor mais baixo que pode assumir, o número quântico de Sommerfeld (ou número quântico orbital) apenas pode tomar o valor 0. Se o número quântico principal for 2, o número quântico orbital pode assumir os valores 0 ou 1, e assim por diante. E possível reproduzir a estrutura fina das linhas espectrais se ambos os números quânticos forem considerados.

No entanto, continuavam a surgir complicações. Se os átomos fossem colocados num campo magnético, linhas que pareciam únicas dividiam-se em constituintes mais finos. Tanto Bohr como Sommerfeld tinham imaginado as órbitas (fossem elas circulares ou elípticas) como estando situadas num plano único, de modo que o núcleo e todas as órbitas possíveis formavam um sistema que era tão plano como uma folha de papel. Contudo, era possível que as órbitas se apresentassem inclinadas relativamente a esse plano, de tal forma que todas elas, consideradas em conjunto, se distribuíssem simetricamente no espaço tridimensional e o átomo apresentasse um contorno esférico. O que até faz sentido, uma vez que os átomos se comportam, em muitas circunstâncias, como pequenas esferas.

Para ter em conta o sistema tridimensional de órbitas, houve que acrescentar um terceiro número quântico - o número quântico magnético. Este número pode assumir qualquer valor positivo desde 0 até ao valor do número quântico principal, e todos os valores negativos correspondentes. Assim, se o número quântico principal for 3, o número quântico magnético pode assumir os valores -3, -2, -1, 0, +1, +2 ou +3.

Uma vez consideradas as três dimensões do espaço, podia parecer que nada mais havia a acrescentar. Todavia, continuavam a existir algumas características intrigantes nas linhas espectrais que levaram o físico austro--suíço Wolfgang Pauli (1900-1958) a acrescentar mais um número quântico. Este número era suposto representar a rotação do electrão em torno do seu eixo. Essa rotação podia dar-se num sentido ou no sentido inverso, isto é, em sentido horário ou anti-horário. Para que os cálculos estivessem de acordo com os factos observados nas linhas espectrais, esse número quântico dito de spin (rotação) tinha de assumir o valor +1/2 ou -1/2.

Pauli demonstrou ainda que num átomo não podiam existir dois electrões com os quatro números quânticos idênticos. Esta constatação ficou conhecida como o princípio de exclusão, uma vez que, a partir do momento em que um electrão tem atribuídos os seus quatro números quânticos, qualquer outro electrão é excluído da órbita específica representada por esses números. Pelos seus trabalhos neste domínio, Pauli recebeu um Prémio Nobel em 1945. (Por vezes, um cientista tem de esperar vinte anos ou, em casos raros, mesmo cinquenta, para receber um Prémio Nobel. Ocasionalmente, leva tempo até que a verdadeira importância duma descoberta seja compreendida. Se os prémios fossem atribuídos imediatamente a algo que parece importante, muitos sê-lo-iam a descobertas que acabam por se revelar triviais ou mesmo erradas.)

Em 1926, o físico italiano Enrico Fermi (1901-1954) e, em 1927, o físico britânico Paul Adrien Maurice Dirac (1902-1984) conceberam um sistema matemático complexo que utilizava os quatro números quânticos e o princípio de exclusão para descrever o modo como os electrões se distribuem num átomo. O sistema, denominado estatística de Fermi--Dirac, aplica-se a qualquer partícula que possua um spin de +1/2 ou -1/2. Tais partículas são designadas colectivamente como fermiões, do nome de Fermi. O electrão é um exemplo de fermião. Tal como o protão.

Existem partículas com spins de 0, 1 ou 2. (O fotão, por exemplo, tem um valor de spin de 1, e o gravitão tem um spin de 2.) O princípio de exclusão não se aplica a tais partículas, cujo modo de distribuição foi descrito pelo físico indiano Satyendra Nath Bose (1894-1974), em 1924. Einstein elogiou o trabalho de Bose e, em 1925, deu o seu próprio contributo. Este sistema é conhecido como estatística de Bose-Einstein, e qualquer partícula com um valor de spin inteiro ou igual a zero, é designada um bosão, do nome de Bose.

As órbitas propostas por Bohr para os electrões, embora constituíssem um enorme passo em frente, não eram todavia inteiramente satisfatórias. Persistia a imagem dos electrões como partículas em movimento, circulando nas suas órbitas. E se assim era, continuava a não existir uma explicação clara para o facto dos electrões não emitirem energia e caírem sobre o núcleo. Era cómodo dizer que os electrões não emitiam energia enquanto se encontravam em órbita, mas por que razão é que isso sucedia? E afirmar que apenas podiam emitir quanta de determinada magnitude era um argumento poderoso. Mas porquê? Algo estava a faltar.

Observado através duma lupa com aplicação máxima, o Universo revelaria a sua estrutura granular, não contínua.

O físico alemão Werner Karl Heisenberg (1901-1976) achava que os problemas nunca seriam ultrapassados enquanto tentássemos imaginar a estrutura do átomo em termos da nossa vida quotidiana. Aquilo a que estamos habituados - planetas girando em torno do Sol, ou bolas de bilhar embatendo umas nas outras - envolve massas tão grandes comparadas com as dos átomos, que os pequenos quanta de que é constituída a energia são demasiado pequenos para terem um efeito observável sobre tais corpos. Todas as nossas imagens mentais são, por isso, dum mundo não-quântico. Ao lidarmos com átomos, electrões e radiação, todavia, estamos a entrar num mundo em que os efeitos quânticos não são negligenciáveis e, por isso, as nossas imagens não funcionam. (A teoria quântica é, num certo sentido, um sistema que afirma que o Universo tem uma estrutura granular, não totalmente contínua. É como uma fotografia de jornal, que parece ter uma superfície uniforme porque os pequenos pontos negros e brancos que a constituem são demasiado pequenos para serem visíveis. No entanto, se ampliarmos suficientemente a fotografia, as nossas imagens do mundo quotidiano falham. Tudo o que vemos são pontos, que deixam de formar uma imagem perceptível.)

Quando lidamos com o mundo dos fenómenos em que os efeitos quânticos não são negligenciáveis, todas as nossas imagens convencionais falham. Se pensarmos no electrão como uma onda e não um corpúsculo, ele será um colar ondulado em volta do núcleo do átomo.

Heisenberg achava que se deviam usar apenas os valores obtidos dos espectros, manipulando-os de tal modo que os físicos pudessem obter respostas numéricas relevantes relacionadas com o comportamento dos átomos, em vez de tentar interpretar este em termos de órbitas, elipses, inclinações relativamente a um plano, rotações, etc. Foi com essa finalidade que, em 1925, Heisenberg elaborou aquilo que ficou conhecido como mecânica das matrizes, uma vez que usava entidades matemáticas conhecidas como matrizes.

Nesse mesmo ano, porém, Davisson demonstrara a existência de ondas associadas aos electrões, e ocorreu ao físico austríaco Erwin Schrõdinger (1887-1961) que tais ondas podiam explicar a natureza das órbitas dos electrões.

Se considerarmos um electrão como uma onda, e não como uma partícula, podemos imaginar uma órbita em torno dum núcleo como tendo de consistir num número inteiro de comprimentos de onda. Depois, se nos imaginarmos a desenhar a onda em torno do núcleo, verificamos que o princípio e o fim da nossa linha se juntam para formar uma "trajectória" que se assemelha a um colar ondulado. A órbita mais pequena será a que consiste num único comprimento de onda. O electrão não pode cair sobre o protão porque não pode assumir uma órbita de comprimento inferior ao duma única onda. Todas as outras órbitas têm de se situar a distâncias e ter formas tais que nelas caiba um número inteiro de ondas. É por esta razão que as órbitas se podem situar apenas a determinadas distâncias, em certas elipses, com inclinações específicas, com rotações características, etc.

Schrõdinger concebeu um tratamento matemático que, ao ter em conta o carácter ondulatório dos electrões, se revelava capaz de resolver um conjunto de problemas, e anunciou-o ao mundo em 1926. O seu sistema é conhecido como mecânica ondulatória. Dirac também contribuiu para o seu desenvolvimento matemático e ambos partilharam um Prémio Nobel em 1933 por esse trabalho.

Mais tarde, foi demonstrada a equivalência entre a mecânica ondulatória e a mecânica das matrizes. Uma e outra produzem os mesmos resultados. E, por isso, o sistema matemático é designado simplesmente de mecânica quântica. Com a introdução de melhoramentos e aperfeiçoamentos, o sistema revelou-se perfeitamente satisfatório para lidar com electrões e, dum modo geral, com os fenómenos subatômicos.

Em 1939, o químico norte-americano Linus Carl Pauling (1901--1994) aplicou os princípios da mecânica quântica ao modo como os átomos transferem e partilham electrões. Esta nova abordagem veio substituir o antigo sistema baseado em partículas de Langmuir e Lewis. O novo sistema é mais subtil e explica muitas coisas que o sistema mais antigo era incapaz de fazer. Pelo seu trabalho, Pauling foi galardoado com um Nobel em 1954.

Já antes, em 1927, Heisenberg demonstrara que era impossível, mesmo em princípio, fazer com exactidão determinados tipos de medições por causa da natureza granular do Universo implícita na descrição que dele dá a mecânica quântica. Suponhamos, por exemplo, que tentávamos determinar a posição exacta duma partícula, assim como o seu momento linear (que corresponde ao valor da massa da partícula multiplicado pela respectiva velocidade). Qualquer dispositivo usado para determinar a posição alterará a velocidade da partícula e, por conseguinte, o seu momento linear. Qualquer dispositivo usado para determinar este modificará, por sua vez, a posição da partícula. O melhor que se pode obter é uma combinação da respectiva posição e momento linear, com uma pequena, mas inevitável incerteza associada. A incerteza na posição multiplicada pela incerteza no momento linear, ambas consideradas com o valor mínimo que se consegue obter, corresponde a um valor que está intimamente relacionado com uma constante fundamental da teoria quântica.

O princípio de incerteza de Heisenberg afirma igualmente não ser possível determinar simultaneamente e com exactidão o tempo e a energia. Pelo seu trabalho, Heisenberg recebeu um Prémio Nobel em 1932. O princípio de incerteza constitui uma descoberta muito importante, explicando muitos aspectos da física subatômica que de outro modo seriam misteriosos. No entanto, muitos cientistas mostraram relutância em adoptá-lo, uma vez que ele dava a entender existir um certo grau de aleatoriedade no Universo que nunca poderia ser eliminado. Einstein, por exemplo, nunca aceitou o princípio de incerteza, e sempre considerou que a mecânica quântica era uma teoria incompleta por sua causa.

Contudo, o facto de alguns não o aceitarem não o faz desaparecer. Além disso, o princípio de incerteza parece descrever o Universo tal como ele é, e não há volta a dar a isso.

O modelo de Bohr das órbitas dos electrões parecia descrever uma partícula - o electrão - cuja posição e movimento podiam, e deviam, ser conhecidos em cada instante. A utilização por Schrõdinger de ondas, que funciona muito melhor, não faz isso. Uma onda associada a um electrão vai para cima e para baixo e algures nela encontra-se o electrão no seu aspecto corpuscular. Contudo, não podemos dizer exactamente onde é que a partícula se encontra. Num certo sentido, encontra-se distribuída um pouco por toda a onda. A altura da onda indica-nos a probabilidade dela aí se encontrar num dado instante, mas isso não significa que tenha de estar aí. Desta forma, a mecânica quântica introduz a probabilidade e a incerteza - e isso, ao que parece, é o modo de ser do Universo.

Os cientistas falam em "estranheza quântica" porque a teoria quântica lida com coisas que estão muito longe daquilo a que estamos habituados no nosso quotidiano. Existem alguns aspectos tão paradoxais que os cientistas não conseguem pôr-se de acordo sobre o seu significado. Talvez um dia novas descobertas, novos conceitos, novas ideias venham esclarecer aquilo que hoje em dia parece irremediavelmente misterioso.

O jogo da ciência nunca acaba, porque novos problemas surgem quando os problemas antigos são resolvidos. Mas será que alguém gostaria que fosse doutro modo? Se solucionássemos todos os problemas o jogo terminaria e, em minha opinião, não existe nada na vida que possa compensar essa perda intelectual.


5. ISÓTOPOS


Energia Nuclear

 

A determinação do modo como os electrões se distribuem nos átomos era, num certo sentido, um problema relativamente simples. Os electrões são todos iguais e, até hoje, não se descobriram entre eles quaisquer diferenças, seja quando se encontram num ou noutro tipo de átomo, seja quando existem independentemente. Os átomos distinguem-se uns dos outros pelo número de electrões que possuem, mas não pelo tipo dos seus electrões.

E quanto aos núcleos dos átomos? Eles diferem de átomo para átomo, tanto na sua massa como na carga eléctrica. Serão partículas individuais de muitos tipos diferentes, um para cada elemento, ou possuirão uma estrutura interna? Terão um número variável de partículas mais simples e serão estas idênticas nos núcleos de todos os átomos? E ainda: serão estas questões para as quais podemos esperar encontrar uma resposta? Afinal, os núcleos são entidades minúsculas escondidas no centro dos átomos, por vezes atrás de camadas e camadas de electrões. Como é que podem ser alcançados e estudados?

As primeiras indicações sobre a existência duma estrutura nuclear surgiram com a descoberta da radioactividade, quinze anos antes de ter sido demonstrada a existência de núcleos atómicos. Uma questão que se levantou imediatamente em relação à radioactividade foi a de saber donde viria toda aquela energia. O urânio parecia emitir ininterruptamente radiação alfa, que era constituída por feixes de núcleos de hélio, e radiação beta, que eram feixes de electrões. Todas estas partículas se deslocavam a velocidades muito elevadas: as partículas alfa a cerca dum décimo da velocidade da luz e as partículas beta a cerca de nove décimos da velocidade da luz. Para as pôr em movimento a tais velocidades a partir do repouso era necessária uma energia considerável. (Afinal, os átomos de urânio não estão em movimento.) Depois havia ainda os raios gama, que eram consideravelmente mais energéticos do que os próprios raios X.

A radiação emitida pelo urânio não é apenas um fenómeno episódico e de curta duração. Uma amostra deste elemento emite radiação indefinidamente e a uma taxa aparentemente constante, e isso constituía um problema sério. Pela lei da conservação da energia, sabe-se que a energia não pode ser criada do nada e, todavia, no fenómeno da radioactividade parecia existir energia que estava a surgir do nada.

É claro que se podia admitir que a lei da conservação da energia estava errada ou que só era válida sob determinadas condições. No entanto, os cientistas consideravam a lei tão útil noutros domínios científicos que lhes repugnava pô-la de lado. O sentimento comum era de que havia necessidade de investigar a radioactividade e procurar explicá-la sem abandonar a lei da conservação da energia; e que lei só devia ser abandonada em último recurso. (Eis um exemplo duma atitude inteligentemente conservadora dos cientistas. Uma teoria ou lei que foi posta à prova vezes sem conta não deve ser abandonada de ânimo leve. Sê-lo-á apenas se não existirem alternativas, mas é necessário assegurarmo-nos primeiro de que estas não existem realmente.)

A situação complicou-se rapidamente nos anos que se seguiram à descoberta da radioactividade. Marie Curie e o seu marido, Pierre Curie (1859-1906) tinham começado a trabalhar com pecheblenda, uma rocha contendo urânio, donde esperavam extrair amostras do elemento puro para estudo. E descobriram, surpreendidos, que a pecheblenda era mais radioactiva do que seria se fosse constituída por urânio puro. Era possível que contivesse elementos ainda mais radioactivos do que o urânio. As análises tradicionais não revelavam indícios de tais elementos, pelo que deviam existir em quantidades muito pequenas e, assim sendo, teriam de ser muito radioactivos.

Em 1898, após um trabalho longo, árduo e fastidioso que começou com toneladas de pecheblenda e terminou com quantidades mínimas de pó radioactivo, os Curie isolaram dois elementos: o polónio (assim chamado em homenagem à terra natal de Marie Curie, a Polónia) e o rádio (cujo nome deriva de radioactividade). Ambos eram consideravelmente mais radioactivos do que o urânio.

Se a libertação de energia pelo urânio era surpreendente, que pensar do rádio, que emitia energia a uma taxa quase três milhões de vezes superior? Em 1901, Pierre Curie mediu essa energia e descobriu que um grama do elemento libertava energia a uma taxa de 140 calorias por hora. Em si mesmo, o valor não era muito grande, mas o fenómeno parecia prolongar-se indefinidamente. De onde é que vinha toda essa energia?

Alguns cientistas sugeriram que talvez os átomos radioactivos absorvessem energia do ambiente à sua volta e a convertessem em energia de radiação. Tal hipótese, no entanto, violaria a segunda lei da termodinâmica e os cientistas mostraram tanta relutância em abandonar esta lei como tinham revelado em relação à primeira lei (de conservação da energia).

Em 1903, Rutherford sugeriu que todos os átomos possuíam grandes quantidades de energia na sua estrutura. Essa energia não era geralmente utilizada, pelo que as pessoas estavam inconscientes da sua existência. A radioactividade constituía, em seu entender, a libertação espontânea duma pequena parte dessa energia. Tratava-se duma sugestão muito ousada, mas que incendiou a imaginação do público. E as pessoas começaram a falar de energia atómica, uma forma nova e mais concentrada de energia do que alguma vez se conhecera. (O escritor inglês H. G. Wells chegou mesmo a referir-se a "bombas atómicas" nas suas histórias de ficção científica, quarenta anos antes delas existirem realmente.)

E, todavia, a sugestão de Rutherford assemelhava-se ao tirar dum coelho duma cartola. Di^er simplesmente que o átomo continha energia não explicava nada. No entanto, em 1905, Einstein demonstrou de forma convincente que a massa era uma forma muito concentrada de energia. Se as substâncias radioactivas convertessem uma parcela, por pequena que fosse, da sua massa em energia, facilmente se explicaria toda a energia libertada no fenómeno de radioactividade.

Uma vez estabelecido o modelo nuclear do átomo, e visto que a quase totalidade da massa do átomo estava concentrada no núcleo, tornou--se claro que a perda de massa tinha necessariamente de ocorrer aí. Era, portanto, no interior do núcleo que se encontrava a fonte de energia da radioactividade e, assim, as pessoas começaram a falar de energia nuclear em vez de energia atómica.


Variedades Nucleares

 

Se a energia da radioactividade resulta da perda de massa pelos núcleos de certos átomos, o que é que acontece a estes em consequência do processo? A resposta começou a esboçar-se antes mesmo de se ter compreendido que o núcleo dos átomos era a fonte de energia; ou sequer que existia um núcleo atómico. (Sucede frequentemente certas observações científicas fornecerem o início duma resposta a uma questão, antes mesmo do estabelecimento duma teoria abrangente que traga ordem e lógica a determinado sector da ciência. Tais observações precoces são difíceis de compreender e, sem a teoria, o conhecimento avança lentamente. Porém, uma vez estabelecida aquela, as observações já feitas rapidamente se encaixam na explicação global. Os avanços são então rápidos até o progresso científico ser de novo travado pela ausência duma compreensão mais profunda e mais abrangente doutro domínio científico.)

Em 1900, Crookes, que então trabalhava com urânio, decidiu purificá-lo o mais possível, submetendo-o a um conjunto de processos químicos que permitiram separar aquilo que pareciam ser impurezas. Descobriu então, para sua surpresa, que o urânio purificado quase não era radioactivo e que, pelo contrário, as impurezas eram acentuadamente radioactivas. Crookes alvitrou que não seria o urânio o elemento radioactivo mas algo que nele existia como impureza.

No entanto, Becquerel, que primeiro detectara a radioactividade do urânio, não estava disposto a abrir mão da sua descoberta de ânimo leve. (E frequente os cientistas tratarem as suas descobertas como se dos seus próprios bebés se tratasse, defendendo-as vigorosamente de qualquer tentativa de eliminação. Trata-se duma reacção tipicamente humana mesmo se, retrospectivamente, se revelar por vezes errada. Neste caso, todavia, Becquerel acabaria por ter razão.) Becquerel mostrou que o urânio, que apresentava de facto pouca radioactividade quando purificado segundo o método de Crookes, acabava por recuperá-la ao fim de algum tempo se fosse deixado em repouso.

Em 1902, Rutherford e um seu colaborador, o químico britânico Fre-derick Soddy (1877-1956) demonstraram que o mesmo se passava com o tório. Se este metal fosse purificado, perdia a maior parte da sua radioactividade, mas a mesma reaparecia quando a amostra era deixada em repouso. Rutherford e Soddy sugeriram que, quando um átomo de urânio emitia radiações radioactivas, alterava a sua natureza, transformando-se num átomo doutro elemento que era ainda mais radioactivo. Este novo elemento, sendo radioactivo, alterava-se também. O urânio não era, em si mesmo, muito radioactivo, mas os elementos que dele resultavam eram-no. Quando se purificava o urânio, de tal modo que os elementos que dele resultavam e a respectiva radioactividade eram removidos, este tornava-se muito menos radioactivo do que anteriormente. Porém, aos poucos, formavam-se de novo quantidades adicionais desses elementos e, assim, a sua radioactividade voltava ao nível anterior. Parecia, portanto, que os átomos que apresentavam radioactividade sofriam um processo que podia ser descrito como uma desintegração radioactiva.

Esta perspectiva veio a revelar-se correcta. Tanto o urânio como o tório se desintegram para dar origem a outros elementos que, por sua vez, se desintegram também até produzirem um elemento que não é radioactivo. Deste modo obtém-se uma série radioactiva. Os cientistas começaram a procurar esses elementos intermédios nos processos de desintegração do urânio e do tório. O polónio e o rádio, detectados anteriormente pelos Curie, são dois desses elementos, juntamente com vários outros. Descobriu-se também que tanto o urânio como o tório, depois de sofrerem muitas alterações, se transformam em chumbo não radioactivo.

A noção de desintegração radioactiva foi um choque para os cientistas. A ideia de que os átomos eram imutáveis existia desde os tempos de Leucipo e Demócrito - mas não passava duma suposição. E verdade que os átomos são imutáveis quando se trata de transformações químicas -, mas a radioactividade não é uma transformação química. As transformações químicas envolvem apenas os electrões existentes nas camadas mais exteriores dos átomos. Um átomo pode adquirir uma carga eléctrica, ou estabelecer uma ligação com outro átomo, mas a sua identidade essencial, que depende do núcleo, permanece intacta. A radioactividade, todavia, envolve realmente o núcleo. Trata-se duma transformação nuclear e, se o núcleo sofre uma alteração, é muito provável que no processo um átomo se transforme noutro diferente.

(Uma mudança de perspectiva tal como aquela que se acaba de descrever não significa que seja necessário deitar fora, por conterem informação inútil, todos os manuais de química. O novo ponto de vista amplia o nosso conhecimento, fornecendo explicações mais completas e mais úteis. Os livros de texto do século XXI, por conseguinte, devem ter em conta a existência de transformações ao nível do núcleo do átomo mas podem, se assim o desejarem, continuar a falar de transformações químicas como o faziam antes, tratando os átomos como entidades imutáveis - que, na verdade são, no caso das transformações químicas.)

A procura dos elementos intermédios entre o urânio e o chumbo, e entre o tório e o chumbo foi um êxito. Na verdade, foi demasiado bem sucedida, uma vez que se encontrou um número imenso de elementos.

O número atómico do urânio é 92 e o do tório 90. O número atómico do chumbo é 82, e outro elemento conhecido, o bismuto, tem número atómico 83. Os elementos até então desconhecidos e que se situavam no fim da tabela periódica tinham os números atómicos 84, 85, 86, 87, 88, 89 e 91. Eram, portanto, sete, aos quais havia que retirar os recentemente descobertos polónio (84) e rádio (88), o que deixava cinco. Entre o urânio e o chumbo não havia portanto quaisquer outros elementos a descobrir para além destes cinco. Absolutamente nenhuns. Isso era algo que ficara definitivamente esclarecido desde os trabalhos de Moseley, em 1914.

E, contudo, mais de trinta espécies intermédias tinham sido descobertas ainda no tempo de Moseley. Cada uma era claramente distinta das restantes, pelo menos no que dizia respeito às suas propriedades radioactivas. Algumas emitiam uma partícula alfa, outras uma partícula beta. Algumas emitiam radiação gama com ou sem uma partícula alfa ou beta. Mesmo quando duas espécies intermédias emitiam, por hipótese, uma partícula alfa, uma delas fazia-o com maior energia e velocidade do que a outra.

Soddy resolveu estudar este problema. Já em 1912 e 1913, antes ainda da formulação do conceito de número atómico, ele descobrira que certas espécies intermédias possuíam propriedades químicas idênticas e não podiam ser separadas pelos procedimentos químicos usuais quando eram misturadas. Tratava-se dos mesmos elementos, e isso significava (como se veio a compreender mais tarde) que a sua configuração electrónica era idêntica, tal como o era a carga positiva dos respectivos núcleos. No entanto, e porque as suas propriedades radioactivas eram distintas, algo nos respectivos núcleos, que não a sua carga, era diferente.

A tabela periódica baseava-se nas propriedades químicas dos elementos. Isso significava que se dois átomos diferentes apresentassem as mesmas propriedades químicas e apenas diferissem nas suas propriedades radioactivas, representavam o mesmo elemento (em termos químicos) e, por conseguinte, deviam ocupar o mesmo lugar na tabela.

Soddy apresentou o resultado das suas investigações em 1913, designando estes diferentes tipos de átomos - que eram do mesmo elemento e ocupavam o mesmo lugar na tabela periódica - isótopos, da expressão grega que significa "mesmo lugar". O cientista recebeu um Prémio Nobel em 1921 por este trabalho.

Era mais um abalo nas ideias há muito aceites sobre os átomos. Leucipo, Demócrito e Dalton estavam convencidos de que todos os átomos dum mesmo elemento eram idênticos. E, até então, observação alguma invalidara essa suposição. Os cientistas que estudavam as espécies intermédias radioactivas descobriram até cinco ou seis variedades dum mesmo elemento, cada qual com propriedades radioactivas distintas.

Uma vez elucidado o conceito de número atómico em 1914, tornou--se possível compreender em detalhe o modo como um tipo de átomo se transformava noutro. Assim, por exemplo, o átomo de urânio tem um núcleo com um peso atómico de 238 e um número atómico de 92. Designamo-lo por U-238. Todavia, na sua transformação radioactiva, liberta uma partícula alfa que possui um peso atómico de 4 e número atómico 2. O peso atómico e o número atómico da partícula alfa devem ser subtraídos aos do núcleo de urânio. O que fica então é um núcleo com um peso atómico de 234 e número atómico 90. (Uma partícula alfa, quando é emitida, reduz sempre o peso atómico do núcleo que a emite em 4 e o respectivo número atómico em 2 unidades.)

Quando descobriu esta desintegração do núcleo de urânio, Crookes resolveu designar o produto urânio X, que era uma maneira de dizer que não fazia a menor ideia daquilo de que se tratava. Mas agora, com dados quantitativos, era fácil perceber que o novo átomo era de tório, um elemento com número atómico 90.

O tório vulgar apresenta um peso atómico de 232 e é, por isso, Th--232. O produto da desintegração do urânio apresenta um peso atómico de 234 e é Th-234. Temos aqui um exemplo de dois isótopos. Ambos possuem número atómico 90 e, portanto, uma carga nuclear de +90. Existe, todavia, uma diferença entre as suas massas. O Th-234 tem uma massa superior em duas unidades à do Th-232.

Será que esta diferença é realmente importante? Em termos químicos, não. Tanto o Th-232 como o Th-234, com uma carga nuclear de +90, possuem nos seus átomos 90 electrões identicamente distribuídos, pelo que as respectivas propriedades químicas são iguais. No entanto, do ponto de vista radioactivo, a diferença é significativa. O tório-232, o tório vulgar que encontramos em minerais, emite partículas alfa, enquanto que o tório-234, o produto da desintegração do urânio, emite partículas beta. Além disso, os átomos de tório-234 desintegram-se cerca de 200 milhares de milhões de vezes mais depressa do que os de tório--232. E isso representa uma diferença muito importante.

Existem outros isótopos de tório que surgem numa ou noutra série radioactiva. Esses isótopos incluem o Th-227, Th-228, Th-229, Th-230 e o Th-231. Todos se desintegram de modos diferentes e a taxas diferentes, fazendo-o muito mais rapidamente do que o Th-232. Mas regressemos ao Th-234, uma vez que ele emite uma partícula beta. Será que em consequência disso se altera?

Uma partícula beta é um electrão. Possui uma carga de -1 e, por isso, pode ser considerada como tendo número atómico -1. A sua massa representa 1/1837 da dum átomo de hidrogénio, ou seja, cerca de 0,00054. Trata-se dum valor tão pequeno que não cometeremos grandes erros nos nossos cálculos se o considerarmos igual a 0. O que significa que, quando um núcleo emite uma partícula beta, devemos subtrair 0 ao seu peso atómico - o que o deixa inalterado. Devemos igualmente subtrair -1 ao número atómico do núcleo. Ora subtrair -1 é equivalente a adicionar +1, pelo que o número atómico aumenta em 1 unidade. Assim sendo, o núcleo de Th-234 com um número atómico de 90 e um peso atómico de 234 transforma-se, ao emitir uma partícula beta, num núcleo com número atómico 91 e peso atómico 234. O elemento com o número atómico 91 é o proactínio, que foi pela primeira vez isolado e identificado em 1917 pelo químico alemão Otto Hahn (1879-1968) e pela sua colaboradora, a química austríaca Lise Meitner (1878-1968). O que temos, então, é uma transformação do Th-234 em Pa-234.

A emissão de radiação gama por um núcleo atómico não altera este. A radiação gama tem número atómico 0 porque não tem carga, e peso atómico 0, porque não tem massa. Ao emitir radiação gama, um núcleo perde simplesmente energia.

Quando os cientistas compreenderam o modo como cada tipo de emissão radioactiva alterava os núcleos atómicos, foram capazes de estabelecer a identidade exacta de todas as espécies intermédias numa série radioactiva.

O conceito de isótopo não afectou a tabela periódica. Cada posição continuou a corresponder apenas a um tipo de átomo, no que se refere ao respectivo número atómico. O facto dos isótopos diferirem no seu peso atómico não faz qualquer diferença quanto às propriedades químicas. A importância que isso tem em termos da estrutura e propriedades nucleares é algo que veremos mais à frente.


Vidas Médias

 

As diversas espécies intermédias numa série radioactiva desintegram--se com relativa rapidez. Se observarmos uma determinada quantidade duma dessas espécies intermédias, verificamos que o número de desintegrações diminui com o tempo. A razão é óbvia. A medida que os átomos se desintegram, vão restando cada vez menos exemplares da variedade original e menos são, portanto, as desintegrações que ocorrem.

O modo como diminui a taxa de desintegração é o que seria de esperar dum processo análogo ao que os químicos encontram em muitas reacções químicas. Trata-se daquilo a que se chama uma reacção de primeira ordem. Tal significa que cada átomo radioactivo de determinada variedade possui uma certa probabilidade de se desintegrar, e que essa probabilidade não se altera com o tempo. O átomo poderá ter uma probabilidade em duas de se desintegrar num determinado dia, mas se passarem cem dias sem que a sua desintegração ocorra, continuará a ter apenas uma probabilidade em duas de se desintegrar no 101º dia. (Trata-se duma situação semelhante àquela que ocorre quando atiramos uma moeda ao ar. Existe uma probabilidade em duas de sair cara. No entanto, se atirarmos a moeda ao ar uma centena de vezes e de cada vez sair coroa, a probabilidade de sair cara no 101º lançamento continua a ser de apenas uma em duas - partindo do princípio, evidentemente, de que se trata duma moeda que não foi falsificada. Existe muita gente que crê, erradamente, que quantas mais vezes saírem coroas, maior é a probabilidade de sair cara no lançamento seguinte.)

Não é possível prever quando é que determinado átomo se vai desintegrar. Contudo, se estivermos a lidar com um número muito grande de átomos, podemos calcular quantos é que se vão desintegrar no decurso dum dia ou dum minuto. Não saberemos quais os átomos que irão desintegrar-se, mas saberemos quantos. Trata-se duma situação análoga àquela em que os especialistas em estatística são capazes de prever o número de automobilistas que irão provavelmente morrer em determinado fim-de--semana prolongado, embora não sejam capazes de prever individualmente quais os automobilistas acidentados.

A vida média é o tempo médio necessário para que metade dos átomos dum elemento radioactivo sofra decaimento radioactivo.

O que atrás se disse significa que podemos calcular o tempo necessário para que metade de todos os átomos presentes numa amostra se desintegrem. Sucede que, no caso das reacções de primeira ordem, o tempo necessário para que metade de qualquer quantidade se desintegre é sempre o mesmo. Ou seja, se partirmos de 120 g de determinado isótopo, e se for necessário um ano para que metade dos seus átomos se desintegre, será necessário outro ano para que metade dos átomos remanescentes se desintegre também. Dito de outro modo: se partirmos de 120 gramas, teremos 60 gramas ao fim dum ano, 30 ao fim de dois, 15 ao fim de três, 7,5 ao fim de quatro, e assim por diante. Em teoria nunca chegaremos a zero, mas acabaremos por ficar apenas com um único átomo e, após um período de tempo imprevisível, também ele se desintegrará e o nosso isótopo radioactivo desaparecerá.

Em muitas situações, os cientistas são capazes de contar o número efectivo de partículas alfa ou beta emitidas por unidade de tempo. A partir do modo como esse número diminui, podem determinar a quantidade de tempo necessária para que metade do isótopo desapareça. (Os cientistas desenvolveram diversos métodos de detecção de partículas alfa e beta, mas eu só falarei neste livro sobre equipamentos quando tal for necessário. Aquilo que me interessa aqui são as ideias e os conceitos.)

Verifica-se assim que o isótopo de protactínio obtido pela desintegração do urânio, Pa-234, perde metade dos seus átomos em cerca de 70 segundos. Esta é a sua vida média, uma expressão que foi primeiro utilizada por Ernest Rutherford, em 1904.

E claro que se o protactínio-234 existisse independentemente, desapareceria num ápice mesmo que dele existissem inicialmente grandes quantidades. Se a Terra fosse constituída exclusivamente por protactínio-234, e se imaginarmos que os átomos se desintegravam sem quaisquer outros efeitos, essa quantidade imensa do elemento desapareceria em cerca de três horas. (Na verdade, a energia gerada seria de tal ordem que a Terra explodiria como uma enorme bomba.)

E, todavia, o protactínio-234 existe no solo do nosso planeta e pode ser isolado em quantidades muito pequenas. Por que razão é que não desapareceu totalmente! A resposta é que, embora quaisquer átomos do elemento que pudessem existir quando a Terra se formou tenham desaparecido alguns minutos mais tarde, novos átomos estão a formar-se permanentemente a partir do urânio.

Outros isótopos possuem vidas médias mais longas. O rádio-226 (o isótopo isolado pelos Curie a partir da pecheblenda), que emite partículas alfa, tem uma vida média bastante longa. A diminuição da sua taxa de desintegração é demasiado pequena para poder ser observada em períodos de tempo curtos. Contudo, se esperarmos tempo suficiente, essa diminuição pode ser medida, verificando-se que a vida média do isótopo é de 1620 anos. Mas mesmo um valor dessa ordem de grandeza não é suficiente para que o rádio se conserve enquanto a Terra existir. Só encontramos rádio porque está constantemente a ser formado a partir do urânio.

O rádio forma-se muito lentamente, uma vez que o urânio possui uma taxa de desintegração muito lenta. O rádio desintegra-se à medida que se forma, de início, muito lentamente, uma vez que existe em pequeníssima quantidade. A medida que mais rádio se acumula, a sua desintegração vai-se dando cada vez mais rapidamente (isto é característico de reacções de primeira ordem), acabando por se desintegrar à mesma velocidade a que se forma. Atinge-se assim um equilíbrio radioactivo.

Qualquer mineral que contenha urânio terá também rádio, sendo a quantidade de rádio muito menor do que a de urânio por causa da vida média mais curta daquele. Isso acontece mesmo que o urânio não produza o rádio directamente, mas através de diversos outros passos intermédios.

Com efeito, a concentração de urânio em minério de urânio é 2 780 000 vezes maior que a do rádio, pelo que a vida média do urânio é 2 780 000 vezes superior à do rádio-226. O que significa que a vida média do urânio-238 é de cerca de 4,51 milhares de milhões de anos.

E essa a razão porque ainda encontramos na Terra urânio primitivo. O nosso planeta formou-se há cerca de 4,6 milhares de milhões de anos e incluiu na sua composição, desde o início, uma determinada quantidade de urânio. Ao longo de todo esse período, apenas cerca de metade do urânio original se desintegrou. A outra metade ainda existe. Serão necessários outros 4,51 milhares de milhões de anos para que metade daquilo que resta se desintegre. E pelo facto do urânio ter sobrevivido este tempo todo que as espécies intermédias da sua desintegração existem também, embora, evidentemente, em quantidades muito menores.

O tório-232 tem uma vida média ainda mais longa que a do urânio: 13,9 milhares de milhões de anos. Apenas cerca de 1/5 do tório primitivo existente na Terra teve até agora oportunidade de se desintegrar.

Existe um isótopo de urânio - o urânio-235 - que foi descoberto, em 1935, pelo físico canadiano-americano Arthur Jeffrey Dempster (1886--1950). Não dura tanto tempo como o urânio-238 ou o tório-232. A vida média do urânio-235 é de apenas 710 milhões de anos. Trata-se, contudo, dum período suficientemente longo para permitir que um pouco mais de 1/70 da quantidade originalmente presente no momento da formação da Terra continue a existir.


Variedades Nucleares Estáveis

 

A descoberta por Soddy de isótopos envolveu apenas átomos radioactivos. No entanto, ela gerou imediatamente suspeitas relativamente aos átomos não radioactivos. Já em 1905, o químico norte-americano Bertram Borden Boltwood (1870-1927), tendo reparado que os minerais de urânio pareciam incluir sempre chumbo, se interrogara sobre a possibilidade do chumbo ser o produto final da desintegração radioactiva. As investigações realizadas vieram confirmar que assim era. O que significava que o chumbo, embora sendo um elemento não radioactivo, estava intimamente relacionado com a radioactividade.

A única forma típica dum átomo radioactivo mudar de peso atómico é através da emissão duma partícula alfa. Uma partícula beta afecta o seu peso atómico de modo insignificante e a radiação gama não o faz de todo. De cada vez que é emitida uma partícula alfa, o peso atómico diminui quatro unidades. Isto é, se o átomo radioactivo tiver, originalmente, um peso atómico divisível por quatro, todas as espécies intermédias produzidas, sem excepção, terão igualmente um número atómico divisível por quatro - tal como sucede com o átomo de chumbo que constitui o fim da série. Assim, o tório-232, o único isótopo de tório com uma vida média significativa, possui um peso atómico divisível por quatro (232 = 58 x 4). À medida que ocorre a sua desintegração, perde 6 partículas alfa com um peso atómico total de 24, ficando aquilo que sobra do seu núcleo com um peso atómico de 208. A emissão dessas seis partículas alfa também leva o tório-232 a perder um total de 12 cargas positivas. Contudo, ocorre igualmente a libertação de 4 partículas beta, o que cancela 4 das cargas positivas perdidas. O resultado final é uma perda de 8 cargas positivas.

O tório tem número atómico 90. A perda de 8 cargas positivas dá origem a um átomo com número atómico 82, que é o chumbo. Se considerarmos uma perda de peso atómico de 24 unidades, verificamos que o produto final da desintegração de tório-232 é o chumbo-208, que não é radioactivo, mas estável, e que existe em quantidade considerável na Terra - e que sempre existiu, e sempre existirá.

Até aqui, tudo bem. Mas considere o leitor o caso do urânio-238. O seu peso atómico, quando dividido por 4, dá um resto de 2 (238 = 59 x 4 + 2). Se ele perder peso atómico através da emissão de partículas alfa, todos os seus produtos intermédios, bem como o produto final, darão um resto de 2 quando divididos por 4. Um átomo de urânio-238, na sua desintegração, perde 8 partículas alfa e 6 partículas beta, que o transformam em chumbo-206.

Vejamos finalmente o caso do urânio-235, cujo peso atómico, quando dividido por 4, dá um resto de 3 (235 = 58 x 4 + 3), tal como todas as suas espécies intermédias e o produto final da desintegração. Cada átomo de urânio-235 emite 7 partículas alfa e 4 partículas beta, transformando-se em chumbo-207. (Existe uma quarta série em que todos os pesos atómicos, quando divididos por 4, dão resto 1. Teremos oportunidade de falar dela mais à frente.)

Ficamos, portanto, com três isótopos diferentes de chumbo: chumbo-206, chumbo-207 e chumbo-208. Todos eles são estáveis e apresentam as propriedades habituais do chumbo. Qual deles existe - se é que algum existe - na Natureza, independentemente da radioactividade?

Consideremos o peso atómico do chumbo. Tal como é encontrado na Natureza, em rochas sem quaisquer indícios de radioactividade, o chumbo apresenta um peso atómico de 207,19. Visto que os diversos isótopos estáveis estão sempre presentes numa proporção fixa, será que este valor representa simplesmente um peso atómico médio? (Uma vez que os diferentes processos geológicos dependem das propriedades químicas dos vários minerais, eles não operam a separação dos isótopos do modo como separam os diferentes elementos de acordo com as suas propriedades químicas. Assim sendo, tais processos deixam sempre os isótopos misturados nas mesmas proporções.)

Procuremos testar a hipótese atrás formulada. Imaginemos que temos uma rocha rica em urânio. Para além do chumbo originalmente presente, haverá um acréscimo lento mas constante de chumbo-206 e chumbo-207, fazendo com que o peso atómico do chumbo nesta rocha seja apreciavelmente inferior àquele que mediríamos numa rocha não radioactiva. Numa rocha rica em tório existirá um aumento lento mas constante de chumbo-208, fazendo com que o peso atómico do chumbo nela presente seja mais elevado do que numa rocha não radioactiva.

Em 1815, William Prout sugeriu que todos os átomos eram combinações de átomos de hidrogénio.

(1) Hidrogénio 1 (2) Carbono 12 (3) Oxigénio 16 (4) Enxofre 32

Em 1914, Richards mediu o peso molecular do chumbo obtido de diversos minérios radioactivos. E descobriu que os minerais de tório proporcionavam valores que podiam atingir 207,9 para o chumbo, enquanto que nos minerais de urânio os valores podiam ser tão baixos quanto 206,01.

No mesmo ano, portanto, em que os números atómicos substituíram os pesos atómicos enquanto parâmetro essencial para a construção da tabela periódica, os cientistas começaram a perceber que os pesos atómicos não eram afinal fundamentais. Podiam ser apenas médias de pesos isotópicos (número de massa) que seriam, estes sim, muito mais importantes.

Contudo, os isótopos de chumbo obtinham-se por processos de desintegração radioactiva e, por isso, talvez o chumbo fosse um caso especial. Que se passaria com elementos que nada tinham que ver com radioactividade? Existiam já algumas sugestões a esse respeito, antes mesmo dos trabalhos de Richards terem demonstrado a existência de isótopos de chumbo.

Suponha agora o leitor que considerávamos raios positivos, que são feixes de átomos com carga positiva possuindo um número inferior ao j normal de electrões. (Por vezes, os raios positivos não contêm electrões, sendo constituídos simplesmente por núcleos atómicos.) Se as partículas dos raios positivos forem colocadas em campos electromagnéticos, as suas trajectórias afastam-se em curva das linhas rectas que normalmente descrevem. A maior ou menor curvatura dessas trajectórias depende da carga eléctrica das partículas e da sua massa. Se estivermos em presença dum elemento a cujos átomos foi retirado um mesmo número de electrões, todas as partículas que constituem o raio possuem idêntica carga positiva. Assim sendo, qualquer desvio na curvatura da trajectória do raio terá de dever-se a uma diferença na massa das partículas - isto é, nos seus pesos atómicos.

Imaginemos agora um tubo com gás néon, cujos átomos apresentam todos a mesma carga positiva. Se todos tivessem também o mesmo peso atómico (como sempre se considerara, desde a formulação da teoria atómica), todos descreveriam trajectórias curvas idênticas. Colocando uma película fotográfica no percurso das partículas em movimento, todas elas atingiriam a película no mesmo ponto, criando uma pequena mancha de contornos imprecisos.

Thomson realizou esta experiência, em 1912, e descobriu que os iões de néon sensibilizavam uma chapa fotográfica na posição esperada. Contudo, bem perto desse ponto havia uma segunda mancha menos visível. A posição desta segunda mancha era aquela que seria de esperar para átomos de peso atómico 22. Um tal peso atómico não era de todo previsível, mas Thomson sugeriu que se, em cada dez átomos de néon, nove tivessem número de massa 20 e um número de massa 22, a média ponderada de uns e outros seria 20,2, um valor próximo do valor medido experimentalmente do peso atómico do néon tal como ocorre na Terra. Por outras palavras, o néon, que não tem nada que ver com processos radioactivos, podia ser constituído por dois isótopos: néon-20 e néon-22. Esta possibilidade abriu subitamente novas perspectivas no que se refere à estrutura dos núcleos atómicos.

Em 1815, nos primórdios da teoria atómica, o químico britânico William Prout (1785-1850) sugerira (anonimamente, uma vez que a ideia lhe parecera demasiado ousada para se atrever a associar-lhe o seu próprio nome) que todos os átomos eram combinações de átomos de hidrogénio. Os pesos atómicos começavam então a ser determinados e pareciam corresponder a números inteiros. Ou seja, o hidrogénio era 1, o carbono 12, o oxigénio 16, o enxofre 32, e assim por diante. Prout sugeriu que o átomo de carbono era constituído por 12 átomos de hidrogénio intimamente ligados uns aos outros, o átomo de oxigénio por 16 átomos de hidrogénio, o átomo de enxofre por 32, etc.

Se um feixe de iões de carga positiva dum elemento atravessar um campo electromagnético, os isótopos menos maciços são mais facilmente desviados das suas trajectórias habituais em linha recta. Num espectrómetro de massa, tal fenómeno dá origem a linhas negras muito próximas umas das outras numa chapa fotográfica. A posição das linhas permite calcular o número de massa dos isótopos. A sua intensidade indica a quantidade relativa de cada isótopo.

Esta sugestão ficou conhecida como hipótese de Prout quando a sua autoria foi revelada. Mas não resistiu muito tempo uma vez que, à medida que os pesos atómicos iam sendo determinados com mais precisão, se verificou que não eram todos números inteiros ou se aproximavam sequer de números inteiros. O do cloro, por exemplo, era 35,456; o do cobre 63,54; o do ferro 55,85; o do magnésio 24,31; o do mercúrio 200,59, e assim por diante.

A ser verdadeira, a hipótese de Prout teria tornado a teoria atómica muito mais elegante; ou seja, mais simples e clara. No entanto, as observações realizadas levaram a que fosse abandonada durante um século. Mas agora voltava a estar no espírito de muita gente.

E se todos os pesos atómicos que não eram números inteiros representassem simplesmente as médias dos números de massa de diversos isótopos - números de massa que eram, eles sim, números inteiros? A ser assim, os pesos atómicos podiam ser úteis nos cálculos químicos, mas o parâmetro relevante do ponto de vista da estrutura nuclear seriam os números de massa isotópicos.

Em 1919, o químico britânico Francis William Aston (1877-1945), que fora aluno de J. J. Thomson, concebeu aquilo que designou por espectrógrafo de massa. O dispositivo fazia com que iões com carga e massa idênticas se concentrassem numa linha fina numa placa fotográfica. Deste modo, a presença de isótopos podia ser detectada através da existência dum conjunto de linhas escuras próximas umas das outras. A posição duma linha permitia calcular o número de massa do isótopo correspondente e a sua intensidade a quantidade relativa daquele. Com este instrumento, podiam obter-se resultados muito mais precisos do que os que Thomson conseguira com o seu instrumento inovador mas primitivo.

A utilização dum espectrógrafo de massa permitiu detectar de modo inequívoco as linhas correspondentes ao néon-20 e néon-22, bem como a linha muito ténue do néon-21. Sabemos actualmente que em cada 1000 átomos de néon, cerca de 909 são de néon-20, 88 de néon -22 e 3 de néon-21. Qualquer um destes três isótopos é estável e a média ponderada dos seus números de massa confere ao néon, tal como é encontrado na Natureza, um peso atómico de 20,18. Aston foi galardoado com um Prémio Nobel em 1922 pelos seus trabalhos com o espectrógrafo de massa.

É claro que foram estudados outros elementos tendo-se descoberto que, na maioria dos casos, eram constituídos por vários isótopos. O cloro, por exemplo, consiste em dois isótopos: cloro-35 e cloro-37. Em cada 1000 átomos de cloro, 755 são de cloro-35 e 245 de cloro-37, o que faz com que a média ponderada dos respectivos números de massa esteja muito próxima do peso atómico do cloro, tal como existe na Natureza. (A média ponderada não corresponde exactamente ao peso atómico medido uma vez que, como veremos, os números de massa também não são rigorosamente números inteiros.)

Por vezes, um determinado isótopo é claramente predominante. Em cada 1000 átomos de carbono, por exemplo, 989 são de carbono-12 e 11 de carbono-13. Em cada 1000 átomos de azoto, 996 são de azoto-14 e 4 de azoto-15. Em cada 10 000 átomos de hidrogénio, 9 999 são de hidrogénio-1 e 1 é de hidrogénio-2. Em cada milhão de átomos de hélio, todos à excepção dum são de hélio-4, sendo que a excepção é um átomo de hélio-3. Em todos estes casos, o peso atómico aproxima-se dum número inteiro.

Em 1919, o químico norte-americano William Francis Giauque (1895-1982) descobriu que em cada 10 000 átomos de oxigénio, 9976 são de oxigénio-16, 20 de oxigénio-18 e 4 de oxigénio-17. Aquilo que tornou esta descoberta particularmente significativa foi o facto do oxigénio ser usado como padrão para a determinação dos pesos atómicos desde o tempo de Berzelius, tendo-se convencionado que o seu peso atómico era exactamente igual a 16,0000. No entanto, verificava-se agora que o seu valor era apenas uma média que podia variar muito ligeiramente de amostra para amostra. E assim, em 1961, os físicos e químicos acordaram oficialmente em associar o padrão a um número de massa e não a um peso atómico. Estabeleceu-se que o número de massa do carbono-12 era exactamente 12,0000, o que alterava os antigos pesos atómicos apenas muito ligeiramente. Por exemplo, o peso atómico do oxigénio deixou de ser 16,0000 e passou a ser 15,9994.

Alguns átomos existem na Natureza apenas numa variedade. Por exemplo, todos os átomos de flúor existentes na Natureza têm número de massa 19, todos os átomos de sódio 23, todos os átomos de alumínio 27, todos os átomos de cobalto 59, todos os átomos de ouro 197, etc. Para estes casos, muitos físicos consideram que a palavra isótopo não é apropriada. Um isótopo significa a coexistência de pelo menos duas variedades atómicas na mesma posição na tabela periódica. Dizer que um elemento possui um isótopo é como dizer que um pai ou mãe tem um filho gémeo. Foi por isso que, em 1947, o químico norte-americano Truman Paul Kohman (n. 1916) sugeriu que se utilizasse em vez dele o termo nuclido. Trata-se duma designação muito boa, mas a palavra isótopo tornou-se demasiado familiar para poder ser posta de lado.

Existem oitenta e um elementos, cada qual com pelo menos um isótopo estável. Destes, o mais complicado é o bismuto, que tem número atómico 83. Todos os seus átomos têm número de massa 209. O átomo mais maciço e estável é, portanto, o de bismuto-209.

Não existe nenhum átomo estável com um número atómico maior do que 83 ou um peso atómico superior a 209. A única razão porque existem átomos mais maciços na Terra deve-se ao facto do urânio-238, urânio-232 e tório-232, embora radioactivos, terem vidas médias muito longas.

O número total de isótopos estáveis dos oitenta e um elementos é de 272, um valor suficiente para dar três ou quatro isótopos por elementos, se a sua distribuição fosse equitativa. Mas as coisas não se passam assim. Os elementos com um número atómico par têm, dum modo geral, um número de isótopos superior à média. O estanho, com número atómico 50, detém o recorde com dez isótopos estáveis, com os seguintes números de massa: 112, 114, 115, 116, 117, 118, 119, 120, 122 e 124.

Os elementos com número atómico ímpar têm, geralmente, um ou dois isótopos estáveis. Existem dezanove elementos (todos, à excepção dum, com números atómicos ímpares) que são constituídos por um único isótopo estável. A excepção, com número atómico par, é o berílio (número atómico 4), que possui um único isótopo estável, o berílio-9.

O leitor poderá interrogar-se por que razão existem apenas oitenta e um elementos com isótopos estáveis, se os elementos números 82 (chumbo) e 83 (bismuto) os têm. Isso só pode significar que na lista de elementos entre 1 e 83 existem dois elementos que não possuem tais isótopos estáveis. E é isso de facto que se passa. Os elementos 43 e 61 (ambos números atómicos ímpares) não possuem quaisquer isótopos estáveis ou quasi-estáveis. Nos anos 20, tais isótopos foram procurados com afinco e, ocasionalmente, surgiram notícias anunciando terem sido isolados dum ou doutro elemento. No entanto, tais anúncios revelaram--se infundados. Nenhum dos elementos foi realmente isolado até os cientistas terem aprendido a criar no laboratório núcleos que não existem na Terra em quantidades mensuráveis. (Voltaremos a este assunto mais à frente.)

Outro aspecto peculiar é o facto do potássio (número atómico 19) ser o único elemento de número atómico ímpar com mais de dois isótopos que ocorrem naturalmente. Com efeito, são três os isótopos, com números de massa 39, 40 e 41. Destes três, no entanto, o potássio-40 só representa 1 em cada 10 000 átomos de potássio.

Já em 1912 Otto Hahn notara que o potássio parecia ser ligeiramente radioactivo, e essa radioactividade acabou por ser atribuída ao potássio-40. O potássio-40 tem uma vida média longa, de 1,3 milhares de milhões de anos. Trata-se dum valor superior ao da vida média do urânio-235. Menos dum décimo da quantidade desse isótopo existente na Terra quando esta se formou se conserva actualmente. Todavia, o potássio é um elemento tão comum nas rochas que constituem a Terra que, apesar de apenas 1 em cada 10 000 átomos de potássio ser de potássio-40, há mais potássio-40 nas rochas do que urânio-238 e urânio-235 combinados.

Mas se assim é, por que motivo não foi a radioactividade descoberta primeiro no potássio em vez do urânio? A resposta é que, em primeiro lugar, o urânio emite partículas alfa muito energéticas e o potássio-40 apenas partículas beta com pouca energia. Em segundo lugar, o urânio desintegra-se para dar origem a uma longa série de espécies intermédias, cada qual mais radioactiva do que o próprio urânio. O potássio-40, pelo contrário, produz directamente um isótopo estável, o árgon-40, quando se desintegra.

O potássio-40 não é o único isótopo quasi-estável entre aqueles que referi como estáveis. Existe cerca duma dúzia doutros, todos com vidas médias muito mais longas do que a do potássio-40, ou mesmo do que a do tório-232. Eles vivem tanto tempo que a sua radioactividade é praticamente imperceptível. O vanádio-50, por exemplo, tem uma vida média de cerca de 600 biliões de anos, ou seja, cerca de 130 000 vezes superior à do urânio-238. O neodímio-154 tem uma vida média de cerca de 5000 biliões de anos, e por aí fora. Nenhum destes isótopos quasi-estáveis com números atómicos inferiores ao do tório (90) dá origem a uma série radioactiva. Todos, à excepção dum, emitem uma única partícula beta e transformam-se em isótopos estáveis. A excepção é o samário-147, que emite uma única partícula alfa e se transforma em neodímio-143, que é estável.

O facto dos números de massa dos isótopos serem todos muitos próximos de números inteiros tornava tentador pensar (como de resto sugerira Prout) que os núcleos são constituídos por partículas mais pequenas, e que estas são apenas de alguns tipos diferentes. A possibilidade de simplificar deste modo a natureza era muito apelativa e, nos anos 20, os físicos trabalharam arduamente para tentar elucidar a estrutura do núcleo atómico.


6 . NEUTRÕES


Protões e Electrões

 

A busca da simplicidade não constituiu a única motivação por detrás dos trabalhos dos físicos que estudavam a estrutura nuclear. A observação dos materiais radioactivos parecia indicar claramente que alguns núcleos deviam, pelo menos, ter uma estrutura; ou seja, ser conjuntos de partículas mais simples. Com efeito, alguns núcleos radioactivos emitiam partículas beta (electrões), enquanto que outros emitiam pattículas alfa (núcleos de hélio). A explicação mais simples para tais emissões era de que os núcleos continham eles mesmos núcleos mais simples e electrões que, por alguma razão, eram por vezes libertados.

Se aceitarmos a ideia de que alguns núcleos são constituídos por núcleos mais pequenos e por electrões, torna-se fácil dar o passo seguinte e supor que todos os núcleos possuem uma tal estrutura. Por uma questão de simplicidade, podemos igualmente supor que esses núcleos mais simples são os mais simples possíveis.

O núcleo mais simples que se conhece é o do hidrogénio-1, um núcleo com número de massa 1 e com uma carga eléctrica de +1. Rutherford baptizara de protão o núcleo do hidrogénio-1 e, nos anos 20, existia a convicção generalizada de que o protão era a partícula mais pequena e mais simples capaz de transportar uma carga positiva. Surgiu assim a teoria de que os núcleos dos átomos eram constituídos por protões e electrões juntos num pequeno volume.

As partículas alfa que são emitidas por alguns átomos radioactivos têm número de massa 4, pelo que podiam ser constituídas por 4 protões, cada qual com número de massa 1. No entanto, as partículas alfa apresentam igualmente uma carga eléctrica de +2, e 4 protões possuem uma carga total de +4. Parecia, portanto, que, para além dos 4 protões, existiam na partícula alfa 2 electrões anulando duas das cargas positivas, ao mesmo tempo que não contribuíam de modo significativo para a massa total. Uma partícula alfa constituída por 4 protões e 2 electrões teria assim uma massa de 4 e uma carga de +2, como de resto se observava.

Este tipo de raciocínio podia ser igualmente aplicado a outros núcleos. E usado para explicar os isótopos. O núcleo do oxigénio-16, por exemplo, possui uma massa de 16 e uma carga de +8, pelo que devia ser constituído por 16 protões e 8 electrões. O núcleo do oxigénio-17 podia ser encarado como possuindo um par protão-electrão adicional, que aumentava a respectiva massa em 1 unidade, sem, no entanto, alterar a carga. Um total de 17 protões e 9 electrões resultam numa massa de 17 e numa carga de +8. Analogamente, o núcleo do oxigénio-18 podia ser visto como possuindo mais um par protão-electrão adicional, pelo que seria composto por 18 protões e 10 electrões, com uma massa de 18 e uma carga de +8.

Nos núcleos existem protões e neutrões.

Esta teoria dos protões-electrões serviu durante algum tempo para os físicos explicarem a estrutura nuclear, especialmente porque tornava o Universo extraordinariamente simples. Segundo a teoria, todos os objectos materiais existentes eram constituídos por cerca de 100 tipos de átomos, sendo cada átomo constituído por igual número de dois tipos de partículas subatômicas: protões e electrões. Todos os protões estavam localizados no núcleo, enquanto que alguns electrões estavam no núcleo e outros fora dele.

Além disso, a coesão do Universo parecia ser garantida por dois campos: a coesão do núcleo, pela atracção electromagnética entre protões e electrões; a do átomo, no seu conjunto, pela atracção electromagnética entre núcleos e electrões. Havia diversos átomos que se combinavam para dar origem a moléculas, cristais ou objectos sólidos do tamanho de planetas, através da transferência de electrões dum átomo para outro, ou através da partilha de electrões. Existiria alguma coisa cuja coesão não se devesse a campos electromagnéticos? É claro que sim.

As moléculas dos gases existem muito afastadas uma das outras, estando apenas sujeitas a forças electromagnéticas muito fracas. Se fossem estas as únicas forças que sobre elas actuam, as moléculas dispersar-se--iam pela imensidão do espaço. Contudo, os gases mantêm-se junto dos corpos de grandes dimensões pela acção de algo diferente: a atracção gravítica. E por esse motivo que a Terra possui uma atmosfera.

No entanto, a fraca intensidade do campo gravítico exige um corpo de grandes dimensões para segurar os gases. Se a gravidade não fosse suficientemente forte na Terra, os líquidos de baixo ponto de ebulição, por exemplo, evaporar-se-iam, dispersando-se as suas moléculas pelo espaço. É graças à atracção gravítica exercida pela Terra que possuímos um oceano. A Lua, por exemplo, não é suficientemente grande para possuir água no estado livre à sua superfície.

Os corpos que no espaço estão separados por distâncias consideráveis também se mantêm juntos graças a campos gravíticos: os satélites relativamente aos planetas; os planetas relativamente às estrelas; as estrelas em relação umas às outras para formarem galáxias; e as galáxias em relação umas às outras para constituírem enxames. Na verdade, a coesão do Universo no seu conjunto é garantida pela atracção gravítica.

Se acrescentarmos a isto o facto do campo electromagnético estar associado à radiação de fotões e o campo gravítico à radiação de gravitões, podemos talvez concluir que a totalidade do Universo é constituída por apenas quatro tipos de partículas: protões, electrões, fotões e gravitões. Os protões possuem número de massa 1, carga de +1 e spin de +1/2 ou -1/ 2. Os electrões têm número de massa de 0,00055, carga de -1 e spin de +1/ 2 ou -1/2. Os fotões apresentam número de massa 0, carga 0 e spin de +1 ou -1. Os gravitões têm número de massa 0, carga 0, e spin de -2 ou +2.

Que simples que tudo isto é! Mais simples ainda do que a teoria grega dos quatro elementos terrenos e dum quinto elemento que dizia respeito aos corpos celestes. Na verdade, o Universo nunca mais voltou a parecer tão simples como durante os anos 20 do século passado.

Na verdade, houve mesmo uma tentativa ambiciosa para o tornar ainda mais simples. Por que razão existiam dois campos, o electromagnético e o gravítico? Seriam eles dois aspectos apenas dum mesmo fenómeno? Seria possível conceber um conjunto de equações que descrevessem ambos?

E verdade que os dois campos parecem ser radicalmente diferentes. O campo electromagnético afecta apenas partículas com carga eléctrica, enquanto que o campo gravítico afecta todas as partículas que possuam massa, tenham elas carga ou não. Um envolve atracções e repulsões, enquanto que o outro tem que ver apenas com atracções. Para um qualquer par de partículas que sejam afectadas por ambos os campos, o campo electromagnético é biliões de biliões de biliões de vezes mais intenso do que o correspondente campo gravítico. Por isso, ao considerar um par protão-electrão, basta considerar a atracção electromagnética entre ambas as partículas, uma vez que a atracção gravítica é, comparativamente, insignificante.

No entanto, tais diferenças não têm necessariamente de ser um entrave à unificação. O magnetismo, a electricidade e a luz pareciam inicialmente constituir três fenómenos muito diferentes. E, todavia, Maxwell encontrou um conjunto de equações válidas para os três e demonstrou que eram facetas diferentes dum mesmo fenómeno.

Foi nem mais nem menos que o próprio Einstein quem passou as últimas décadas da sua vida a tentar concluir o trabalho de Maxwell e a encontrar equações ainda mais fundamentais que incluíssem igualmente o campo gravítico, naquilo que foi designado como teoria do campo unificado. Einstein falhou mas, como veremos, isso não pôs fim às tentativas de unificação.

O próprio modelo do protão-electrão para a estrutura nuclear não durou muito tempo, uma vez que continha um erro fundamental.


Protões e Neutrões

 

O núcleo possui um spin, tal como os electrões, protões, fotões e gra-vitões. O seu valor pode ser determinado através da análise da estrutura fina do espectro produzido pelos núcleos, e ainda por outros métodos.

Se o núcleo for formado por partículas tais como os protões e electrões, parece razoável supor que o spin total do núcleo será a soma dos spins das partículas constituintes. Isto deve-se ao facto do spin representar momento angular, e os físicos terem descoberto há já muito tempo que existe uma lei de conservação do momento angular. Por outras palavras, não é possível criar spin a partir do nada, nem destrui-lo. Ele pode apenas ser transferido dum corpo para outro.

Na medida em que pode ser testada, esta lei é válida para todos os corpos comuns. No caso dum objecto comum animado dum movimento de rotação (tal como uma moeda que pomos a girar com a nossa mão) pode-se ficar com a impressão de que o seu spin surgiu do nada. No entanto, ele teve origem no movimento da nossa mão, e quando fazemos rodar a moeda, a mão, o resto do nosso corpo, e tudo o mais a que estivermos ligados - uma cadeira, o chão, o planeta Terra - adquire um spin inverso. (O momento angular pode ter um de dois sentidos, positivo e negativo, que se podem anular mutuamente. Além disso, um momento angular pode surgir a partir do nada se outro aparecer simultaneamente. Aquilo que se conserva é o momento angular totaí - isto é, aquele que se obtém quando se somam todos os diferentes momentos angulares, positivos e negativos.)

O valor do momento angular não depende apenas da velocidade de rotação, mas também da massa do objecto que está a girar. Quando rodamos a nossa mão para pôr uma moeda em movimento, a Terra tem uma massa tão superior à da moeda que a sua rotação em sentido inverso ocorre a uma velocidade demasiado pequena para poder ser medida por qualquer método imaginável. E quando a rotação da moeda termina devido à fricção com a superfície sobre a qual está a girar, o spin inverso da Terra, incrivelmente pequeno, também cessa.

No caso de partículas animadas dum movimento de rotação, o spin é potencialmente eterno se não existirem interferências sobre as partículas. Tanto os protões como os electrões possuem spins, que podem ser representados pelas fracções +1/2 e -1/2. (O spin total é o mesmo para ambas as partículas, apesar da diferença entre as suas massas. Os electrões têm uma rotação mais rápida para compensar a sua massa mais reduzida. O spin pode, obviamente, ser num ou noutro sentido.)

Se adicionarmos os spins dum número par de protões e electrões num núcleo, o spin total tem de ser igual a zero ou a um número inteiro.

Os valores dos dois spins podem ser, por exemplo, +1/2 e +1/2, ou +1/2 e -1/2, ou -1/2 e +1/2, ou -1/2 e -1/2. As suas somas são, respectivamente, +1, 0, 0 e -1. Se imaginarmos quatro spins com valor 1/2 ou seis, ou oito, ou qualquer outro número par, e os adicionarmos seja com que combinação de sinais + e - for, a sua soma será sempre zero, um número inteiro positivo ou um número inteiro negativo.

Se tivermos um número ímpar de partículas, cada qual com um spin de 1/2, a sua soma será sempre um número fraccionário, seja qual for a combinação de sinais + e - que escolhermos. Se tivermos três partículas, por exemplo, podemos ter +1/2, +1/2 e +1/2 e um valor total de +1 1/2; ou +1/2, +1/2 e -1/2 e um valor total de +1/2. Seja qual for a forma como distribuirmos os sinais + e - por três, cinco, sete ou qualquer outro número ímpar de partículas, a soma dos spins será sempre +1/2, -1/2, + um qualquer número inteiro e 1/2 ou - um qualquer número inteiro e 1/2.

E isto leva-nos de volta ao azoto-14, que estudos espectroscópicos revelaram ter um spin de +1 ou -1. O núcleo do azoto-14 tem número de massa 14 e carga eléctrica +7. Segundo o modelo protão-electrão da estrutura nuclear, o seu núcleo devia ser constituído por 14 protões e 7 electrões, ou seja, um total de 21 partículas. Porém, sendo 21 um número ímpar, o spin total deste núcleo devia ser um número fraccionário. A soma dos spins dessas partículas não pode resultar no valor +1 ou -1.

Factos como este deixaram os físicos muito preocupados. Eles não queriam pôr de parte o modelo protão-electrão do núcleo, uma vez que era muito simples e explicava imensas coisas. Mas, por outro lado, também não queriam abandonar a lei da conservação do momento angular.

Já em 1920, alguns físicos, como Ernest Rutherford, tinham encarado a possibilidade da combinação protão-electrão ser uma única partícula. Esta teria a massa dum protão (ou uma massa ligeiramente superior por causa da contribuição do electrão) e uma carga eléctrica nula.

E claro que uma tal partícula não podia ser vista como uma simples fusão dum protão com um electrão. Uma vez que cada uma destas partículas contribuía com um spin de +1/2 ou -1/2 para essa fusão, a partícula resultante teria um spin de 0, +1 ou -1. O spin do núcleo de azoto continuaria a ser um número fraccionário, quer se considerassem os protões e electrões separadamente, quer em combinações uns com os outros.

Em vez disso, havia que pensar numa partícula que tivesse massa 1, como o protão, carga 0 e spin de +1/2 ou -1/2, pois só assim se explicariam as propriedades do núcleo de azoto. Em 1921, o químico norte-americano William Draper Harkins (1871-1951) deu o nome de neutrão a uma tal partícula, uma vez que era electricamente neutra.

Esta possibilidade manteve-se no espírito dos físicos ao longo dos anos 20, mas como o hipotético neutrão nunca foi detectado, era difícil levá-la muito a sério. O modelo protão-electrão continuou por isso a ser usado, apesar de não se ajustar a todos os factos conhecidos. (Geralmente os cientistas não abandonam uma ideia que lhes parece útil até estarem certos de terem encontrado uma melhor para a substituir. Trocar algo que é útil por coisa alguma ou por algo de muito vago não é boa ideia em ciência.)

Em 1930, o físico alemão Walter W. G. F. Bothe (1891-1957) verificou que quando bombardeava berílio, um elemento leve, com partículas alfa, obtinha uma radiação desconhecida que possuía enorme poder de penetração e não parecia ter carga eléctrica. O único tipo de radiação que conhecia com tais características eram os raios gama, pelo que suspeitou que era isso que estava a detectar.

Em 1932, o físico francês Frédéric Joliot-Curie (1900-1958) e a sua mulher, Irene Joliot-Curie (1897-1956), a filha de Pierre e Marie Curie, descobriram que a radiação de Bothe, ao incidir sobre parafina, provocava a emissão de protões desta substância. Nunca tal fenómeno fora observado com raios gama, mas os Joliot-Curie não conseguiram pensar noutra explicação.

Nesse mesmo ano, porém, o físico britânico James Chadwick (1891--1974) resolveu repetir as experiências de Bothe e dos Joliot-Curie. Chadwick considerou que, para a radiação ser capaz de provocar a emissão duma partícula tão maciça como o protão, tinha ela própria de ser constituída por partículas maciças. Uma vez que a radiação não possuía carga eléctrica, Chadwick concluiu estar na presença da tal partícula maciça e neutra de que os físicos andavam à procura - o neutrão. Com efeito, era disso mesmo que se tratava e Chadwick recebeu um Prémio Nobel em 1935 pela sua descoberta.

Uma vez descoberto o neutrão, Heisenberg sugeriu imediatamente que o núcleo atómico era constituído por uma massa densamente empacotada de protões e neutrões. O núcleo de azoto, por exemplo, seria composto por 7 protões e 7 neutrões, cada qual com número de massa 1. O número de massa total era por isso 14. E uma vez que apenas os protoes tinham carga +1, sendo a dos neutrões 0, a carga total do núcleo era de +7, como devia ser. Além disso, o núcleo possuía agora 14 partículas - um número par - pelo que o seu spin total podia ser de +1 ou -1, tal como era medido experimentalmente.

O modelo protão-neutrão explicava o spin nuclear de todos os núcleos atómicos, sem excepções, e também tudo aquilo que era explicado pelo modelo protão-electrão (com uma única excepção que foi mais tarde resolvida, como explicarei adiante). Com efeito, no mais de meio século que decorreu desde a descoberta do neutrão, nada foi descoberto que viesse pôr em causa o modelo protão-neutrão do núcleo, embora este tenha sido aperfeiçoado, assunto que abordarei mais à frente.

Consideremos, por exemplo, a maneira simples como o novo modelo explica a existência de isótopos. Todos os átomos dum dado elemento possuem o mesmo número de protões no núcleo e, por conseguinte, idêntica carga nuclear. No entanto, o número de neutrões pode variar.

Assim, o núcleo do azoto-14 é constituído por 7 protões e 7 neutrões, mas um em cada 3000 núcleos de azoto contém 7 protões e 8 neutrões sendo, por isso, azoto-15. Embora o núcleo de oxigénio mais comum possua 8 protões e 8 neutrões, o que faz dele oxigénio-16, alguns núcleos têm 8 protões e 9 neutrões, ou mesmo 8 protões e 10 neutrões (são oxigénio-17 e oxigénio-18, respectivamente).

Mesmo o hidrogénio, com um núcleo constituído apenas por um protão (hidrogénio-1) não escapa a estas coisas. Em 1931, o químico norte-americano Harold Clayton Urey (1893-1981) mostrou que 1 em cada 7000 átomos de hidrogénio era hidrogénio-2, tendo sido galardoado com um Prémio Nobel, em 1934, pelo seu trabalho. O núcleo do hidrogénio-2 é formado por 1 protão e 1 neutrão, razão pela qual é frequentemente designado deutério, da expressão grega que significa "segundo".

Do mesmo modo, o urânio-238 possui um núcleo constituído por 92 protões e 146 neutrões, enquanto que o urânio-235 tem um núcleo com 92 protões e 143 neutrões. Não existe qualquer isótopo que não possa ser perfeitamente descrito pelo modelo protão-neutrão da estrutura nuclear.

Os protões e neutrões estão ambos presentes no núcleo (sendo por vezes colectivamente designados nucleões), têm massas quase idênticas e tanto uns como outros podem, em determinadas circunstâncias, ser emitidos do núcleo. No entanto, o protão fora já reconhecido como partícula em 1914, enquanto que o neutrão teve de esperar mais dezoito anos até ser identificado. Por que foi que a sua descoberta levou tanto tempo? A explicação reside no facto da carga eléctrica ser a propriedade mais facilmente detectável duma partícula e do protão possuir uma carga eléctrica, ao contrário do neutrão.

Um dos primeiros métodos utilizados para identificar partículas subatômicas foi o electroscópio de folhas. O dispositivo consiste em duas folhas de ouro muito finas e leves que estão ligadas a uma haste e encerradas num invólucro destinado a proteger o conjunto das correntes de ar. Se a haste for tocada por um objecto electricamente carregado, a carga é transmitida às folhas de ouro. Uma vez que ambas as folhas recebem a mesma carga, repelem-se formando um V invertido.

Não havendo outras interferências, as folhas do electroscópio permanecem separadas. No entanto, qualquer fluxo de partículas com carga eléctrica para o interior do electroscópio arranca electrões às moléculas do ar. Este fenómeno dá origem a electrões de carga negativa e a iões com carga positiva (uma corrente de partículas carregadas electricamente constitui um exemplo de radiação ionizante). Umas ou outras destas partículas carregadas neutralizam a carga numa das folhas de ouro, fazendo com que voltem lentamente a juntar-se. Uma corrente de neutrões não é, todavia, um exemplo de radiação ionizante, uma vez que os neutrões, não possuindo carga, não atraem nem repelem os electrões dos átomos e moléculas, arrancando-os. Os neutrões não podem, por isso, ser detectados com um electroscópio.

Em 1913, o físico alemão Hans Wilhelm Geiger (1882-1945) inventou um dispositivo constituído por um cilindro que continha um gás submetido a uma diferença de potencial muito elevada, mas não tão elevada que provocasse uma descarga de electricidade através daquele. Qualquer porção de radiação ionizante que entrasse no cilindro dava origem à formação dum ião, que era puxado através do cilindro pela diferença de potencial existente, produzindo mais iões.

Mesmo uma única partícula subatômica produzia uma descarga que era perceptível sob a forma dum estalido seco. O contador Geiger tornou-se famoso como dispositivo para contar partículas subatômicas.

Antes disso, em 1911, o físico britânico Charles Thomson Rees Wilson (1869-1959) inventara uma câmara de nevoeiro. Wilson provocou a expansão de ar húmido sem quaisquer poeiras no interior dum cilindro. A medida que expande, o ar vai arrefecendo e alguma da humidade condensa produzindo gotículas, desde que existam partículas de poeira que funcionem como centros de condensação em torno dos quais as gotículas se possam formar. Na ausência de tais partículas, a água permanece sob a forma de vapor. Se uma partícula subatômica entrar na câmara de nevoeiro, forma iões ao longo do seu trajecto, que actuam como centros de condensação da água. Em torno de cada ião forma-se uma minúscula gota de água. Deste modo torna-se possível detectar, não apenas as partículas, mas também os seus trajectos. Se a câmara de nevoeiro for colocada num campo eléctrico ou magnético, uma partícula com carga eléctrica em movimento descreve uma trajectória curva, que pode ser visualizada. Wilson recebeu um Prémio Nobel, em 1927, pela invenção do dispositivo.

Em 1952, o físico norte-americano Donald Arthur Glaser (n. 1926) concebeu um aparelho semelhante. Em vez dum gás e da formação de gotículas, Glaser usou um líquido à temperatura a que estava prestes a formar bolhas de vapor. Tais bolhas produziam-se ao longo do trajecto das partículas atómicas que entravam no dispositivo. Glaser recebeu um Prémio Nobel em 1960 pela sua "câmara de bolha".

Todos estes dispositivos, e muitos outros de natureza análoga, reagem à formação de iões por radiação ionizante; isto é, através de partículas com carga eléctrica. Nenhum deles funciona com neutrões que, por assim dizer, entram e saem de tais dispositivos sem fazerem barulho.

A presença de neutrões só pode ser detectada indirectamente. Se um neutrão formado no interior dum dispositivo de detecção percorrer uma certa distância e depois colidir com uma outra partícula que, ela sim, pode ser detectada - e desde que o neutrão altere a trajectória da outra partícula ou dê origem a partículas novas, detectáveis - existirá um hiato entre o trajecto que marca a formação do neutrão numa extremidade e a colisão do neutrão com algo de diferente na outra. Esse hiato tem de ser preenchido com alguma coisa e da natureza dos dois conjuntos de trajectos é lógico deduzir a presença dum neutrão entre ambos.

Os físicos que trabalham com detectores de partículas aprenderam a fotografar as trajectórias complexas deixadas em gotículas de água, bolhas de gás, linhas de descargas eléctricas, etc. e a interpretar todos os pormenores com a mesma facilidade com que lemos este livro.

É por os neutrões não deixarem qualquer rasto em tais dispositivos que a sua descoberta ficou adiada por tantos anos. No entanto, uma vez descobertos, revelaram-se da maior importância. É o que veremos a seguir, recuando um pouco no tempo.


Reacções Nucleares

 

As inúmeras interacções de átomos e moléculas que envolvem transferência e partilha de electrões são designadas reacções químicas. Até 1896, as únicas interacções que os cientistas conheciam, fossem elas na matéria viva ou inanimada, eram reacções químicas, embora a sua natureza não fosse realmente compreendida até a estrutura dos átomos ter sido elucidada.

Nesse sentido, a radioactividade é diferente. As transformações associadas à radioactividade envolvem a ejecção de parte do núcleo, ou alterações na natureza das partículas que o constituem. Tais eventos são designados reacções nucleares e, dum modo geral, implicam trocas de energia muito mais intensas do que as reacções químicas.

A radioactividade constitui uma reacção nuclear espontânea. Se não existissem algumas reacções nucleares espontâneas, isto é, reacções que têm lugar sem qualquer intervenção humana, é bem possível que nunca descobríssemos a existência de toda uma série de fenómenos.

É que, para os seres humanos, é muito mais difícil iniciar ou controlar reacções nucleares do que reacções químicas. Para produzir, impedir ou modificar uma reacção química, os cientistas necessitam apenas de juntar produtos químicos, de os aquecer ou arrefecer, colocar sob pressão, passar ar através deles ou levar a cabo outras operações relativamente fáceis de realizar. Afinal, são apenas os electrões mais exteriores que estão envolvidos, e esses estão tão expostos que é fácil fazermos coisas com eles.

As reacções nucleares, pelo contrário, têm lugar nos pequenos núcleos, no centro dos átomos. E os núcleos estão protegidos por diversos electrões. Os procedimentos utilizados para provocar transformações químicas não atingem ou afectam os núcleos atómicos. Com efeito, quando a radioactividade foi descoberta, os químicos ficaram perplexos ao verificarem que a taxa de desintegração não se modificava com a temperatura. Ela permanecia constante, quer a substância radioactiva fosse aquecida até à fusão ou arrefecida em ar líquido. O facto de se submeter uma substância radioactiva a uma transformação química também não a alterava.

Os neutrões colidem com os núcleos, provocando a emissão de mais e mais neutrões e dando origem a uma reacção nuclear em cadeia.

Haveria algum modo de interferir com aquilo que se passava no núcleo? A existir um tal procedimento, ele teria de ser capaz de atravessar a barreira de protecção electrónica e atingir, por assim dizer, o próprio núcleo. Fora precisamente dessa forma que Rutherford descobrira a existência do núcleo. Ele bombardeara átomos com partículas alfa muito energéticas, que eram suficientemente maciças para afastar os electrões e suficientemente pequenas para ressaltarem do núcleo quando dele se aproximavam.

Em 1919, Rutherford colocou uma pequena porção de material radioactivo na extremidade dum cilindro fechado. A outra extremidade deste estava internamente revestida com sulfureto de zinco. O material radioactivo emitia partículas alfa. Sempre que uma partícula alfa atingia o sulfureto de zinco, perdia a sua energia cinética, que era convertida numa minúscula cintilação luminosa, a qual podia ser observada se a sala onde decorria a experiência fosse mantida às escuras e o observador habituasse os seus olhos à escuridão. Contando os pequenos lampejos, Rutherford e os seus colaboradores puderam determinar o número de partículas que atingiam a extremidade revestida. O seu dispositivo ficou conhecido como um detector de cintilações.

Se as partículas alfa atravessarem um cilindro onde foi criado um vácuo, as cintilações são numerosas e brilhantes. Se, todavia, introduzirmos um pouco de hidrogénio no mesmo, surgem algumas cintilações particularmente brilhantes. Isto deve-se ao facto das partículas alfa atingirem ocasionalmente o protão que constitui o núcleo do átomo de hidrogénio. Sendo os protões mais leves do que as partículas alfa, podem ser impelidos para diante a uma velocidade superior. Como na energia cinética a velocidade conta mais do que a massa, protões deslocando-se a grande velocidade produzem cintilações muito brilhantes.

Se introduzirmos oxigénio ou dióxido de carbono no cilindro, as cintilações tornam-se menos brilhantes e mais raras. Os núcleos comparativamente mais maciços dos átomos de oxigénio e carbono (com massas quatro e três vezes superiores à das partículas alfa, respectivamente) tendem a desacelerar as partículas alfa, por vezes de forma tão acentuada que estas captam electrões e se transformam em vulgares átomos de hélio. Os núcleos maciços de carbono e oxigénio são impelidos lentamente para diante, e as poucas cintilações observadas são por isso pouco brilhantes.

Se, todavia, colocarmos azoto no cilindro, surgem de novo os lampejos brilhantes que se observam com o hidrogénio. Rutherford admitiu que no núcleo de azoto as partículas não estavam tão fortemente ligadas como nos núcleos de carbono ou oxigénio. As partículas alfa podiam colidir com os núcleos de carbono ou oxigénio sem os afectarem, mas quando colidiam com um núcleo de azoto, arrancavam a este um protão, produzindo a cintilação brilhante habitual.

Inicialmente tudo isto não passou de especulação mas, em 1925, o físico britânico Patrick Maynard Stuart Blackett (1897-1974) usou pela primeira vez a câmara de nevoeiro de Wilson para repetir e confirmar as experiências de Rutherford. Numa câmara de nevoeiro, bombardeou azoto com partículas alfa e tirou 20 000 fotografias, registando um total de mais de 400 000 trajectórias de partículas alfa. Destas, apenas oito envolviam uma colisão entre uma partícula alfa e uma molécula de azoto.

Através dum estudo das trajectórias antes e após as colisões, Blackett demonstrou que Rutherford tinha razão, e que um protão fora arrancado ao núcleo de azoto. A partícula alfa, com uma carga de +2, entrara no núcleo e um protão, de carga +1, saíra do mesmo. O que significava que houvera um aumento global na carga do núcleo de +1. Em vez de ser +7 (azoto), passara a ser +8 (oxigénio). Além disso, a partícula que entrara tinha número de massa 4 e o protão que saíra tinha número de massa 1. O número de massa do núcleo de azoto aumentara de 3 unidades, de 14 para 17. O resultado final era que o azoto-14 se combinara com o hélio-2 (uma partícula alfa) para dar origem a oxigénio-17 e hidrogénio-1 (um protão).

Rutherford fora, assim, o primeiro a provocar uma reacção nuclear em laboratório. Ou seja, fora o primeiro a conseguir transformar um elemento noutro - neste caso, azoto em oxigénio - através duma intervenção humana. Blackett foi galardoado com um Prémio Nobel, em 1948, pela utilização da câmara de nevoeiro nesta e noutras experiências.

Deste modo, Rutherford conseguiu aquilo a que os alquimistas haviam chamado transmutação dos elementos. E houve algumas pessoas que, ao saberem da sua experiência, afirmaram: "Vêem, afinal os velhos alquimistas tinham razão. A ciência moderna errou ao rejeitá-los com desdém." Um tal ponto de vista, contudo, está errado. Os alquimistas não só afirmaram que a transmutação era possível como se convenceram de que a mesma podia ser obtida unicamente por meios químicos - através de misturas, aquecimentos, destilações, etc. Nesse sentido, estavam enganados. A transmutação só pode ser obtida através de reacções nucleares, algo que estava para lá das possibilidades e mesmo da imaginação dos velhos alquimistas.

A partícula alfa, com número de massa 4 (b) penetra o núcleo de azoto (a e b), e um protão com número de massa 1 é expulso (c). O resultado global é que azoto-14 (a) se combina com hélio-2 (uma partícula alfa) (b) para emitir hidrogénio-1 (um protão) (c), e produzir oxigénio-17 (d).

Em suma: uma ideia não basta. É necessário que pormenores importantes estejam igualmente correctos antes que se possa dizer de alguém que "tinha razão". Com efeito, houve pessoas antes de Newton que falaram em viagens à Lua, uma ideia que era, em si mesma, razoável. Foi Newton, todavia, o primeiro a mostrar que uma ida à Lua só era possível com o princípio do foguetão. E portanto a ele, e não aos seus antecessores, que cabe a honra, de ter tido, não um mero sonho, mas um sonho que incluía uma indicação prática do modo como podia ser concretizado.


Isótopos Artificiais

 

Rutherford transformara um isótopo conhecido na Natureza, o azoto-14, noutro isótopo conhecido, o oxigénio-17. Uma vez confirmada a possibilidade de obter tais transmutações no laboratório, foram produzidas outras reacções nucleares através do bombardeamento de vários tipos de átomos com partículas, das quais resultaram outros isótopos conhecidos.

Mas teriam estas transformações de produzir sempre isótopos conhecidos? Ou poderiam as adições e subtracções de partículas dar origem a núcleos com números de massa e cargas diferentes dos que ocorrem naturalmente? Em 1932, o químico letão-americano Aristid V. Grosse (n. 1905) sugeriu que tal era possível.

Em 1934, o casal Joliot-Curie prosseguia o trabalho iniciado por Rutherford, bombardeando diversos elementos com partículas alfa. Em particular, estavam a bombardear alumínio e a arrancar dos seus núcleos, não apenas protões como também, nalguns casos, neutrões. Quando o bombardeamento era interrompido, os feixes de protões e neutrões emitidos pelos núcleos de alumínio cessavam imediatamente. No entanto, os dois físicos descobriram, com surpresa, que havia um tipo de radiação (que será abordada adiante no livro) que se mantinha e cujo declínio com o tempo era semelhante àquele que seria de esperar da radiação emitida por uma substância radioactiva. Os Joliot-Curie conseguiram mesmo calcular a vida média de tal radiação, que era de 2,6 minutos.

Todos os átomos de alumínio que existem na Natureza possuem número atómico 13 e número de massa 27. Por outras palavras, os seus núcleos são todos constituídos por 13 protões e 14 neutrões. Se acrescentarmos uma partícula alfa (2 protões e 2 neutrões) e houver a emissão dum protão, o novo núcleo contém 14 protões e 16 neutrões, o que corresponde ao silício-30, um isótopo bem conhecido.

Mas o que se passará nos casos em que um neutrão é arrancado ao núcleo? Se acrescentarmos uma partícula alfa (2 protões e 2 neutrões) a um núcleo de alumínio (13 protões e 14 neutrões) e houver emissão dum neutrão, ficamos com um novo núcleo constituído por 15 protões e 15 neutrões. Isto corresponde ao fósforo-30. Contudo, este isótopo não ocorre naturalmente. Todos os átomos de fósforo que existem na Natureza são de fósforo-31 (15 protões e 16 neutrões), que é o único isótopo estável de fósforo. O fósforo-30 é radioactivo e desintegra-se rapidamente (através dum processo que descreverei mais à frente), dando origem ao silício-30, que é estável.

O fósforo-30 foi o primeiro isótopo "artificial" a ser produzido e com ele surgiu o conceito de radioactividade artificial. Pelos trabalhos realizados neste domínio, o casal Joliot-Curie partilhou um Prémio Nobel em 1935.

Depois dos Joliot-Curie terem aberto o caminho, muitos outros isótopos artificiais foram obtidos através de diferentes reacções nucleares. Todos eram radioactivos, pelo que se passou a falar em isótopos radioactivos ou radioisótopos.

Todos ou quase todos os isótopos estáveis existentes podem ser encontrados nas rochas do nosso planeta. Até agora, nenhum dos radioisótopos criados em laboratório revelou uma vida média suficientemente longa para que quantidades mensuráveis dele se tenham conservado na Terra desde a origem desta.

Todos os elementos conhecidos possuem radioisótopos. Mesmo o hidrogénio, o mais simples de todos, possui um isótopo radioactivo, o hidrogénio-3, cujo núcleo é constituído por um protão e 2 neutrões. Este isótopo é por vezes designado trítio, duma palavra grega que significa "terceiro". A sua vida média é de 12,26 anos. O trítio foi obtido pela primeira vez em laboratório, em 1934, pelo físico australiano Marcus Laurence Elwin Oliphant (1901-2000).

Após os trabalhos pioneiros de Rutherford e durante um quarto de século, os cientistas andaram a bombardear átomos usando partículas alfa como projécteis. O método tinha as suas vantagens. Por um lado, as partículas alfa estavam, por assim dizer, sempre à mão. O urânio, o tório e diversos produtos resultantes da sua desintegração produziam-nas, pelo que as fontes de partículas alfa nunca haveriam de faltar.

No entanto, existiam também algumas desvantagens. As partículas alfa possuem carga positiva, tal como os núcleos atómicos. (Afinal, uma partícula alfa é, ela própria, um núcleo atómico.) O que significa que uns e outras se repeliam e que essa repulsão tinha de ser ultrapassada antes que uma partícula alfa conseguisse colidir com ou penetrar num núcleo atómico. Parte da energia da partícula era consumida nesse processo, o que reduzia a sua eficácia. Além disso, quanto mais maciços eram os núcleos bombardeados, maior era a repulsão. A partir dum certo ponto, as partículas alfa de que os cientistas dispunham deixavam de conseguir penetrar nos núcleos.

Quando o neutrão foi descoberto, Enrico Fermi percebeu que tinha aí um novo projéctil com características únicas. Se fosse possível produzir um feixe de neutrões, por exemplo, fazendo um feixe de protões incidir sobre parafina, aqueles não seriam repelidos pelos núcleos atómicos uma vez que não possuíam carga. Se um neutrão se deslocasse na direcção dum núcleo, poderia atingi-lo e penetrá-lo mesmo que possuísse muito pouca energia. A descoberta do neutrão veio, portanto, revolucionar a técnica de bombardeamento de átomos.

Fermi descobriu que se fizesse um feixe de neutrões atravessar água ou parafina, muitos dos neutrões atingiam os núcleos mas ressaltavam, sem os penetrarem, perdendo neste processo alguma energia. Tais neutrões acabavam por ficar apenas com a energia que seria de esperar de partículas vibrando e deslocando-se com a velocidade que possuem as partículas a determinada temperatura. Transformavam-se assim em neutrões térmicos ou lentos. Fermi descobriu também que esses neutrões lentos tinham maior probabilidade de ser absorvidos pelos núcleos do que os neutrões rápidos.

Fermi constatou ainda que quando um neutrão penetrava num núcleo, era geralmente emitida uma partícula beta (um electrão). A adição dum neutrão aumentava em 1 unidade o número de massa do núcleo. A emissão duma partícula beta, correspondendo à subtracção de 1 carga negativa, aumentava a carga nuclear (isto é, o número atómico) em 1 unidade. Por outras palavras, o bombardeamento com neutrões dum determinado elemento produzia geralmente o elemento que se encontrava imediatamente a seguir na escala de números atómicos.

Em 1934, Fermi pensou que seria interessante bombardear urânio com neutrões. O urânio, com número atómico 92, tinha o número atómico mais elevado que então se conhecia. Se o urânio fosse bombardeado com neutrões e emitisse partículas beta, não seria ele levado a transformar-se no elemento 93, que era desconhecido na Natureza?

Fermi realizou a experiência e pareceu-lhe ter efectivamente produzido o elemento 93. No entanto, os resultados dessa experiência foram complexos e confusos (como veremos adiante) e demoraram alguns anos a esclarecer totalmente.

O físico italiano Emilio Segrè (1905-1989), que trabalhara com Fermi, concluiu que não era necessário bombardear urânio com neutrões para criar um elemento desconhecido. Nessa época, em meados dos anos 30, existiam quatro espaços na tabela periódica que permaneciam vazios e que correspondiam a elementos desconhecidos. Destes, aquele que apresentava o número atómico mais baixo era o elemento 43.

Em 1925, um grupo de químicos alemães, que incluía Walter Karl Friedrich Noddack (1893-1960) e Ida Eva Tacke (1896-1978) anunciou a descoberta do elemento 75, a que deram o nome rénio, inspirado no nome latino do rio Reno, na Alemanha. Como se veio a verificar, tratava-se do último dos 81 elementos estáveis a ser descoberto. O grupo revelou igualmente ter encontrado vestígios do elemento 43, a que chamou masúrio, do nome latino duma região na parte oriental da Alemanha.

Esse anúncio, no entanto, revelar-se-ia infundado, e o elemento 43 continuou por descobrir. Assim sendo, pensou Segrè, por que não bombardear o elemento 42 (molibdénio) com neutrões, para ver se o elemento 43 podia pelo menos ser produzido, se não mesmo descoberto.

Em 1937, Segrè partiu para os Estados Unidos, a fim de bombardear molibdénio com neutrões utilizando uma nova técnica (que descreverei adiante). E, na verdade, conseguiu localizar o elemento 43 no material bombardeado. Contudo, hesitou em atribuir-lhe um nome, uma vez que não estava certo de que um elemento produzido artificialmente fosse equivalente à descoberta dum elemento na Natureza. Em 1947, todavia, o químico germano-britânico Friedrich Adolf Paneth (1887-1945) defendeu vigorosamente essa equivalência e o seu ponto de vista foi aceite. Assim sendo, Segrè resolveu chamar ao elemento 43 tecnécio, duma palavra grega que significa "artificial".

Dum modo ou doutro, foi possível produzir uma quantidade suficiente deste elemento para que as suas propriedades pudessem ser estudadas, tendo-se descoberto que três dos seus isótopos tinham vidas médias bastante longas. O mais duradoiro é o tecnécio-97 (com um núcleo contendo 43 protões e 55 neutrões), que tem uma vida média de 2 600 000 anos. A nossa escala, uma amostra deste isótopo parecerá eterna, uma vez que apenas uma sua fracção ínfima se desintegrará no decurso duma vida humana. Contudo, não existem isótopos estáveis de tecnécio, e mesmo o mais estável de todos, o tecnécio-97, não tem uma vida média suficientemente longa para se ter conservado desde a formação da Terra. Mesmo que nos primórdios do nosso planeta tivessem existido grandes quantidades do isótopo no solo, nada restaria actualmente. Isso é especialmente verdadeiro, uma vez que não existe nenhum isótopo de tecné-cio que se forme a partir doutro elemento radioactivo mais duradoiro.

As três vagas na tabela periódica que permaneciam abertas nessa época eram as que correspondiam aos elementos 61, 85 e 87. A identificação de qualquer um destes três elementos num ou noutro mineral fora ocasionalmente anunciada. No entanto, tais notícias tinham-se revelado sempre infundadas.

Em 1947, porém, o químico norte-americano Charles D. Coryell (1912-1971) e os seus colaboradores identificaram o elemento 61 nos produtos da desintegração do urânio após bombardeamento deste com neutrões (um tema a que regressaremos mais à frente). Resolveram chamar-lhe promécio, em homenagem ao deus grego Prometeu que trouxera o fogo do Sol e o oferecera à humanidade, uma vez que o elemento fora descoberto numa reacção nuclear - um "fogo" semelhante ao que vai consumindo o Sol. Nenhum dos isótopos do promécio é estável, e 1 mesmo o mais duradoiro, o promécio-145 (61 protões e 84 neutrões) tem uma vida média de apenas 17,7 anos.

Em 1939, a química francesa Marguerite Perey (1909-1975) localizou alguns vestígios do elemento 87 nos produtos de desintegração do urânio-235. Tratava-se dum produto muito secundário, a que ela deu a designação de frâncio por causa do seu país de origem. O isótopo que ela identificara era o frâncio-215 (87 protões, 128 neutrões). A sua vida média em pouco excede um milionésimo de segundo, pelo que Perey não detectou certamente o próprio isótopo. Aquilo que ela identificou foram as partículas alfa muito energéticas que ele produz (quanto mais curta é a vida média dum produtor de partículas alfa, maior a energia destas). A partir daí, e recorrendo àquilo que já se conhecia sobre o processo de desintegração, Perey foi capaz de deduzir qual o isótopo res- j ponsável. Mesmo o isótopo mais duradoiro do frâncio, o frâncio-223 (87 protões, 136 neutrões), possui uma vida média de apenas 21,8 minutos.

Em 1940, Segrè e outros produziram o elemento 85, mediante o bombardeamento de bismuto (elemento 83) com partículas alfa. O elemento 85 foi designado ástato, duma palavra grega que significa "instável", uma vez que, tal como todos os outros elementos descobertos desde 1925, essa era precisamente uma das suas características. O seu isótopo mais duradoiro, ástato-210 (85 protões, 125 neutrões), tem uma vida média de 8,1 horas.

Em 1948, portanto, a tabela periódica estava preenchida do hidrogénio (1) ao urânio (92), e tinham sido descobertos elementos para lá deste. Fermi estava convencido que produzira, em 1934, o elemento 93, mediante o bombardeamento de urânio com neutrões, mas só em 1940 o elemento foi efectivamente isolado pelos físicos norte-americanos Edwin Mattison McMillan (1907-1991) e Philip Hauge Abelson (n. 1913) em urânio bombardeado. Uma vez que o urânio fora assim chamado em homenagem ao recentemente descoberto planeta Urano, McMillan resolveu chamar neptúnio ao elemento 93, por causa de Neptuno, o planeta que se segue a Urano.

O neptúnio-237 constitui o isótopo mais duradoiro desse elemento, com uma vida média de 2 140 000 anos. Trata-se duma vida média razoavelmente longa, mas insuficiente para que subsista qualquer vestígio de neptúnio na crosta terrestre, mesmo que nos primórdios da Terra ele tivesse existido em quantidade apreciável. Ainda assim, o neptúnio-237 é um isótopo interessante, uma vez que a sua desintegração ocorre com a formação duma série de espécies intermédias, tal como sucede com o urânio-238, urânio-235 e tório-232.

Com efeito, o neptúnio-237 inicia a quarta série radioactiva atrás referida. O isótopo e todos os seus produtos de desintegração possuem números de massa divisíveis por 4, com resto 1. Existem apenas quatro séries radioactivas possíveis nesta região da tabela periódica: tório-232 (resto 0), neptúnio-237 (resto 1), urânio-238 (resto 2) e urânio-235 (resto 3). Destas, três existem actualmente, mas a do neptúnio-237 extinguiu--se, uma vez que mesmo o membro mais duradoiro da série não possui uma vida média suficientemente longa para que o isótopo ainda exista actualmente.

Um outro aspecto peculiar da série do neptúnio-237 é que se trata da única série que não termina num isótopo estável de chumbo. A série termina com bismuto-209, que é o único isótopo estável do bismuto.

Em 1940, o físico norte-americano Glenn Theodore Seaborg (1912--1999) juntou-se a McMillan, tendo ambos descoberto que alguns isótopos de neptúnio emitem partículas beta, transformando-se em isótopos com o mesmo número de massa, mas com um número atómico acrescido de 1 unidade. Foi assim que descobriram o elemento 94, que baptizaram de plutónio, por causa do planeta Plutão, aquele que se segue a Neptuno. O seu isótopo mais duradoiro é o plutónio-244 (94 protões, 150 neutrões), com uma vida média de 82 000 000 anos. Em 1951, McMillan e Seaborg partilharam um Prémio Nobel pela sua descoberta dum elemento transurânico (isto é, que vem depois do urânio).

McMillan resolveu dedicar-se a outras actividades, mas Seaborg e outros continuaram a produzir novos elementos. Foram isolados os seguintes elementos transplutónicos:

- O amerício (em homenagem à América), com número atómico 95. O seu isótopo mais duradoiro é o amerício-243 (95 protões, 148 neutrões), com uma vida média de 7370 anos.

- O cúrio (em homenagem aos Curie), com número atómico 96. O seu isótopo mais duradoiro é o cúrio-247 (96 protões, 151 neutrões), com uma vida média de 15 600 000 anos.

- O berquélio (de Berkeley, na Califórnia, onde foi descoberto), com número atómico 97. O seu isótopo mais duradoiro é o berquélio-247 (97 protões, 150 neutrões), com uma vida média de 1400 anos.

- O califórnio (de Califórnia, o estado onde foi descoberto), com número atómico 98. O seu isótopo mais duradoiro é o califórnio-251 (98 protões, 153 neutrões), com uma vida média de 890 anos.

- O einstânio (em homenagem a Albert Einstein), com número atómico 99. O seu isótopo mais duradoiro é o einstânio-252 (99 protões, 153 neutrões), com uma vida média de 1,29 anos.

- O férmio (em homenagem a Enrico Fermi), com número atómico 100. O seu isótopo mais duradoiro é o férmio-257 (100 protões, 157 neutrões), com uma vida média de 100,5 dias.

- O mendeleévio (em homenagem a Dmitri Mendeleev), com número atómico 101. O seu isótopo mais duradoiro é o mendeleévio-258 (101 protões, 157 neutrões), com uma vida média de 56 dias.

- O nobélio (em homenagem a Alfred Nobel, o criador dos prémios que levam o seu nome), com número atómico 102. O seu isótopo mais duradoiro até agora detectado é o nobélio-259 (102 protões, 157 neutrões), com uma vida média de cerca de 58 minutos.

- O laurêncio (em homenagem a Ernest Lawrence, de que falarei mais à frente nesta obra), com número atómico 103. O seu isótopo mais duradoiro até agora detectado é o laurêncio-260 (103 protões, 157 neutrões), com uma vida média de 3 minutos.

- O rutherfórdio (em homenagem a Ernest Rutherford), com número atómico 104- O seu isótopo mais duradoiro até agora detectado é o rutherfórdio-261 (104 protões, 157 neutrões), com uma vida média de 65 segundos.

- O hânio (em homenagem a Otto Hahn), com número atómico 105. O seu isótopo mais duradoiro até agora detectado é o hânio-262 (105 protões, 157 neutrões), com uma vida média de 34 segundos.

O elemento 106 foi encontrado, mas existem dois grupos que reivindicam a sua descoberta. A questão ainda não está resolvida e até isso acontecer, não existe nome oficial para ele. O seu isótopo mais duradoiro, até agora detectado, tem número de massa 263 (106 protões, 157 neutrões), com uma vida média de 0,8 segundos.

Não se sabe ao certo quão mais longe os cientistas poderão ir. A medida que os números atómicos aumentam, os elementos são mais difíceis de produzir e, uma vez que as suas vidas médias tendem a ser menores, mais difíceis de estudar. No entanto, existe alguma pressão no sentido de se chegar aos elementos 110 e 114, visto que existem argumentos muito fortes que levam a supor que alguns dos isótopos desses elementos poderão ter vidas médias longas ou mesmo ser estáveis.


7. DESINTEGRAÇÕES


Perda de Massa

Tal como atrás se indicou, o padrão actualmente utilizado para medir pesos atómicos é o carbono-12. O número de massa do carbono-12 é definido como sendo 12,0000 e todos os outros números de massa são medidos em relação a ele. Os pesos atómicos, que são médias ponderadas dos números de massa dos isótopos dum determinado elemento, são também medidos em relação ao padrão carbono-12.

O átomo de carbono-12 possui 12 partículas no seu núcleo: 6 protões e 6 neutrões. Em média, cada uma das partículas deveria ter, portanto, uma massa de 1,0000 para que a massa das doze perfizesse 12,0000. No entanto, os espectrómetros de massa modernos, capazes de medir individualmente a massa dos protões que descrevem trajectórias curvas num campo magnético de intensidade conhecida, indicam que a massa do protão não é 1,0000 mas 1,00734.

Como não possuem carga, os neutrões não descrevem trajectórias curvas quando atravessam um campo magnético. No entanto, a sua massa pode ser calculada por outros métodos. Em 1934, Chadwick mediu a quantidade exacta de energia necessária para separar o protão do neutrão num núcleo de hidrogénio-2. A massa dum núcleo de hidrogé-nio-2 é conhecida. Se lhe subtrairmos a massa do protão e adicionarmos a massa da energia necessária para o desintegrar (calculada a partir da equação de Einstein que relaciona massa e energia) obtemos a massa do neutrão.

Verificou-se assim que a massa do neutrão era 1,00867. Por outras palavras, o protão e o neutrão não possuem exactamente a mesma massa. O neutrão é cerca de 1/7 de 1 por cento mais maciço do que o protão (algo que , como veremos, é importante).

Se imaginarmos agora 6 protões e 6 neutrões, considerando-os partículas independentes, e adicionarmos as suas massas individuais, obtemos uma massa total de 12,096. No entanto, se os juntarmos uns aos outros num núcleo de carbono-12, a massa total é de 12,0000.

A massa do núcleo de carbono-12 é inferior em 0,096 ao valor que teria se as massas individuais das partículas que o constituem fossem adicionadas. Trabalhando com o seu espectrógrafo de massa, Aston descobriu, em 1927, que todos os núcleos apresentavam massas ligeiramente inferiores àquelas que resultariam da soma das massas individuais das partículas constituintes. Aston designou este facto perda de massa.

A que fracção da massa total do carbono-12 corresponde a perda de massa deste núcleo? Essa fracção é dada por 0,096 dividido por 12, ou seja 0,008. Para não terem de trabalhar com números tão pequenos, os cientistas multiplicam valores como este por 10 000. O resultado final é 80, a que se chama fracção de síntese do carbono-12.

1. O núcleo do carbono-12 é constituído por 6 protões e 6 neutrões. As suas massas individuais somadas dão um valor de 12,096.

2. Quando as partículas estão juntas num núcleo, a massa total é de apenas 12,000. Chama-se perda de massa a este fenómeno.

Se começarmos com o hidrogénio-1 e o seu núcleo constituído por um único protão e formos avançando na lista dos isótopos estáveis, verificamos que a fracção de síntese vai aumentando até chegarmos ao ferro-56. O ferro-56 tem um núcleo constituído por 26 protões e 30 neutrões. Se estas partículas forem consideradas separadamente, a massa total é de 56,4509. O valor experimental da massa do núcleo do ferro-56 é, todavia, 55,9349. A perda de massa é portanto de 0,5260 (cerca de metade da massa dum protão). A fracção de síntese, que se obtém dividindo 0,5260 por 55,9349 e multiplicando por 10 000, é de 94,0. Nos isótopos estáveis que se seguem ao ferro-56, a fracção de síntese diminui gradualmente. Quando chegamos ao urânio-238, a fracção de síntese é de apenas 79,4.

O que acontece à massa que desaparece quando protões e neutrões se juntam num núcleo? Só lhe pode acontecer uma coisa: a sua transformação em energia, de acordo com a equação de Einstein. Por outras palavras, se um núcleo de carbono-12 se formar a partir de 6 protões e 6 neutrões, uma pequena fracção da massa dessas partículas converte--se em energia que se dissipa no espaço circundante. Os processos de dissipação de energia tendem a ocorrer espontaneamente (embora nem sempre de forma rápida). Isto significa que, sob condições adequadas, existe uma tendência para protões e neutrões se combinarem, formando núcleos.

Por outro lado, é necessário fornecer uma determinada quantidade de energia a um núcleo atómico para o desintegrar nos seus protões e neutrões constituintes. Essa energia é exactamente igual à energia que é dissipada na formação desse mesmo núcleo. Mas como é que a energia dissipada pode ser reunida de novo e concentrada no volume mínimo dum núcleo? Tal não sucede, excepto em circunstâncias muito especiais; ou seja, os núcleos não tendem a desintegrar-se nos seus protões e neutrões constituintes. Dum modo geral, os núcleos conservam a sua identidade indefinidamente, uma vez formados.

No entanto, um núcleo não necessita de se desintegrar nas partículas constituintes para perder a sua identidade. O que acontece se adquirir ou libertar um protão ou neutrão? Um tal evento, possivelmente acompanhado duma dissipação adicional de energia, é suficiente para transformar um núcleo noutro. Pode-se portanto dizer que quando um núcleo se transforma noutro, com uma fracção de síntese mais elevada, existe uma dissipação adicional de energia e, portanto, uma certa tendência para essa transformação ocorrer.

Seria assim de esperar que os núcleos com números de massa muito baixos tivessem tendência a transformar-se noutros com números de massa mais elevados, enquanto que os núcleos com números de massa muito elevados tenderiam a transformar-se noutros com números de massa mais baixos. Os núcleos numa e noutra extremidades da escala de números de massa convergiriam assim para o ferro-56. O ferro-56, por sua vez, com o valor máximo da fracção de síntese, exigiria um suplemento de energia para se tornar maior ou mais pequeno.

Uma tendência não precisa, contudo, de ser observada na realidade. Se estivermos num declive, temos tendência para escorregar por ele abaixo. Mas se o terreno for pedregoso e irregular e nós calçarmos sapatos com solas de borracha, a fricção que se gera impede-nos de deslizar, apesar da tendência supracitada. Por outro lado, se o declive for mais acentuado ou se a sua superfície gelar, a fricção poderá não ser suficiente para nos manter no mesmo sítio e teremos de novo tendência a deslizar encosta abaixo.

Consideremos outro exemplo: a tendência que o papel tem para arder, ou seja, para se combinar com o oxigénio da atmosfera. Note-se que as transformações químicas necessárias para produzir o efeito de combustão não têm lugar à temperatura ambiente, sendo necessária uma energia de activação. (Trata-se duma espécie de fricção que impede uma transformação química que "devia" ocorrer na realidade.) No entanto, se o papel for aquecido, mais e mais energia é transferida para ele e, por fim, o valor da energia de activação é ultrapassado e o papel inflama-se.

Quando uma porção do papel está em chamas, gera-se calor suficiente para servir de energia de activação nas regiões adjacentes, que se inflamam por sua vez, fazendo alastrar a chama. O papel pode assim continuar a arder indefinidamente, sem que seja necessário fornecer do exterior energia suplementar. O proverbial cigarro mal apagado que acaba por queimar uma floresta inteira é uma situação real bem conhecida. Este processo, em que uma reacção química produz aquilo que é necessário para se auto-sustentar, é designado reacção em cadeia.

No caso dos núcleos, existem factores que impedem que a sua tendência natural para "deslizar" para o ferro-56 se concretize. Isso aplica-se, em particular, aos núcleos mais leves, por motivos que serão adiante explicados.

No caso dos núcleos maciços, essa tendência concretiza-se mais facilmente. Na verdade, tal sucede a todos os núcleos conhecidos mais maciços do que o bismuto-209. Os núcleos mais maciços têm tendência para emitir partículas de tal forma que os novos núcleos que se formam são mais pequenos e, por conseguinte, possuem uma fracção de síntese mais elevada do que o núcleo original. Deste modo, produz-se energia que é dissipada.

Quanto maior for a dissipação de energia na transformação dum núcleo noutro, mais provável é essa transformação, mais rapidamente ela tem lugar e mais curta é a vida média do núcleo original. Nos casos do tório-232, urânio-235 e urânio-238, a transformação inicial implica uma dissipação de calor tão pequena que as suas vidas médias são muito longas. No entanto, nem mesmo nestes casos as vidas médias são infinitas e a transformação referida acaba por ocorrer, embora lentamente. (A título de analogia, note-se que o papel, embora não se inflame à temperatura ambiente, sofre muito lentamente alterações. De vez em quando pode ter lugar uma reacção química, apesar da energia de activação não ser suficiente. E, desse modo, as páginas dum livro vão com frequência ficando mais amareladas e quebradiças à medida que os anos passam, até se desfazerem numa cinza que é o resultado dessa "combustão" muito lenta. Podemos por isso dizer que as moléculas de papel possuem uma "vida média de combustão" à temperatura ambiente, que será longa do ponto de vista do leitor, mas que é muito mais curta do que a do urânio-238.)

Em resumo: o tipo de radioactividade natural descoberta na última década do século XIX transforma os núcleos com números de massa entre 232 e 238 noutros com números de massa entre 206 e 208. Nesses processos, o valor da fracção de síntese aumenta, pelo que os protões e neutrões nos núcleos formados possuem uma massa ligeiramente inferior à dos núcleos originais. A massa em falta é dissipada sob a forma de energia, ficando assim explicada a origem da energia produzida pela radioactividade.


Fissão Nuclear

 

Referi anteriormente o facto de Enrico Fermi ter, em 1934, bombardeado urânio com neutrões lentos a fim de criar o elemento 93 (identificado de forma definitiva seis anos mais tarde e baptizado neptúnio).

Fermi pensava ter produzido o elemento - o que, num certo sentido, era verdade - mas os estudos do urânio bombardeado revelavam uma mistura tão confusa de partículas que era difícil localizar nela com precisão o elemento 93. (Ainda assim, Fermi foi galardoado com um Prémio Nobel em 1938 pelo seu trabalho.)

Ida Tacke (uma das co-autoras da descoberta do elemento rénio) suspeitou que o núcleo de urânio era tão complexo e, por conseguinte, tão instável, que aquilo que sucedera na experiência de Fermi fora que, ao absorver um neutrão, aquele se desintegrara em diversos fragmentos. Todavia, um tal fenómeno era tão diferente de tudo quanto até então se observara nas desintegrações nucleares que ninguém lhe prestou muita atenção.

Contudo, no início de 1937, a equipa de Hahn e Meitner, na Alemanha, resolveu estudar o problema. (Meitner era judia, mas de nacionalidade austríaca, pelo que estava temporariamente a salvo de Adolf Hitler (1889-1945) - que então governava a Alemanha - e das suas sinistras políticas anti-semitas.)

Hahn estava convencido de que aquilo que acontecera no caso do bombardeamento do urânio por neutrões era uma perda de duas partículas alfa em vez de apenas uma. Era o mais longe que ele se atrevia a avançar na direcção da ideia duma fragmentação sugerida por Tacke. A perda de duas partículas alfa reduziria em 4 unidades o número atómico do urânio, de 92 para 88 - o valor do rádio. Se a suposição de Hahn estivesse correcta, deveriam existir quantidades ligeiramente superiores de rádio no urânio bombardeado do que os vestígios resultantes das transformações radioactivas habituais.

Como é que tais quantidades mínimas de rádio podiam ser detectadas e a sua quantidade medida? Marie Curie isolara vestígios de rádio em minério de urânio, mas trabalhara com toneladas de minério. Hahn e Meitner possuíam apenas uma pequena quantidade de urânio bombardeado.

Ora acontece que, na tabela periódica, o rádio está colocado logo por baixo do bário, um elemento estável, possuindo os dois elementos propriedades químicas muito semelhantes. Se o urânio bombardeado for dissolvido em ácido e se adicionarmos bário à solução, é possível recuperar de novo o bário através de procedimentos químicos simples e com ele virá o rádio. (O rádio comporta-se de modo análogo ao bário.)

Assim, se Hahn e Meitner utilizassem bário perfeitamente estável e obtivessem bário claramente radioactivo, saberiam que com ele tinha sido extraído rádio. A partir da quantidade de radioactividade presente (e facilmente mensurável) podiam determinar a quantidade de rádio obtida. Contudo, antes que esta experiência pudesse ser realizada, a Alemanha nazi invadiu a Áustria, anexando-a em Março de 1938. Meitner ficou à mercê do anti-semitismo de Hitler, o que a levou a atravessar a fronteira para os Países Baixos e a viajar, a partir daí, para Estocolmo, na Suécia.

Hahn prosseguiu o trabalho com o químico alemão Fritz Strassman (1902-1980). Adicionaram bário estável à solução e obtiveram bário radioactivo, a partir do qual puderam calcular a quantidade de rádio extraída. Depois, para concluírem a demonstração, havia que separar o rádio do bário e produzir uma solução contendo apenas rádio.

No entanto, foi impossível obter tal separação. Todas as tentativas de Hahn e Strassman para separar o rádio do bário falharam. Hahn conclui que se processo algum era capaz de separar o bário estável do rádio radioactivo, então os átomos radioactivos não eram de rádio, mas de bário - ou, mais precisamente, dum radioisótopo de bário. (Hahn recebeu um Prémio Nobel em 1944 pelo seu trabalho.)

Mas como é que o urânio se podia desintegrar e dar origem a bário? O número atómico do bário é 56. Para tal suceder, o urânio (número atómico 92) teria de emitir 18 partículas alfa ou cindir-se em dois. Ambas as alternativas pareciam tão improváveis que Hahn não se atreveu a formulá-las publicamente.

Na mesma altura, em Estocolmo, Meitner estava a chegar precisamente à mesma conclusão quando recebeu a notícia de que haviam falhado as tentativas de separação do suposto rádio do bário. E Meitner resolveu publicar as suas ideias. Com a ajuda do sobrinho, o físico Otto Robert Frisch (1904-1979), Meitner preparou uma carta, datada de 16 de Janeiro de 1939, que enviou à revista científica britânica Nature. Frisch, que trabalhava no laboratório de Bohr em Copenhaga, informou este sobre o conteúdo da mesma, antes ainda dela ser publicada. Bohr partiu para os Estados Unidos para participar numa conferência sobre física em Washington, D.C. a 26 de Janeiro de 1939 e, aí chegado, passou palavra - também ele antes da publicação da carta.

Entretanto, na Grã-Bretanha, o físico húngaro Leo Szilard (1898--1964) - que, como Meitner, fugira da Alemanha por ser judeu - reflectia sobre aquilo a que H. G. Wells chamara, numa obra de ficção científica, uma bomba atómica. Szilard achava que uma tal bomba podia ser criada se um neutrão atingisse um núcleo atómico, provocando uma transformação que levasse à emissão de dois neutrões, os quais, atingindo dois outros núcleos, provocariam a emissão de quatro neutrões, e assim por diante. O número de desintegrações por segundo e a energia libertada aumentariam rapidamente para valores enormes, provocando uma gigantesca explosão. Szilard estava, na verdade, a visualizar uma reacção nuclear em cadeia.

Szilard chegou mesmo a patentear o processo. E pediu ajuda a outro judeu, o bioquímico russo-britânico Chaim Weizmann (1874-1952), que tentou realizar as experiências necessárias. No entanto, não foi bem sucedido. Os núcleos apenas absorviam neutrões rápidos e com muita energia, libertando outros mais lentos que não possuíam energia suficiente para sustentar a reacção.

Foi então que Szilard soube da desintegração do núcleo de urânio em resultado da absorção dum neutrão. (Esta divisão do núcleo em duas partes quase iguais ficaria conhecida como fissão, duma expressão latina que significa dividir. Falamos frequentemente da fissão do urânio, mas os núcleos de urânio não são os únicos sujeitos a tal fenómeno, sendo por isso preferível usar a designação mais genérica de fissão nuclear.)

Szilard percebeu imediatamente que com o urânio era possível realizar a reacção nuclear em cadeia que visualizara. Era um neutrão lento que provocava a cisão do núcleo de urânio e em breve se descobriu que, nesse processo, eram libertados dois ou três neutrões lentos por cada núcleo cindido.

Em 1940, Szilard conseguiu convencer os físicos americanos a imporem um regime de autocensura quanto às suas investigações no domínio da fissão nuclear, com receio de que os físicos alemães pudessem beneficiar dos seus trabalhos e dar a Adolf Hitler um novo tipo de bomba absolutamente devastador. (A Segunda Guerra Mundial já tinha começado e a Alemanha somava êxitos nos campos de batalha, enquanto os Estados Unidos permaneciam ainda neutrais.)

Em seguida, Szilard teve de persuadir o governo dos Estados Unidos a disponibilizar fundos muito consideráveis para os trabalhos de investigação. Obteve para tal a ajuda de dois outros húngaros fugidos ao nazismo: Eugene Paul Wigner (1902-1995) e Edward Teller (1908-2003). Em 1939, os três visitaram Albert Einstein, também ele um refugiado. Einstein, como único cientista cujas palavras seriam certamente escutadas, aceitou escrever uma carta ao Presidente Franklin Delano Roosevelt (1882-1945). Roosevelt recebeu a carta, ponderou os argumentos expostos, ficou convencido e, num sábado no final de 1941, assinou o decreto presidencial que deu origem àquilo que ficou conhecido como Projecto Manhattan - um nome deliberadamente inócuo destinado a esconder os verdadeiros propósitos da iniciativa.

Os esforços de Szilard tinham sido bem sucedidos, mas por uma unha negra. Com efeito, não é com frequência que se trabalha ao sábado. E se Roosevelt tivesse adiado para segunda-feira a assinatura do decreto, é bem provável que não o tivesse feito - uma vez que o sábado em que assinou a ordem foi o dia 6 de Dezembro de 1941 e, no dia seguinte, os Japoneses atacaram Pearl Harbour. Ninguém sabe, em tais circunstâncias, quando é que o Presidente Roosevelt teria condições para pensar de novo no assunto. Seja como for, o projecto avançou e, em Julho de 1945, estava pronta uma bomba atómica (ou, mais correctamente, uma bomba de fissão nuclear), já depois da Alemanha ter sido esmagada e Hitler se ter suicidado. Foi usada para dar o golpe final num Japão virtualmente derrotado, nos dias 6 e 8 de Agosto de 1945.

Quando um núcleo de urânio se cinde, não o faz sempre da mesma maneira. A fracção de síntese entre os núcleos de dimensão média não varia grandemente, e o núcleo de urânio pode bem cindir-se dum modo num determinado caso e dum modo ligeiramente diferente noutro. Por esse motivo, produz-se durante a fissão do urânio uma mistura contendo uma grande variedade de radioisótopos. Estes são colectivamente designados produtos de fissão.

Existe uma maior probabilidade da divisão ser ligeiramente desigual, com uma parte mais maciça com massa entre 135 a 145, e uma parte menos maciça com massa entre 90 e 100. Foi na parte mais maciça que o elemento promécio foi localizado em 1948.

Em resultado duma fissão nuclear, o núcleo de urânio sofre uma redução mais acentuada da sua fracção de síntese do que na sua desintegração radioactiva natural que dá origem a chumbo. Por isso, a fissão do urânio liberta consideravelmente mais energia do que a radioactividade natural do urânio. (A fissão nuclear pode também libertar essa energia muito mais rapidamente se forem criadas as condições para uma reacção em cadeia. Nesse caso, a energia que a radioactividade natural do urânio levaria milhares de milhões de anos a libertar é-o numa fracção de segundo.)

Mas se na fissão nuclear é libertada mais energia do que na radioactividade natural, por que razão é que o núcleo de urânio não se desintegra naturalmente por fissão, em vez de emitir uma série de partículas alfa e beta? A resposta é que o processo de fissão nuclear implica uma energia de activação mais elevada. A energia de activação necessária pode ser fornecida se um neutrão penetrar num núcleo, alterar a sua natureza e o puser a vibrar, mas não de outro modo. Pelo menos, quase nunca de outro modo. Apesar da energia de activação elevada, dá-se muito ocasionalmente a fissão espontânea dum núcleo de urânio que, desse modo, atravessa, por assim dizer, a barreira da energia de activação. No entanto, isso só acontece muito raramente. Um núcleo de urânio-238 sofre uma fissão espontânea por cada 220 vezes que tais núcleos emitem partículas alfa. Esta fissão espontânea foi detectada pela primeira vez em 1941 pelo físico soviético Georgii Nikolaevich Flerov (1913-1990).

Tal como existem núcleos radioactivos que possuem vidas médias muito mais curtas do que outros, também existem alguns que apresentam uma maior tendência para se cindirem espontaneamente. Os isótopos transurânicos, por exemplo, são muito mais instáveis: não apenas no que se refere à radioactividade natural, mas também relativamente à fissão espontânea. Enquanto que a vida média de fissão espontânea do urânio-238 é de cerca dum bilião de anos, a do cúrio-242 é de 7 200 000 anos e a do califórnio-250 de apenas 15 000 anos.

O urânio-238 cinde-se com tal dificuldade que mesmo um bombardeamento com neutrões é insuficiente para provocar uma fissão em proporções significativas. São necessários neutrões rápidos e com muita energia para obter esse efeito e como do processo apenas resultam neutrões lentos, uma reacção em cadeia torna-se impossível.

Pouco tempo depois do fenómeno da fissão ter sido identificado, foi Bohr quem chamou a atenção para o facto de, em termos teóricos, a reacção em cadeia se dever ao urânio-235. O urânio-235 é menos estável do que o urânio-238. O urânio-235 tem uma vida média que é apenas 1/6 da do urânio-238, e mesmo um neutrão lento provoca a sua cisão. Na verdade, um dos aspectos mais difíceis no desenvolvimento da bomba de fissão foi a separação do urânio-235 do urânio-238, uma vez que o urânio, tal como ocorre na Natureza, não possui urânio-235 em quantidade suficiente para sustentar uma reacção em cadeia.

No entanto, é possível bombardear urânio-238 com neutrões de modo a formar primeiro neptúnio-239 e depois plutónio-239. O plutónio-239 possui uma vida média de mais de 24 000 anos, suficientemente longa por tanto para que se possa acumular em quantidades significativas. Tal como o urânio-235, o plutónio-239 pode ser cindido com neu-trões lentos.

A fissão com neutrões lentos também não é possível no caso do tório-232. Todavia, quando o tório-232 é bombardeado com neutrões, pode transformar-se em tório-233 que se converte, por sua vez, em urânio-233.0 urânio-233 foi identificado pela primeira vez por Seaborg em 1942. Possui uma vida média de 160 000 anos e pode ser cindido com neutrões lentos.

Por outras palavras, todo o urânio e tório existentes no mundo podem, teoricamente, ser convertidos em núcleos cindíveis e, se tal for feito de modo controlado, gerar energia útil em vez duma simples explosão. O tório e o urânio não são elementos muito comuns mas, se considerados em conjunto, podem potencialmente produzir dez vezes mais energia do que a totalidade das reservas mundiais de carvão, petróleo e gás natural.

Nos anos 50 começaram a ser construídos reactores nucleares que produzem energia sob condições controladas e, actualmente, uma percentagem significativa da energia mundial é gerada nesses reactores. A segurança constitui, evidentemente, uma preocupação. (O acidente em Three-Mile Island nos Estados Unidos, em 1979, e a catástrofe ocorrida em Chernobyl, na União Soviética, em 1986, provocaram alarme considerável.) Existe, além disso, a questão da eliminação de quantidades crescentes de produtos de fissão, que são perigosamente radioactivos. Pelas razões expostas, o futuro da energia de fissão parece actualmente problemático. Há, todavia, um outro tipo de energia nuclear que poderá revelar-se tão útil como a fissão e que é intrinsecamente mais seguro.


Fusão Nuclear

 

Tanto a radioactividade natural como a fissão nuclear afectam núcleos com números de massa elevados. Uma e outra correspondem a transformações que originam núcleos mais estáveis e com números de massa intermédios. Nesses processos existe perda de massa e produção e dissipação de energia. A combinação de núcleos com números de massa pequenos, ou a sua fusão, para dar origem a núcleos mais maciços, também é possível. Este processo corresponde igualmente a uma trans-formação em que são produzidos núcleos mais estáveis e de números de massa intermédios. Também neste caso há perda de massa e produção e dissipação de energia.

Com efeito, se a fracção de síntese aumenta gradualmente quando se passa dos grandes números de massa para números de massa intermédios, esse aumento é muito mais acentuado quando se passa dos pequenos números de massa para valores intermédios. Tal significa que a fusão nuclear é capaz de produzir mais energia a partir duma dada massa de material do que a fissão nuclear.

Vejamos como é que isso funciona, tomando como exemplo um núcleo de hidrogénio-2 (1 protão e 1 neutrão) que se funde com outro núcleo de hidrogénio-2 para dar origem a um núcleo de hélio-4 (2 protões mais 2 neutrões). O número de massa do hidrogénio-2 é 2,0140 e o de dois núcleos 4,0280. Todavia, o hélio-4 apresenta uma fracção de síntese invulgarmente elevada para as suas dimensões, pelo que o seu número de massa é de apenas 4,0026. A redução do número de massa quando se passa de dois núcleos de hidrogénio-2 para um núcleo de hélio-4 é de 4,0280 - 4,0026 " 0,0254. Este valor corresponde a 0,63 por cento da massa original de 4,028. Tal poderá não parecer grande coisa (ao fundir-se para dar origem a hélio-4, o hidrogénio-2 só perde 5/8 de 1 por cento da sua massa) mas, na verdade, representa uma quantidade considerável. O declínio radioactivo natural do urânio-238, que dá origem a chumbo-206, resulta numa redução de apenas 0,026 por cento da massa original, enquanto que a fissão nuclear do urânio-235 resulta na perda de apenas 0,056 por cento da massa original. O que significa que a fusão do hidrogénio é capaz de produzir, para uma mesma massa, cerca de 24 vezes mais energia do que a radioactividade natural e 11 vezes mais do que a fissão do urânio.

A energia que pode ser produzida em processos de fusão nuclear revelou-se crucial para uma melhor compreensão do Universo, antes ainda dessa outra fonte de energia, a fissão nuclear, ter sido descoberta. As coisas passaram-se como a seguir se relata.

Desde a formulação da lei de conservação da energia em 1847 que os cientistas se interrogavam sobre a origem da energia irradiada pelo Sol. A radiação solar acompanhara a história da humanidade e os estudos geológicos indicavam que ela já existia muito antes do aparecimento de seres humanos.

Nenhuma das fontes de energia conhecidas no século XIX era capaz de explicar o facto do Sol se ter mantido em combustão durante mais de cem milhões de anos, um valor que, como se veio a revelar, só pecava por defeito. Durante a primeira década do século XX, os cientistas começaram a determinar a idade de rochas e meteoritos medindo o declínio radioactivo que neles ocorrera. Em breve chegaram à conclusão de que o nosso sistema solar (incluindo a Terra e o Sol) tinha uma idade de vários milhares de milhões de anos. A melhor estimativa actualmente disponível aponta para uma idade de 4 550 000 000 anos.

Tanto a fissão, a cisão dum átomo (em cima), como a fusão, a junção de núcleos (em baixo), libertam energia. Para uma mesma massa, a fusão do hidrogénio pode produzir onze vezes mais energia do que a fissão do urânio.

 

Por volta de 1910, já se sabia que a energia nuclear era a forma de energia mais poderosa conhecida. Em 1920, o astrónomo britânico Arthur

Stanley Eddington (1882-1944) aventou a hipótese da energia do Sol resultar da fusão de hidrogénio para dar origem a hélio. Essa possibilidade foi-se tornando cada vez mais plausível à medida que a década avançava. Quando Aston formulou o conceito de fracção de síntese, ficou claro que a fusão do hidrogénio para produzir hélio constituía a única reacção nuclear simples capaz de gerar energia suficiente para alimentar o Sol.

Em 1929, o astrónomo norte-americano Henry Norris Russell (1877--1957) determinou a composição química do Sol através duma análise cuidadosa do seu espectro luminoso, tendo descoberto que o astro era constituído maioritariamente por hidrogénio. Cerca de 90 por cento dos átomos no Sol são de hidrogénio e 9 por cento são de hélio. Todos os outros elementos juntos perfazem o 1 por cento remanescente. Tal significa não só que a fusão do hidrogénio para dar hélio é a única reacção nuclear simples capaz de gerar energia suficiente, como é a única reacção nuclear significativa que pode ocorrer no Sol. Ou é a fusão do hidrogénio, ou não é nada.

Em 1938, o físico germânico-americano Hans Albrecht Bethe (n. 1906) propôs uma descrição dos processos que devem ter lugar no centro do Sol, baseando o seu modelo naquilo que se conhecia dos estudos laboratoriais de reacções nucleares e em inferências astronómicas acerca das condições no centro do astro. Esses trabalhos valeram-lhe um Prémio Nobel em 1967.

Crê-se actualmente que a maioria das estrelas normais estão constantemente a fundir hidrogénio, que pode servir de fonte de energia durante milhares de milhões de anos. As condições no centro dalgumas estrelas, sobretudo das mais maciças, acabam por se tornar tais que os núcleos de hélio se fundem por sua vez originando núcleos mais maciços, tais como os de carbono, oxigénio, néon, silício até chegar ao ferro (onde o processo pára, uma vez que a fracção de síntese atinge o seu valor máximo).

A fonte de energia das estrelas muito maciças, que foram tão longe quando podiam no processo de fusão nuclear, começa então a falhar. As estrelas deixam de ser capazes de suportar o peso das suas próprias camadas exteriores, sofrendo um colapso. Durante este processo, todo o hidrogénio ainda existente nas camadas exteriores (juntamente com outros átomos de número de massa inferior ao do ferro) funde-se duma só vez. O resultado é a libertação súbita duma quantidade gigantesca de energia - uma enorme explosão que designamos supernova. Grande parte do material das estrelas que explodem é cuspido para o espaço circundante pela própria explosão, enquanto que a porção remanescente colapsa para dar origem a um objecto de reduzidas dimensões denominado estrela de neutrões, ou a um objecto mais pequeno ainda chamado buraco negro.

Hoje em dia pensa-se que, na altura em que surgiu o Universo, se formaram unicamente núcleos de hidrogénio e hélio. Os núcleos mais maciços surgiram apenas no centro das estrelas, e foi somente porque algumas dessas estrelas mais maciças explodiram que tais núcleos se juntaram aos gases, poeiras e outros resíduos que povoam o espaço. Com efeito, quando se dá a explosão duma supernova, é libertada uma quantidade tal de energia que os núcleos de ferro são "empurrados para cima" no sentido da formação de núcleos ainda mais maciços - núcleos que podem ir até ao elemento urânio e para lá dele - e que são igualmente dispersados no espaço circundante.

A partir dos gases e poeiras interestelares, que contêm núcleos maciços dispersados pelas explosões das supernovas, podem depois formar-se novas estrelas. Quando tal sucede, estamos na presença de estrelas de segunda geração. Estas estrelas e os seus planetas contêm grandes quantidades de núcleos maciços.

O nosso Sol é uma dessas estrelas de segunda geração. A Terra e nós próprios somos constituídos quase inteiramente por núcleos maciços que se formaram em tempos no centro duma estrela gigante e foram depois espalhados pelo espaço em resultado duma enorme explosão.

Mas se a fusão do hidrogénio produz tanta mais energia do que a radioactividade natural, por que razão é que ela não ocorre de modo espontâneo e muito mais rapidamente do que esta? Na Terra, o urânio e o tório desintegram-se lentamente originando núcleos menos maciços e, de vez em quando, sofrem até fissão espontânea. O hidrogénio, pelo contrário, permanece estável e não dá quaisquer sinais de se fundir.

Não é difícil perceber a razão de tal comportamento. Os núcleos maciços como os de urânio e tório têm todos os seus protões e neutrões concentrados num mesmo ponto. Quaisquer transformações que possam ocorrer entre eles acontecem mesmo. No caso da fusão do hidrogénio, porém, dois núcleos de hidrogénio-2, ou quatro núcleos de hidrogénio-1, que existem afastados uns dos outros, têm de possuir energia suficiente para vencerem a barreira electrónica, a repulsão mútua entre os núcleos e ainda para colidirem com força suficiente e iniciarem um processo de fusão. À temperatura ambiente, os movimentos desses átomos só possuem uma pequeníssima fracção da energia necessária.

Com efeito, a temperatura tem de ser muito elevada - da ordem dos milhões de graus - para que essa energia seja fornecida. Mesmo assim, é conveniente comprimir os átomos de hidrogénio para densidades muito elevadas, de modo a que haja um número enorme de colisões entre núcleos movendo-se dum lado para o outro e separados por distâncias anormalmente pequenas. Tais condições existem no centro das estrelas. Em 1926, Eddington demonstrou de forma convincente que o Sol era integralmente gasoso. No centro do Sol, as temperaturas e pressões são tão elevadas que os átomos se desintegram. Os electrões são esmagados uns contra os outros e os núcleos aproximam-se livremente.

Crê-se actualmente que a temperatura no centro do Sol é de cerca de 15 000 000 ºC e a sua densidade de cerca de 160 gramas por centímetro cúbico, ou seja, cerca de 8 vezes a densidade do ouro. (E, todavia, esse centro é gasoso porque os átomos estão desfeitos e os núcleos se deslocam tão livremente como o fazem átomos intactos nos gases comuns.) Sob tais condições, têm lugar processos de fusão à superfície da pequena massa de hélio existente no centro do Sol, constituída pelo hélio que fazia originalmente parte deste e por aquele que se foi formando por fusão de hidrogénio ao longo dos últimos 4,55 milhares de milhões de anos.

Ora, se nós quisermos provocar uma reacção de fusão aqui na Terra, como é que devemos proceder? Como é que obtemos uma temperatura e pressão suficientemente elevadas?

Uma vez construída a bomba de fissão, tornou-se óbvio que essa era uma das formas possíveis de obter as temperaturas e pressões necessárias. Se a bomba de fissão incluísse uma determinada quantidade de hidrogénio, fosse sob que forma fosse, os primeiros instantes da reacção de fissão permitiriam elevar a temperatura e pressão do hidrogénio aos valores necessários para se iniciar um processo de fusão.

Em 1952, tanto os Estados Unidos como a União Soviética construíram com êxito bombas de fusão nuclear, que ficaram popularmente conhecidas como bombas de hidrogénio ou bombas-H. O engenho também é designado, por vezes, por bomba termonuclear, onde a expressão "termo-" vem da palavra grega que significa "calor", já que a ignição duma bomba de fusão é provocada pelo calor extremo e não por um bombardeamento com neutrões.

A enorme energia duma bomba de fusão pode fazê-la explodir com uma violência tremenda. A explosão é tão potente que numa qualquer guerra em que se faça livre uso de tais engenhos, a civilização será por certo destruída quase instantaneamente. Tal sucederá, quase de certeza, com o grosso da humanidade e, numa situação limite, com grande parte ou mesmo toda a vida.

O próprio Sol é, na verdade, uma grande bomba de fusão que, no entanto, não explode. O astro, com uma massa 333 000 vezes superior à da Terra, possui um campo gravítico muito intenso que garante a sua integridade contra a violência da energia de fusão no seu interior. É por isso que podemos gozar a luz e o calor desta bomba cósmica - que, felizmente, se encontra a uma distância segura de 149,6 milhões de quilómetros.

Será possível iniciar uma fusão nuclear e controlá-la? Será possível obter a energia lentamente, duma forma utilizável e não destrutiva? Se tal for praticável, teremos uma forma de energia nuclear em que o combustível será fácil de obter e manipular. Em vez de termos de extrair urânio e tório de rochas onde existe em quantidades mínimas, poderemos obter o hidrogénio-2 dos oceanos. (O hidrogénio-2 é muito mais raro do que o hidrogénio vulgar, o hidrogénio-1. No entanto, a fusão daquele é mais fácil e, apesar de ser comparativamente escasso, existe em quantidade suficiente para durar milhares de milhões de anos.)

Além disso, o processo de fissão exige quantidades mínimas apreciáveis de material cindível, existindo sempre a eventualidade de reacções descontroladas e de fusões dos núcleos dos reactores nucleares se o processo não for adequadamente vigiado. A energia de fusão pode ser obtida com pequenas quantidades de combustível, o que elimina a possibilidade dum acidente de grandes proporções. Finalmente, o processo de fusão não gera as quantidades significativas de materiais radioactivos produzidos pela fissão.

No entanto, para que se produza uma fusão nuclear controlada, é necessário submeter o hidrogénio-2 a temperaturas e pressões elevadas. Todavia, ainda não sabemos controlar tais pressões e temos de elevar ainda mais as temperaturas que já conseguimos obter, enquanto mantemos o hidrogénio confinado no interior dum campo magnético.

Há mais de trinta anos que os cientistas procuram obter uma fusão controlada. Esse objectivo está cada vez mais próximo - mas ainda não foi atingido.


Partículas de Desintegração

 

Como atrás se referiu, o hélio-4 é um núcleo particularmente estável. Pouco depois de surgir o Universo, já se tinham formado os quatro núcleos mais simples. Primeiro o hidrogénio-1, porque o seu núcleo é só um protão. Acrescentando-lhe um neutrão, transformou-se em hidrogénio-2 (1 protão, 1 neutrão). Este, por adição dum protão, converteu-se em hélio-3 (2 protões, 1 neutrão), o qual, com mais um neutrão, se transfoimou em hélio-4 (2 protões, 2 neutrões). O hidrogénio-2 e o hélio-3, embora sejam núcleos estáveis, possuem fracções de síntese relativamente reduzidas, sendo essa a razão porque ambos revelaram uma tendência apreciável, nas condições existentes no início do Universo, para se converterem em hélio-4, um núcleo ainda mais estável. O resultado é que, actualmente, 90 por cento dos átomos no Universo são de hidrogénio-1 e 9 por cento de hélio-4. Todos os outros átomos juntos perfazem o restante 1 por cento.

Além disso, na sua fase inicial, o Universo nunca ultrapassou o nível do hélio-4. O hélio-4 é tão estável que não possui virtualmente tendência alguma para acrescentar um protão, um neutrão ou para se juntar a outro átomo de hélio-4. Os núcleos que se formariam em tais processos - lítio-5 (3 protões, 2 neutrões), hélio-5 (2 protões, 3 neutrões) ou berílio-8 (4 protões, 4 neutrões) - são todos tão instáveis que as suas vidas médias se situam entre um centésimo de bilionésimo de segundo e menos dum milésimo de milionésimo dum bilionésimo de segundo. Por isso, todos os núcleos com números de massa superiores a 4 se formaram (como referi anteriormente) nos centros de estrelas, onde as condições existentes tornam tais processos não apenas possíveis, mas prováveis.

Entre os núcleos com números de massa mais elevados, aqueles que podem ser considerados como constituídos por unidades de hélio-4 são particularmente estáveis. O carbono-12 (6 protões, 6 neutrões - 3 unidades hélio-4) revela uma coesão apreciável, tal como o oxigénio-16 (8 protões, 8 neutrões - 4 unidades hélio-4). Ambos apresentam fracções de síntese inferiores às dos seus vizinhos.

A medida que os núcleos se tornam mais maciços, este "efeito hélio-4" diminui. Ainda assim, núcleos como os do néon-20 (5 unidades hélio-4), magnésio-24 (6), sílício-28 (7), enxofre-32 (8) e cálcio-40 (10) são especialmente estáveis. Todos estes núcleos, do hélio-4 ao cálcio-40, representam os isótopos mais comuns dos respectivos elementos.

Todavia, a unidade de hélio-4 parece perder o seu efeito estabilizador para lá do cálcio-40. Aparentemente, à medida que o número de protões no núcleo aumenta, um número idêntico de neutrões deixa de ser suficiente para tornar o núcleo estável. É necessário um excesso de neutrões.

Assim, no ferro-56, o isótopo de ferro mais comum, existem 26 protões e 30 neutrões, o que faz com que o rácio neutrão/protão seja de 1,15. No estanho-118, o isótopo de estanho mais frequente, existem 50 protões e 68 neutrões, a que corresponde um rácio neutrão/protão de 1,36. No ouro-197, o único isótopo estável do ouro, existem 79 protões e 118 neutrões e um rácio neutrão/protão de 1,49. O núcleo mais maciço e estável é o do bismuto-209, com 83 protões e 126 neutrões e um rácio neutrão/protão de 1,52.

Para lá do bismuto-209, não existe número algum de neutrões capaz de tornar um núcleo estável. Com efeito, o urânio-238 possui 92 protões e 146 neutrões, a que corresponde um rácio neutião/protão de 1,59, mas mesmo um excesso tão significativo de neutrões não é suficiente para tornar o núcleo totalmente estável.

A física germano-americana Maria Goeppert-Mayer (1906-1972) tentou perceber a razão pela qual alguns núcleos estáveis o eram mais do que outros. Esta cientista sugeriu que existem camadas e subcamadas nucleares, tal como existem camadas e subcamadas electrónicas. Goeppert-Mayer calculou o número de protões e neutrões necessários para preencher tais camadas, concluindo que as camadas preenchidas davam origem a núcleos mais estáveis.

O número necessário para preencher uma camada nuclear é designado número de camada e às vezes também número mágico. (Esta última designação não é muito apropriada, uma vez que não existe nada de "mágico" na ciência. No entanto, os cientistas são tão dados a expressões enfáticas como os outros seres humanos.) O físico alemão Johannes Hans Daniel Jensen (1907-1973), trabalhando independentemente de Goeppert-Mayer, chegou igualmente à ideia de número de camada e, pelos seus trabalhos, estes dois cientistas partilharam um Prémio Nobel em 1963.

Quando um núcleo maciço é tão grande que se torna instável, existe uma tendência natural para perder partículas, a fim de se tornar menos maciço e, portanto, mais estável. Uma forma eficiente de o conseguir é através da emissão duma partícula alfa (um núcleo de hélio-4) sob a forma duma partícula de desintegração. Este núcleo de hélio-4 é tão coeso que se torna fácil expulsá-lo como um todo. E, desse modo, o número de massa reduz-se em 4 unidades duma só vez. É por isso que o urânio-238, urânio-235, tório-232, rádio-226 e muitos outros núcleos mais maciços do que o bismuto-209 emitem partículas alfa.

Os núcleos que são menos maciços do que o bismuto-209 não emitem geralmente partículas alfa. O neodímio-114 é o núcleo mais leve que o faz, mas emite muito poucas dessas partículas, uma vez que a sua vida média é de cerca de 2 000 biliões de anos.

E claro que os átomos radioactivos emitem frequentemente partículas beta no decurso duma desintegração radioactiva, o que suscitou um problema. Nos anos 20, a existência de partículas beta era considerada uma indicação de que os núcleos continham electrões. Afinal, se uma moeda nos cai do porta-moedas isso só acontece porque ela lá se encontrava anteriormente.

Contudo, estas analogias com a realidade do dia-a-dia nem sempre funcionam, razão pela qual o "senso comum" é frequentemente um guia perigoso quando aplicado à ciência. Por volta de 1932, os cientistas já se tinham convencido de que o núcleo continha apenas protões e neutrões - mas não electrões. Donde provinham então as partículas beta? Se não existem electrões no núcleo, temos de partir do princípio de que os electrões são aí formados e imediatamente emitidos. Mas como é que isso sucede?

Suponha o leitor que o neutrão é considerado uma partícula sem carga, não porque não possui carga eléctrica mas porque tem duas cargas, uma positiva e outra negativa, que se neutralizam mutuamente. Se a carga negativa for emitida sob a forma dum electrão, a carga positiva permanece e o neutrão transforma-se num protão. (Na verdade, a situação é mais complicada, como veremos, mas de momento esta explicação é suficiente.)

Mas por que razão há-de tal transformação ter lugar? Ela não ocorre nos diversos núcleos que verificamos serem estáveis. Nos anos 30 pensava-se que estes podiam permanecer inalterados por períodos indefinidos de tempo, talvez mesmo eternamente. No entanto, existem núcleos que emitem electrões - alguns lentamente, outros mais depressa - e por cada electrão emitido, um neutrão do núcleo transforma-se num protão. Para tentar responder à questão, suponhamos que um núcleo com determinado número atómico tem de conter um número fixo de protões igual a esse número atómico. Além disso, tem de conter um certo número de neutrões para ser estável. Por vezes, apenas um determinado número de neutrões garante essa estabilidade. No caso do flúor, por exemplo, qualquer núcleo atómico tem de ter exactamente 9 protões e exactamente 10 neutrões para ser estável.

Um neutrão na sua posição estável no interior dum núcleo pode ser visto como uma combinação neutra dum protão e electrão. Separado do núcleo, o neutrão desintegra-se num protão e num electrão, com uma vida média de doze minutos.

 

Contudo, existe por vezes uma certa flexibilidade no que se refere ao número de neutrões. Assim, qualquer núcleo de azoto tem de ter 7 protões, mas pode ter 7 ou 8 neutrões e ser estável. Cada núcleo de oxigénio deve ter 8 protões, mas pode ter 8, 9 ou 10 neutrões e ser estável. (No caso do estanho, qualquer um de dez números diferentes de neutrões garante a estabilidade do núcleo.)

O que é que sucede então quando um núcleo tem demasiados neutrões para ser estável? O hidrogénio-1, por exemplo, é estável, e o seu núcleo é constituído por um protão apenas. O mesmo se passa com o hidrogénio-2, com 1 protão e 1 neutrão no núcleo. O hidrogénio-2 é menos estável do que o hidrogénio-1, mas é, no entanto, estável - e assim permanecerá indefinidamente se for deixado à sua sorte.

(Como é que um núcleo pode ser menos estável do que outro e, ainda assim, estável? Imagine o leitor uma moeda em repouso no centro duma mesa. Se não lhe mexermos, permanecerá indefinidamente nessa posição. Imagine agora uma outra moeda colocada junto ao bordo da mesma mesa. Também ela tenderá a permanecer aí para sempre. No entanto, sendo estável, é menos estável do que a moeda no centro da mesa, uma vez que basta uma pequena perturbação para atirá-la para fora daquela. Do mesmo modo, também o hidrogénio-2 pode sofrer fusão mais facilmente do que o hidrogénio-1, sendo essa a razão porque existe muito menos hidrogénio-2 no Universo do que hidrogénio-1, embora ambos sejam estáveis.)

O hidrogénio-3, com o seu núcleo constituído por 1 protão e 2 neutrões, não é um núcleo estável. Existe um número excessivo de neutrões para que tal possa acontecer. Poder-se-ia esperar que o núcleo de hidrogénio-3 libertasse um neutrão, mas tal implicaria uma energia de activação muito elevada - energia de que o núcleo de hidrogénio-3 não dispõe em condições normais. Uma segunda alternativa consiste na conversão dum dos neutrões do núcleo de hidrogénio-3 num protão, com a emissão duma partícula beta. Tal processo envolve uma energia de activação bastante reduzida; a vida média do hidrogénio-3 é de apenas 12 1/4 anos. Após a emissão duma partícula beta, o núcleo passa a ter dois protões e um neutrão, transformando-se no isótopo estável hélio-3.

Também só existem dois isótopos estáveis de carbono: o carbono-12 (6 protões, 6 neutrões) e o carbono-13 (6 protões, 7 neutrões). Em 1940, o bioquímico canadiano-americano Martin David Kamen (1913-2002) identificou o carbono-14 (6 protões, 8 neutrões), que tem um neutrão a mais. A emissão duma partícula beta, convertendo um dos neutrões num protão, dá origem ao azoto-14 (7 protões, 7 neutrões), que é estável. Existem muitos outros exemplos deste tipo.

Um neutrão tem uma massa superior à dum protão e electrão juntos. Por isso, se um neutrão for convertido num protão através da emissão dum electrão, existe globalmente uma perda de massa e uma dissipação de energia. Será que um neutrão livre se pode converter espontaneamente num protão, libertando um electrão ao fazê-lo?

De início, foi difícil testar esta hipótese, uma vez que, quando se produzia um feixe de neutrões, eles colidiam com outros núcleos e eram por estes absorvidos, antes de terem oportunidade de se desintegrar.

Essa dificuldade só foi ultrapassada em 1948, quando se fez um feixe intenso de neutrões atravessar um recipiente cilíndrico onde fora criado um vácuo. Em torno do recipiente existia um campo eléctrico, para que as trajectórias de quaisquer electrões produzidos fossem desviadas para um lado e as dos protões para o outro. A desintegração postulada pode então ser observada. Os neutrões desintegravam-se dando origem a um protão e um electrão, apresentando uma vida média de cerca de 12 minutos. (Esta não é uma descrição completa daquilo que acontece, mas que terá de servir por agora.)

Mas se as coisas se passam assim, por que razão é que os neutrões não se desintegram em todos os núcleos, até não restar nada nestes para além de protões? Aparentemente, os neutrões existentes nos núcleos atómicos estão intimamente associados aos protões e, em tais circunstâncias, são estáveis, desde que o seu número não seja excessivamente elevado ou reduzido. (Adiante serão dadas mais informações sobre este assunto.)

As desintegrações espontâneas de partículas isoladas, quando ocorrem, parecem resultar sempre numa redução de massa - o que significa que um neutrão pode dar origem, por desintegração, a um protão, que tem uma massa menor, mas um protão não pode originar, por desintegração, um neutrão, partícula mais maciça.

Mas nesse caso, por que motivo é que o protão não se desintegra e dá origem a um electrão, que tem uma massa menor, libertando toda menos 1/1836 da sua massa sob a forma de energia? A resposta a essa pergunta é que existem leis de conservação que parecem ser sempre respeitadas. Existe, por exemplo, o princípio da conservação da carga eléctrica, que afirma - a fazer fé em inúmeras observações em laboratório - que uma carga eléctrica positiva, deixada à sua sorte, não pode ser criada nem destruída. E o mesmo se aplica a uma carga eléctrica negativa.

Nos anos 30, as duas únicas partículas com carga que se conheciam eram o protão, com a sua carga positiva, e o electrão, com carga negativa. (A situação alterou-se entretanto, mas suponhamos que era mesmo assim e tentemos responder à pergunta nessa base. Podemos sempre refinar a nossa resposta mais tarde.) Se a única forma dum protão perder massa consiste na sua conversão em electrão, então a carga positiva do protão tem de ser destruída e a carga negativa do electrão tem de ser criada. Nem uma nem outra coisa são possíveis. Por esse motivo, o protão não se pode desintegrar e dar origem a outra partícula, uma vez que não existe nenhuma partícula de massa inferior que possua uma carga positiva (era assim, pelo menos, que se pensava na época).

De modo análogo, um electrão não se pode desintegrar e dar origem a partículas mais pequenas, uma vez que as únicas partículas mais pequenas conhecidas nos anos 30 eram o fotão e o gravitão, ambos com massa e carga nulas. Para que o electrão se desintegrasse e desse origem a uma destas partículas, teria que haver destruição da sua carga negativa - e isso é impossível. Por esse motivo, um electrão não se pode desintegrar.

Repare-se que quando um neutrão se desintegra e dá origem a um protão (quer estejamos a pensar num neutrão livre ou numa partícula que faz parte dum núcleo), se forma na mesma altura um electrão. Deste modo, o neutrão sem carga (0) dá origem a uma carga positiva (+1) e a uma carga negativa (-1). As duas cargas, se consideradas em conjunto, continuam a ter uma soma nula: 0 = (+1) + (-1). (A lei da conservação da carga permite a produção ou destruição de pares de cargas de sinal oposto, mas não a produção ou destruição duma carga sem a outra.)

O leitor poderá interrogar-se por que razão um fotão não se pode converter num gravitão, ou vice-versa. No caso destas duas partículas, não temos de nos preocupar com cargas eléctricas. Existe, todavia, a questão do spin ou momento angular. A lei da conservação do momento angular estabelece que este não pode ser criado nem destruído. Um fotão com um spin de 1 não pode desintegrar-se e dar origem a um gravitão de spin 2, ou vice-versa. Poderão existir outros factores que impedem a transformação, mas a conservação do spin é, por si só, razão suficiente.

No início da década de 30, portanto, conheciam-se apenas cinco partículas constituintes do Universo. Quatro dessas partículas - protão, electrão, fotão e gravitão - eram estáveis. A quinta, o neutrão, não o era. Mas esta imagem do Universo não iria durar muito tempo.


8. ANTIMATÉRIA


Antipartículas

 

A lista de partículas que constituem o Universo - protões, neutrões, electrões, fotões e gravitões - tem algo de peculiar. Por que razão é que as cargas eléctricas positivas residem nos protões e as cargas eléctricas negativas nos electrões, quando os primeiros têm uma massa 1836 vezes superior à dos segundos?

As duas partículas, de massas tão diferentes, possuem cargas eléctricas que são absolutamente iguais, embora de sinal contrário. Sabemos que assim é porque o átomo de hidrogénio, constituído por um protão no seu núcleo e um electrão fora dele, é absolutamente neutro. Nunca se detectou neste átomo qualquer excesso de carga, negativa ou positiva, por mais pequeno que fosse.

Além disso, os cientistas nunca descobriram qualquer diferença fundamental entre os dois tipos de carga do género da que existe entre as respectivas massas, e que os leva a associar o electrão a uma massa muito pequena e o protão a uma massa muito maior. Por outras palavras, o protão e o electrão constituem um par improvável e surpreendente.

As peças deste quebra-cabeças começaram a encaixar umas nas outras no final dos anos 20, quando Dirac resolveu estudar as propriedades do electrão através duma análise matemática das suas características ondulatórias. Ele considerou que o electrão podia existir em um de dois estados energéticos que seriam o oposto um do outro. A primeira ideia de Dirac foi, naturalmente, de que o próprio electrão representava um desses estados e o protão o outro. A ser verdade, seria maravilhoso, uma vez que simplificaria ainda mais a estrutura do Universo: o electrão e o protão seriam simplesmente dois estados diferentes duma única partícula fundamental.

Mas tal era bom de mais para ser verdade, e Dirac cedo percebeu que as equações não eram verdadeiramente satisfeitas salvo se os dois estados fossem exactamente iguais em tudo excepto no que se referia à orientação. Teriam de ser, por assim dizer, imagens no espelho um do outro, como as duas mãos do leitor, que são em tudo idênticas excepto que uma é direita e a outra esquerda.

Na imagem no espelho do electrão, apenas o sinal da carga eléctrica poderia variar - positivo num estado e negativo no outro. Tudo o mais teria de ser idêntico. Não só a magnitude da carga teria de ser igual nos dois estados, como também a respectiva massa. E assim, em 1930, Dirac postulou a existência duma partícula exactamente igual ao electrão em todos os aspectos, excepto que possuía uma carga eléctrica positiva exactamente da mesma magnitude da carga negativa do electrão.

Um argumento do mesmo tipo levou à conclusão de que devia existir uma partícula exactamente igual ao protão em todos os aspectos, à excepção do facto de possuir uma carga eléctrica negativa de magnitude idêntica à carga positiva do protão.

O encontro duma partícula com a sua antipartícula é como o cancelamento de duas ondas em oposição de fase. A carga total das duas partículas é +1 + -1, ou seja 0. No decurso duma aniquilação mútua, a massa de ambas é totalmente convertida em energia sob a forma de radiação gama.

Dum modo geral, uma partícula que é exactamente igual a outra excepto no seu aspecto fundamental em que o seu oposto se designa antipartícula, expressão onde o prefixo anti- provém da palavra grega que significa "oposto". O electrão de carga positiva seria assim um anti-electrão, e o protão de carga negativa um antiprotão.

Quando uma partícula e a sua antipartícula se encontram, é como se duas ondas em oposição de fase se juntassem (com uma a ir para cima quando a outra vai para baixo, e vice-versa.) Tal como duas ondas se podem cancelar, originando uma linha recta que não vai para cima nem para baixo, de modo que deixa de existir qualquer onda, também uma partícula e respectiva antipartícula se cancelam uma à outra, deixando de existir qualquer partícula. A esse fenómeno chama-se aniquilação mútua.

É interessante verificar que o fenómeno não viola a lei da conservação da carga eléctrica, uma vez que, quando partícula e antipartícula se encontram, a carga total das duas partículas é (+1) + (-1), ou seja 0. Uma vez concluída a aniquilação mútua, a carga eléctrica remanescente continua a ser 0. Por isso, não existe violação desta lei de conservação. Apenas uma carga positiva ou negativa isoladamente não pode ser criada ou destruída. Cargas positivas e negativas em conjunto podem ser criadas ou destruídas em qualquer número.

Note-se que apenas a carga eléctrica desaparece numa aniquilação mútua, uma vez que é a única característica em que partícula e antipartícula apresentam propriedades opostas. A partícula e a antipartícula possuem massas idênticas, e essa massa dupla não pode desaparecer. A massa constitui, no entanto, uma forma de energia, e pode mudar de forma. Por isso, no decurso duma aniquilação mútua, surge radiação gama com uma energia que é exactamente equivalente à massa que existia antes da aniquilação.

Também pode ocorrer o fenómeno oposto. Se for possível concentrar energia suficiente numa pequena região, ela pode ser convertida em matéria. No entanto, quando tal acontece, não é possível formar-se apenas uma partícula ou uma antipartícula, visto que, num caso como no outro, uma carga eléctrica seria criada a partir do nada. Só pode ocorrer a criação conjunta duma partícula e da sua antipartícula, para que a carga eléctrica total permaneça igual a zero. A isto chama-se produção de pares.

A teoria de Dirac revelou-se extremamente interessante do ponto de vista matemático. No entanto, a matemática, por mais interessante que seja, não tem grande relevância se não pudermos estabelecer a sua correspondência com a realidade. Um exemplo: por diversas razões de natureza teórica e matemática, os cientistas estão certos da existência de gravitões (ou ondas gravíticas, dependendo do facto de pensarmos em termos de partículas ou ondas). No entanto, a teoria diz-nos também que as ondas gravíticas possuem tão pouca energia que a sua detecção é praticamente impossível. (Seria um pouco como tentar recolher uma partícula de pó com uma chave inglesa. A tarefa revela-se impossível a não ser que sejamos capazes de conceber um par de mandíbulas suficientemente delicadas.)

E é precisamente isso que os cientistas procuram fazer. Apesar de estarem certos da existência de ondas gravíticas, existem uns quantos que dedicam os seus esforços à construção de dispositivos capazes de as detectarem. Há anos que os esforços se revelam infrutíferos, mas os cientistas estão confiantes de que um dia serão bem sucedidos. Quando esse dia chegar, a teoria será rematada por um conjunto de observações experimentais, e tal significará uma grande alegria para muitos e um prémio Nobel para aqueles que detectarem as ondas.

Era essa a situação da hipótese formulada por Dirac relativamente às antiparticulas. Quando ele anunciou a sua teoria, sabia-se que no mundo à nossa volta existia um número imenso de electrões, mas nunca tinham sido observados antielectrões. Até estes serem detectados, o seu trabalho não podia ser levado totalmente a sério. Contudo, o antielec-trão foi em breve identificado, em circunstâncias que nos levam a crer que teria sido encontrado, mesmo que Dirac não tivesse publicado o resultado das suas investigações. Para vermos como foi que tal sucedeu, temos de voltar um pouco atrás.


Radiação Cósmica

 

Um electroscópio carregado, com as suas folhas de ouro bem afastadas uma da outra, tem tendência a perder lentamente a sua carga, mesmo quando não existem materiais radioactivos nas proximidades. O facto não constituiu uma grande surpresa para os primeiros cientistas a realizarem experiências com tais dispositivos, uma vez que era bem provável que estivessem disseminadas no solo pequenas quantidades de materiais radioactivos. Mesmo que estas fossem demasiado pequenas para poderem ser detectadas pelos métodos habituais, as partículas emitidas ocasionalmente iriam retirar pequenas porções de carga ao electroscópio, que acabaria por ficar totalmente descarregado.

Mas depois os investigadores descobriram que não havia maneira de impedir a descarga do dispositivo. Se o electroscópio fosse transportado sobre água e para bem longe de terra firme, a carga continuava a desaparecer lentamente. E se o dispositivo fosse protegido por um invólucro de chumbo com espessura suficiente para bloquear a passagem de radiação, a carga mesmo assim desaparecia, embora mais lentamente do que antes.

O físico austríaco Victor Franz Hess (1883-1964) resolveu investigar o assunto, transportando um electroscópio para a atmosfera num balão de ar quente. Uma vez que se pensava que as fontes de radiação se encontravam todas no solo, o envio do dispositivo para bem longe deste devia permitir deter o processo de descarga mais eficientemente do que qualquer outro processo antes experimentado.

Em 1911, Hess realizou a primeira de dez ascensões em balão, levando os electroscópios para uma altitude de cerca de nove quilómetros e meio acima da superfície da Terra. E foi com espanto que verificou que o electroscópio perdia a sua carga tanto mais depressa quanto mais alto subia. Hess não encontrou outro modo de explicar este facto senão postular a existência duma radiação muito penetrante proveniente do espaço. A descoberta levou o físico austríaco a partilhar um Prémio Nobel em 1936.

Em 1925, o físico norte-americano Robert Andrew Millikan (1868--1953) interessou-se por essa radiação, a que resolveu chamar radiação cósmica, uma vez que parecia ter origem algures no cosmos. Millikan estava convencido de que se tratava duma forma de radiação electromagnética de comprimento de onda ainda mais curto do que a radiação gama e, por conseguinte, com uma energia e poder de penetração superiores.

Por outro lado, Compton suspeitava que a radiação cósmica eram feixes de partículas subatômicas com carga eléctrica que, se se deslocassem com rapidez suficiente, podiam ser mais penetrantes do que os raios gama. (Isto faz lembrar o debate, na geração anterior, sobre a natureza corpuscular ou ondulatória dos raios catódicos.)

Quando um electroscópio está carregado, as suas folhas de ouro repelem-se mutuamente, afastando-se. Quanto mais próximo o dispositivo está duma fonte radioactiva, mais rapidamente aquelas perdem a sua carga e regressam à posição inicial. Em 1911, Victor Franz Hess transportou um electroscópio num balão de ar quente. O objectivo era afastá-lo da radioactividade natural do solo. Mas descobriu que o dispositivo perdia a carga tanto mais depressa quanto mais alto subia. Na imagem, as linhas verticais representam a radiação cósmica.

Como é que a questão poderia ser resolvida? Se a radiação cósmica fosse uma forma de radiação electromagnética, como pensava Millikan, não teria carga eléctrica e não seria portanto afectada pelo campo magnético da Terra. Se surgisse de todas as partes do céu com a mesma intensidade, atingiria todas as partes da superfície terrestre em igual quantidade. Se, todavia, a radiação cósmica fosse constituída por partículas com carga, estas seriam desviadas pelo campo magnético da Terra e atingiriam o nosso planeta em quantidades tanto maiores quanto mais nos afastássemos do Equador e nos aproximássemos dos pólos magnéticos. Por outras palavras, quanto maior fosse a latitude, maior seria a concentração de radiação cósmica. Este fenómeno foi designado efeito latitude.

Compton viajou por todo o mundo, medindo a incidência da radiação cósmica aqui e ali, a fim de verificar a existência do efeito latitude. E, no início dos anos 30, conseguiu provar que o efeito era bem real e que a radiação cósmica era, de facto, constituída por partículas com carga eléctrica.

Em 1930, o físico italiano Bruno Benedetto Rossi (1905-1993) concluiu que, se a sua carga fosse positiva, haveria mais radiação cósmica a chegar de ocidente do que de oriente. Se a sua carga fosse negativa, passar-se-ia o contrário. Em 1935, o físico norte-americano Thomas Hope Johnson (1899-1998) demonstrou que a radiação cósmica era mais intensa vinda de ocidente e que, por conseguinte, as suas partículas possuíam uma carga eléctrica positiva.

Sabemos actualmente que a radiação cósmica é constituída por núcleos atómicos em movimento provenientes das estrelas. Uma vez que as estrelas são compostas maioritariamente por hidrogénio, as partículas que compõem a radiação cósmica são sobretudo núcleos de hidrogénio, ou seja, protões. Existem igualmente alguns núcleos de hélio e uma percentagem mínima de núcleos mais maciços.

O nosso Sol emite um fluxo constante de protões e outras partículas carregadas, tal como foi demonstrado por Rossi nos anos 50. O fenómeno é actualmente designado vento solar. As perturbações particularmente violentas da superfície do Sol, como as erupções solares, produzem uma chuva dessas partículas com uma energia superior à habitual. Quanto maior a energia, maior a velocidade, e quando as velocidades se aproximam da velocidade da luz, dizemos que são partículas da radiação cósmica. Ocasionalmente, o Sol emite partículas que pertencem a esta categoria.

As estrelas mais quentes e de comportamento mais violento do que o nosso Sol produzem radiação cósmica com maior abundância, e as explosões de supernovas constituem fontes particularmente importantes desse tipo de radiação. Uma vez lançadas no espaço, as partículas constituintes da radiação cósmica podem ser aceleradas pelos campos magnéticos das estrelas que encontram pelo caminho, bem como pelo campo magnético da própria Galáxia, adquirindo desse modo mais energia.

Por isso, a radiação cósmica é mais energética do que as radiações que se obtêm de materiais radioactivos, e constituiu um novo e mais poderoso instrumento à disposição dos físicos nucleares, uma vez que as suas partículas podem provocar reacções nucleares que as radiações radioactivas não têm energia suficiente para iniciar.

Mas, em contrapartida, as partículas da radiação cósmica não são tão fáceis de utilizar como os materiais radioactivos, que podem ser concentrados e usados nos laboratórios. As radiações radioactivas podem ser obtidas sempre que necessário e orientadas cuidadosamente para alvos específicos. As partículas da radiação cósmica, pelo contrário, chegam até nós dum modo que não podemos controlar e só se obtêm de forma mais concentrada subindo a uma montanha ou usando um balão.

O físico norte-americano Carl David Anderson (1905-1991), que estudara com Millikan, interessou-se pela radiação cósmica. Decidiu usar uma câmara de nevoeiro, na esperança de que uma análise da curvatura das linhas de gotículas produzidas permitisse concluir algo acerca da sua natureza. No entanto, a radiação cósmica era tão energética que atravessava a câmara de nevoeiro demasiado depressa para que pudesse sofrer uma alteração significativa da sua trajectória em resposta ao campo magnético. Anderson concebeu por isso uma câmara de nevoeiro com uma barreira de chumbo no centro. A radiação cósmica que atingisse o chumbo teria energia suficiente para o atravessar mas, no processo, perderia energia suficiente para que, daí para a frente, a sua trajectória fosse deflectida de modo apreciável pelo campo magnético.

Em 1932, Anderson reparou que da barreira de chumbo surgia uma trajectória curva que parecia ter sido provocada por um electrão em movimento. No entanto, a trajectória curvava na direcção errada! Anderson concluiu que estava a observar a trajectória duma partícula semelhante ao electrão, mas com carga positiva. Tratava-se do antielectrão cuja existência fora postulada dois anos antes por Dirac. Estes trabalhos valeram a Anderson um Prémio Nobel em 1936, que partilhou com Hess.

A partícula encontrada por Anderson foi designada electrão positivo, ou positrão. Em minha opinião, trata-se duma expressão que foi construída de forma errada, para além de ser uma escolha infeliz. A terminação comum para as partículas subatômicas é -ão. Temos assim, por exemplo, o electrão, neutrão, protão, fotão e gravitão. O r em electrão e neutrão pertence à raiz da palavra, tal como em electricidade e neutral. Por esse motivo, a atribuir um nome subatômico ao electrão positivo, devíamos chamar-lhe positão, sem o r, uma vez que a palavra positivo não contém nenhum r. Além disso, quer o designemos positão ou positrão, o nome não torna clara a sua relação com o electrão. A partícula devia ser chamada antielectrão, uma vez que para todas as outras antipartícu-las, o prefixo anti- é acrescentado, sem excepção, ao nome da partícula de que constituem o oposto. No entanto, o nome positrão vulgarizou-se de tal maneira que já não existe esperança de vir a ser alterado.

(Acontece com frequência atribuir-se inicialmente um nome pouco adequado a um objecto ou fenómeno, por ignorância ou em resultado duma decisão infeliz. Por vezes, o tempo encarrega-se de o corrigir. Mas, muitas vezes, essa designação imprópria é tão usada por um número tão grande de pessoas que se torna inconveniente ou mesmo impossível alterá-la.)

A radiação cósmica passa tão depressa por uma câmara de nevoeiro que a trajectória das suas partículas não é alterada significativamente por um campo magnético. Carl David Anderson colocou uma barreira de chumbo no interior da câmara, desacelerando as partículas o suficiente para permitir o seu estudo.

O positrão comporta-se exactamente como previsto na teoria de Dirac. Sofre rapidamente uma aniquilação mútua quando encontra um dos numerosos electrões que existem na sua vizinhança, dando origem a radiação gama de energia exactamente igual à da massa combinada do electrão e protão. Em breve se descobriu também que quando partículas alfa atingiam o chumbo, alguma da sua energia podia ser convertida num par electrão-positrão, que emergia do chumbo sob a forma de duas trajectórias que eram deflectidas em direcções opostas. O que nos leva de volta à questão anteriormente colocada. O que é que acontece quando temos um isótopo radioactivo que contém um número insuficiente de neutrões para ser estável?

A maneira mais fácil de produzir um neutrão adicional no interior dum núcleo é converter um dos seus protões num neutrão. Desse processo resulta um núcleo com mais um neutrão e com um protão a menos, o que poderá ser suficiente para garantir a sua estabilidade.

O fósforo-30, por exemplo, tem 15 protões e 15 neutrões no seu núcleo. O único isótopo estável de fósforo é o fósforo-31, com 15 protões e 16 neutrões. Por outras palavras, o fósforo-30 tem um número insuficiente de neutrões para ser estável. Suponhamos, no entanto, que um dos protões do fósforo-30 era convertido num neutrão. A carga positiva do protão não pode ser destruída (de acordo com a lei de conservação da carga eléctrica), pelo que tem de aparecer sob outra forma. E se o núcleo emitir um positrão, uma espécie de partícula beta positiva? Tal resolveria o problema da carga positiva. Se o fósforo-30 emitir um positrão, em vez de ter 15 protões e 15 neutrões no seu núcleo, fica com 14 protões e 16 neutrões, o que corresponde ao isótopo estável silício-30.

Com efeito, quando em 1934 os Joliot-Curie descobriram a radioactividade artificial sob a forma de fósforo-30, estavam igualmente a produzir um novo tipo de radiação que mais não era do que um feixe de positrões. Aí estava uma forma de produzir positrões sem necessidade de bombardear material com radiação cósmica ou partículas alfa. Eles tinham criado um núcleo deficiente em neutrões e deixado que sofresse decaimento radioactivo.

A emissão dum positrão por um núcleo produz resultados que são o oposto daqueles que decorrem da emissão dum electrão. Enquanto que a emissão dum electrão faz com que o número atómico aumente uma unidade, na medida em que se forma um protão adicional a partir dum neutrão, a emissão dum positrão faz o número atómico diminuir uma unidade, visto que se perde um protão que é convertido num neutrão.

Existe nisto algo que poderá parecer paradoxal. Uma vez que o neutrão tem uma massa ligeiramente superior à do protão, eu sublinhei atrás que o neutrão decai espontaneamente para originar um protão, mas que o protão não decai "para cima" para se transformar num neutrão.

Isto, todavia, só é verdadeiro se estivermos a falar de partículas livres. Num núcleo, onde os protões e neutrões existem intimamente associados, aquilo que conta é a massa do núcleo na sua totalidade. Num núcleo deficiente em neutrões, a massa total do núcleo pode diminuir se um protão se transformar num neutrão, uma vez que isso faz aumentar a fracção de síntese. Por conseguinte, a transformação atrás referida pode ocorrer.

É isso que faz com que determinados isótopos sejam instáveis. Se a massa total dum núcleo diminuir em resultado da transformação dum protão num neutrão, ou dum neutrão num protão, a transformação adequada terá lugar. Se um isótopo tiver uma massa que aumenta quando um neutrão se transforma num protão ou vice-versa, nenhuma das transformações ocorrerá e o isótopo permanecerá estável.

Quando existem 43 ou 61 protões num núcleo, e independentemente do número de neutrões presentes, uma transformação neutrão-pro-tão, num sentido ou no outro, provoca sempre uma redução da massa total. E essa a razão porque não existem isótopos estáveis de tecnécio (43) ou promécio (61).

Outra forma de, num núcleo, um protão se transformar num neutrão, consiste na captura pelo núcleo dum electrão, neutralizando assim a carga eléctrica dum dos seus protões e convertendo-o num neutrão. O electrão capturado pertence quase sempre à camada K, que é a camada electrónica mais próxima do núcleo. O processo é por isso conhecido como captura K, e foi observado pela primeira vez em 1938 pelo físico norte-americano Luis Walter Alvarez (1911-1988). No entanto, a probabilidade de ocorrer um processo deste tipo é muito menor do que a de emissão dum positrão.

Não existe qualquer motivo teórico para que o processo inverso da conversão de protão-em-neutrão não seja possível. Para converter um neutrão num protão, um núcleo, em vez de emitir um electrão, teria de capturar um positrão na sua vizinhança. Acontece que, na matéria que encontramos à nossa volta, não existem, a bem dizer, positrões, pelo que a probabilidade de captura duma tal partícula é nula.


Aceleradores de Partículas

 

Uma vez produzido e identificado o antielectrão, ou positrão, os cientistas passaram a acreditar na existência também dum antiprotão. No entanto, a crença não basta. Era necessário observar essa antipartícula.

Acontece, porém, que os antiprotões não existem à nossa volta com maior abundância dos que os antielectrões. Eles formam-se certamente na sequência duma qualquer reacção nuclear, o que deveria permitir observá-los. Mas isso é mais fácil de dizer do que fazer. Um protão tem uma massa 1836 vezes superior à do electrão. Assim sendo, um antiprotão deve ter uma massa 1836 vezes maior que a do antielectrão.

Os cientistas eram capazes de formar pares electrão-antielectrão fazendo colidir partículas alfa com placas de chumbo. Contudo, para formar um par protão-antiprotão era necessário encontrar projécteis com uma energia 1836 vezes superior à daquelas partículas. Infelizmente, não existem partículas alfa com tal energia.

Na radiação cósmica há certamente partículas com energia suficiente, mas são em número muito inferior ao das que têm energia bastante para produzir positrões. Seria necessário esperar longamente para que uma dessas raras partículas formasse um antiprotão num local onde este pudesse ser detectado.

No final da segunda década do século XX, todavia, os físicos começaram a dedicar-se à tarefa de criar os seus próprios projécteis altamente energéticos. Para tal, é necessário dispor à partida de partículas razoavelmente maciças, uma vez que a energia duma partícula em movimento aumenta com a respectiva massa. O que significa algo pelo menos tão maciço como um protão. Esta partícula constitui uma escolha natural, uma vez que basta remover o electrão aos átomos de hidrogénio - um processo relativamente simples - para obter uma fonte de protões. As partículas alfa teriam evidentemente uma massa superior, mas estas formam-se a partir de átomos de hélio, uma substância mais rara do que o hidrogénio e a que é muito mais difícil de arrancar aos respectivos electrões.

Obtida uma fonte de protões, há que passá-los por um campo magnético para os acelerar. Quanto mais forte o campo magnético, maior a aceleração dos protões. Se lançarmos depois os protões acelerados contra um núcleo atómico, é possível que ocorra uma reacção nuclear. Quando os cientistas começaram a conceber dispositivos capazes de produzir uma tal sequência de acontecimentos, os jornais falaram em "destruidores de átomos". No entanto, a designação tem uma carga excessivamente dramática, sendo mais correcto utilizar a expressão aceleradores de partículas, que é mais sóbria e factual.

O primeiro acelerador de partículas foi concebido em 1929 pelo físico britânico John Douglas Cockcroft (1897-1967) e pelo seu colaborador, o físico irlandês Ernest Thomas Sinton Walton (1903-1995). Usando protões energéticos, bombardearam núcleos de lítio-7 (3 protões e 4 neutrões). Nesse processo, um protão colide com um núcleo e aí permanece, formando berílio-8 (4 protões e 4 neutrões). O berílio-8, todavia, é extremamente instável e ao fim de cerca dum milésimo de milionésimo dum bilionésimo de segundo cinde-se, originando dois núcleos de hélio-4 (2 protões e 2 neutrões). Esta foi a primeira reacção nuclear produzida num acelerador de partículas e, pelo seu trabalho, Cockroft e Walton foram galardoados em 1931 com um Prémio Nobel.

Nos anos que se seguiram a esta primeira façanha foram desenvolvidos outros tipos de aceleradores de partículas. Aquele que produziu os resultados mais interessantes foi o dispositivo concebido em 1930 pelo físico norte-americano Ernest Orlando Lawrence (1901-1958), que encontrou uma solução para o problema dos campos magnéticos habitualmente utilizados, os quais provocavam a aceleração dos protões em linha recta, fazendo com que estes rapidamente ultrapassassem os limites do campo e deixassem de ser acelerados. Para que a acção do campo prosseguisse, seria necessário prolongá-lo a grandes distâncias.

Lawrence concebeu um modo de inverter o campo magnético, forçando o protão a descrever uma trajectória curva num sentido e depois outra em sentido contrário, completando assim um "ciclo" e mantendo--se sempre no interior do campo magnético. Repetindo este processo outra e outra vez, a partícula deslocava-se em círculos que se iam lentamente alargando. Embora as partículas tivessem de cobrir distâncias cada vez maiores, deslocavam-se suficientemente mais depressa para completarem o circuito no mesmo intervalo de tempo, mantendo-se em fase com o campo à medida que este mudava de sentido. As partículas permaneciam no interior do campo durante um período de tempo considerável, embora o dispositivo não fosse em si mesmo muito grande. Deste modo, um equipamento relativamente pequeno podia produzir partículas com energias inesperadamente elevadas. Lawrence chamou ao aparelho ciclo-trão e pelo seu trabalho recebeu em 1939 um Prémio Nobel.

Rapidamente se construíram ciclotrões maiores e mais poderosos. Foram usadas novas configurações em que o campo magnético se tornava mais forte à medida que as partículas aceleravam. Isso permitia que elas se movessem em círculos apertados sem saírem do campo enquanto os cientistas pretendessem. Estes sincrotrões de protões produzem partículas ainda com maior energia. Tornou-se possível obter dois conjuntos de partículas deslocando-se em círculos em sentidos opostos que podem, em determinado momento, colidir frontalmente. Um dispositivo deste tipo permite duplicar a energia que é possível obter com um único feixe de partículas colidindo com um objecto estacionário.

Em 1987, os Estados Unidos começaram a encarar a possibilidade de dispenderem cerca de seis milhares de milhões de dólares na construção dum dispositivo supercondutor para colisões entre partículas - um acelerador em que as partículas percorreriam cerca de 84 quilómetros, produzindo dez vezes mais energia do que aquela que pode ser obtida em qualquer acelerador existente. (Mais à frente terei ocasião de referir aquilo que se espera deste dispositivo inimaginavelmente poderoso. E claro que na radiação cósmica surgem muito ocasionalmente partículas com uma energia vários milhões de vezes superior à energia que mesmo este acelerador será capaz de produzir. No entanto, ficar à espera que tais partículas apareçam será sempre uma tarefa muito demorada e pouco gratificante.)

Já nos anos 50 tinham sido construídos aceleradores de partículas capazes de produzir partículas com energia suficiente para formarem pares protão-antiprotão. É claro que colidindo com um alvo adequado, essas partículas altamente energéticas provocavam todo o tipo de reacções nucleares e originavam a formação de todo o tipo de partículas. Esse conjunto enorme e diversificado de partículas era levado a passar através dum campo magnético. As trajectórias de todas as partículas com carga positiva desviavam-se numa direcção, as das partículas com carga negativa na outra. Supunha-se que as partículas de carga negativa com maior massa eram os antiprotões e que as suas trajectórias eram portanto aquelas que sofriam uma menor deflexão. A uma distância considerável do alvo, todas as partículas eram deflectidas para fora do campo, no qual permaneciam apenas os antiprotões (supondo que se tinham formado alguns).

Em 1955, Segrè, que descobrira o tecnécio e era agora cidadão americano, localizou deste modo antiprotões, em colaboração com o físico norte-americano Owen Chamberlain (n. 1920). Este trabalho valeu-lhes um Prémio Nobel em 1959.


Bariões

 

Os antielectrões (positrões), uma vez formados, desaparecem quase imediatamente através duma aniquilação mútua com o primeiro electrão que encontram. Apesar disso, faz sentido considerá-los partículas estáveis. É que, tanto quanto sabemos, um antielectrão que não seja sujeito a influências externas permanece indefinidamente um antielectrão, nunca se transformando, por iniciativa própria, em algo de diferente.

A razão deste comportamento reside no facto de qualquer transformação espontânea duma partícula subatômica envolver uma perda de massa e a conversão desta em energia. Contudo, o electrão permanece, quase um século após ter sido descoberto, o objecto menos maciço que conhecemos capaz de transportar uma carga eléctrica negativa, enquanto que o antielectrão é o objecto menos maciço que conhecemos capaz de transportar uma carga eléctrica positiva. Os únicos objectos menos maciços do que um electrão ou antielectrão são partículas que, tanto quanto sabemos actualmente, não possuem qualquer massa - e nenhuma delas transporta uma carga eléctrica. Por isso, a lei de conservação da carga eléctrica impede que electrões ou antielectrões sofram quaisquer transformações espontâneas, embora possam aniquilar-se mutuamente através do cancelamento das respectivas cargas.

Mas por que razão é o protão estável? Enquanto o antielectrão não era conhecido, podia-se argumentar que o protão era a partícula menos maciça conhecida capaz de transportar uma carga eléctrica positiva. Tinha, por isso, de ser estável pela lei de conservação da carga eléctrica. No entanto, tal argumento deixou de ser válido a partir de 1932. Por que motivo é que um protão não podia decair originando um antielectrão? A carga eléctrica positiva continuaria a existir e praticamente toda a massa do protão seria convertida em energia. E, pela mesma ordem de razões, por que motivo não podia o antiprotão dar origem a um electrão por decaimento? A resposta é simplesmente "porque não" (e ainda bem que assim é, ou o Universo com a sua estrutura actual não poderia existir, e nós também não).

Tendo em conta que estas partículas não sofrem esse tipo de decaimento, e também os dados relativos a todas as reacções nucleares estudadas ao longo de décadas, desde que foram identificadas as primeiras partículas subatômicas, parece razoável concluir que aquilo que torna os protões estáveis é uma lei de conservação. Se não se trata de conservação da carga eléctrica, então tem de ser a conservação de qualquer outra coisa.

Os electrões e positrões são exemplos de leptões (duma palavra grega que significa "pequeno") pois possuem massas pequenas. Os protões, neutrões e antiprotões são bariões (duma palavra grega que significa "pesado"). Todos têm massas muito superiores às dos leptões. A lei de conservação que torna os protões estáveis é a lei de conservação do número bariónico, e funciona do seguinte modo. A um protão e a um neutrão é atribuído o número bariónico +1, e a um antiprotão o número bariónico de -1. Uma vez que o electrão e o antielectrão não são bariões, atribui-se a cada uma destas partículas o número bariónico 0. Um protão e um antiprotão, considerados em conjunto, têm um número bariónico total dé (+1) + (-1) = 0. Assim, podem sofrer aniquilação mútua, de que resulta a ausência dum protão ou antiprotão, situação a que corresponde o número bariónico 0, valor que é idêntico ao que existia à partida. A lei de conservação do número bariónico não é violada. De modo análogo, uma quantidade considerável de energia pode dar origem a um par pro-tão-antiprotão - também aqui o número bariónico é 0 antes e depois do acontecimento, ou seja, não existe violação desta lei de conservação. (Em ambos os casos, não existe igualmente violação da lei de conservação da carga eléctrica. A observância duma lei de conservação não significa que as outras não devam ser igualmente respeitadas. Todas as leis de conservação têm de ser respeitadas, sempre que forem aplicáveis. Veremos casos, no entanto, em que uma lei de conservação pode não ser aplicável.)

Um neutrão (número bariónico +1) pode desintegrar-se e dar origem a um protão de massa ligeiramente inferior (número bariónico +1) e a um electrão (número bariónico 0), sem que haja violação da lei de conservação deste número ou da carga eléctrica.

Todavia, um protão (número bariónico +1) por si só não pode desintegrar-se para originar um positrão (número bariónico 0) sem que haja violação da lei de conservação do número bariónico. Uma tal transformação não parece, por isso, ser possível. A lei de conservação da carga eléctrica não é violada, mas isso não basta. Do mesmo modo, um antiprotão (número bariónico -1) não se desintegra num electrão (número bariónico 0).

Podemos evidentemente interrogar-nos sobre o porquê da existência duma tal lei de conservação. De momento, os cientistas são incapazes de responder a essa questão. Tudo quanto sabem dizer é que a observação das reacções nucleares mostra que uma tal lei de conservação existe. (Em anos mais recentes, contudo, têm sido levantadas algumas dúvidas sobre se esta lei de conservação tem um carácter absoluto ou pode, em determinadas circunstâncias, ser violada.)

O protão é estável porque é o barião com a mais pequena massa possível, incapaz de se desintegrar sem perder a sua natureza bariónica. O antiprotão é estável porque é o antibarião com a menor massa possível. É claro que sempre que temos uma lei de conservação, é necessário estarmos atentos a aparentes violações da mesma que possam revelar um facto novo ou sugerir uma modificação necessária da lei para que fiquemos com uma imagem do Universo mais adequada (isto é, "mais justa" e "mais bela").

Em 1956, por exemplo, foi detectada uma possível violação da lei de conservação do número bariónico quando um grupo de físicos descobriu que sempre que um protão e um antiprotão passavam próximos um do outro sem colidirem, havia a possibilidade das suas cargas eléctricas se cancelarem, deixando no entanto o resto das partículas aparentemente na mesma.

Sem as respectivas cargas eléctricas, tanto o protão como o antiprotão se tornam partículas neutras. Assim sendo, é legítimo supor que ambas foram convertidas em neutrões. Mas tal não é possível. O protão e o antiprotão em conjunto possuem número bariónico 0, enquanto que dois neutrões têm um número bariónico total de +2. Como é que isso pode ser?

A resposta está em supor que quando as cargas eléctricas se cancelam, o protão se transforma num neutrão (número bariónico +1), enquanto que o antiprotão se transforma um antineutrão (número bariónico -1). O par protão-antiprotão (número bariónico 0) converte-se portanto num par neutrão-antineutrão (número bariónico 0), o que garante a não violação da lei da conservação deste número.

Mas como é que pode existir um antineutrão? O antielectrão tem uma carga eléctrica de sinal contrário à do electrão, e o antiprotão tem uma carga eléctrica de sinal contrário à do protão. Todavia, nem o neutrão, nem o antineutrão, possuem carga eléctrica. O que é que, então, permite distinguir uma partícula da outra?

Embora nenhuma delas, em termos globais, possua carga eléctrica, ambas têm pequenas cargas localizadas, aqui e ali, que se cancelam na totalidade da partícula (como veremos adiante). Tanto o neutrão como o antineutrão estão animados dum movimento de rotação e o efeito desta sobre as pequenas cargas eléctricas localizadas é o de criar um pequeno campo magnético. No neutrão, o pólo norte magnético aponta numa determinada direcção e num antineutrão com uma rotação idêntica aponta na direcção oposta. E a direcção dos campos magnéticos que é oposta, não a sua rotação, e é isso que distingue o neutrão do antineutrão.

Os protões, neutrões e electrões são os constituintes dos átomos, dos planetas, das estrelas - de toda a matéria que conhecemos. Se os antiprotões, antineutrões e antielectrões existissem em quantidade apreciável numa determinada região, desempenhariam aí indubitavelmente todas as funções dos protões, neutrões e electrões. Estas antipartículas poderiam formar antiátomos, antiplaneta, antiestrelas e, dum modo geral, antimatéria.

Isto não é uma especulação puramente teórica. Existem algumas observações (sem dúvida muito simples) que suportam tal ideia. Em 1965, um antiprotão e um antineutrão foram combinados para produzirem um núcleo de anti-hidrogénio-2. Posteriormente, dois antiprotões e um antineutrão foram combinados dando origem a um núcleo de anti-hélio-3. (Na verdade, tratou-se apenas, em ambos os casos, de formar antinúcleos.)

Se considerarmos as diversas leis de conservação, concluiremos que, seja qual for o modo como a matéria do Universo foi criada, uma quantidade idêntica de antimatéria teve de se formar na mesma altura. Se assim é, onde está ela?

Temos a certeza de que a Terra é constituída unicamente por matéria. Na verdade, podemos afirmar com segurança que o nosso sistema solar, e mesmo a nossa galáxia, são formados exclusivamente por matéria. A antimatéria, a existir, está presente apenas em quantidades insignificantes. Se assim não fosse, haveria ocasionalmente interacção entre a matéria e a antimatéria, com a produção constante de radiação gama. No entanto, não detectamos radiação gama proveniente do espaço exterior com a intensidade que seria de esperar se a galáxia contivesse quantidades apreciáveis de antimatéria.

Alguns cientistas pensam que a matéria e antimatéria "originais" se separaram após a sua formação. O que significaria que, actualmente, existem ainda enxames de galáxias constituídas por matéria e enxames de galáxias constituídas pot antimatéria. Uns e outros manter-se-iam separados, não dando portanto azo à produção de níveis significativos de radiação gama. No entanto, este ponto de vista parece pouco plausível, uma vez que, a ser assim, deveriam existir quantidades significativas de antiprotões e, dum modo geral, de antinúcleos, na radiação cósmica, alguma da qual sabemos ter origem noutras galáxias - o que não acontece.

Pode até dar-se o caso de se terem originalmente formado dois Universos, um de matéria e outro de antimatéria (um "antiuniverso"), entre os quais a comunicação não é possível. Sem dúvida que, em tais circunstâncias, os habitantes dotados de inteligência do antiuniverso, a existirem, considerariam o seu próprio Universo como sendo constituído por matéria e o nosso por antimatéria. E teriam tanto direito a afirmá-lo como nós de afirmar o contrário.

Em anos recentes, porém, surgiram novas perspectivas sobre esta questão, como iremos ver. Os cientistas estão dispostos a considerar a possibilidade de matéria e antimatéria não se terem originalmente formado em quantidades iguais.


9. NEUTRINOS


Salvar as Leis de Conservação

 

Todas as leis de conservação são importantes na compreensão das reacções nucleares e do comportamento das partículas subatômicas. Qualquer evento que desafie uma lei de conservação é um evento que não deve acontecer, o que nos deixa apenas um número limitado de possibilidades. Por outras palavras, as leis de conservação evitam a anarquia total e indicam aos cientistas aquilo que devem procurar.

Um fenómeno que pareça violar uma lei de conservação é, por conseguinte, algo de muito perturbador. Isso é especialmente verdadeiro se a lei em questão for considerada a mais básica, mais importante e, por conseguinte, mais inviolável. Estamos a falar da lei de conservação da energia que, nos anos 20, parecia ter sido posta em causa.

As partículas subatômicas comportam-se, em geral, de acordo com esta lei. Se um electrão e um positrão se aniquilarem mutuamente, a energia produzida, sob a forma de radiação gama, é exactamente igual à energia que estava presente na massa dessas duas partículas mais a respectiva energia cinética no momento da colisão. O mesmo se passa quando um protão e um antiprotão se aniquilam mutuamente.

Quando um núcleo sofre uma desintegração radioactiva e emite uma partícula alfa, o novo núcleo e a partícula alfa possuem uma massa total ligeiramente inferior à do núcleo original. (Essa é, de resto, a razão porque o núcleo original se desintegra espontaneamente.) O decréscimo na massa aparece sob a forma de energia cinética da partícula alfa emitida.

Isto significa que todos os núcleos dum determinado isótopo que se desintegram através da emissão de partículas alfa produzem partículas que se deslocam à mesma velocidade e são igualmente energéticas e penetrantes. As medições feitas pelos cientistas revelam que há sempre conservação da energia na produção destas partículas.

Por vezes, um núcleo que sofre uma transformação radioactiva produz dois ou mais conjuntos de partículas alfa que se deslocam a velocidades diferentes e possuem energias distintas. Tal implica que, nessas circunstâncias, o núcleo possa existir em dois ou mais níveis de energia. O núcleo nos níveis mais elevados produzirá partículas alfa que se deslocam a velocidades superiores às das que são emitidas pelos núcleos no nível mais baixo.

A situação é consideravelmente diferente quando se trata de partículas beta. Quando um núcleo emite uma partícula beta (ou seja, um electrão), o novo núcleo e a partícula beta possuem uma massa ligeiramente inferior à do núcleo original. A diferença nas massas deveria ser atribuível à energia cinética da partícula beta.

Por vezes, a partícula beta desloca-se tão rapidamente que possui a energia cinética necessária para compensar à justa a perda de massa. Uma partícula beta nunca se desloca mais rapidamente do que isso, ou seja, nunca produz energia cinética superior à massa perdida. Se assim fosse, estaria a criar energia do nada, o que constituiria uma violação da lei de conservação da energia.

Contudo, as partículas beta deslocam-se geralmente muito mais devagar, possuindo menos energia cinética do que a necessária para compensar a perda de massa. Isto constitui uma violação da lei de conservação da energia, visto que uma pequena diferença é tão grave como uma grande. Quando núcleos do mesmo tipo se desintegram emitindo partículas beta, estas apresentam valores de velocidade e energia cinética diferentes que se situam dentro dum intervalo de valores. Em média, a energia cinética das partículas beta representa apenas cerca dum terço do valor correspondente à perda de massa. Aos cientistas que primeiro estudaram o fenómeno pareceu-lhes que a energia, pura e simplesmente, não se conservava.

Durante vinte anos, essa gama de valores de velocidade no caso da radiação beta foi observada e estudada, mas permaneceu um completo quebra-cabeças. Ela incomodava tanto Niels Bohr que este chegou a sugerir o abandono da lei de conservação da energia, pelo menos no que dizia respeito às partículas beta. No entanto, poucos eram os físicos dispostos a fazê-lo. (Uma regra geral que se aplica a todas as situações excepto uma que não deve ser abandonada até terem sido feitos todos os esforços para explicar a excepção.)

Em 1930, Pauli propôs uma teoria para explicar o problema da conservação da energia no caso das emissões beta. Este físico sugeriu que, quando um núcleo emitia uma partícula beta, emitia também uma segunda partícula que transportava toda a energia que não estava no electrão. A energia cinética de ambas as partículas, quando consideradas em conjunto, compensava exactamente a perda de massa resultante da produção da partícula beta. Só havia um problema com a hipótese de Pauli: se era produzida uma segunda partícula, por que motivo nunca era detectada? A resposta era que o electrão transportava toda a carga necessária na conversão dum neutrão num protão. A segunda partícula tinha, portanto, de ser electricamente neutra, e as partículas deste tipo são muito mais difíceis de detectar do que as partículas carregadas.

O neutrão já havia sido detectado: era uma partícula neutra, maciça, capaz de arrancar protões dos núcleos. Tinham sido estas propriedades que haviam ajudado os cientistas a identificá-la. No caso da nova partícula proposta por Pauli para as emissões beta, a pequena quantidade de energia transportada servia à justa para explicar a sua velocidade, pelo que a respectiva massa teria de ser mínima. Na verdade, algumas partículas beta são emitidas a uma velocidade que chega apenas para justificar toda a energia perdida para o núcleo, pelo que a partícula por ele postulada não podia ter massa alguma.

Uma partícula sem carga eléctrica nem massa pode parecer difícil de detectar, mas existe o exemplo do fotão, que não tem carga eléctrica nem massa e é muito fácil de encontrar. No entanto, o fotão é uma espécie de pacote de ondas de contornos pouco definidos que interage facilmente com qualquer porção de matéria que encontre pelo caminho. E se a partícula companheira da partícula beta fosse uma partícula ínfima que não interagia com a matéria?

Em 1934, Fermi resolveu dedicar-se ao estudo dessa partícula, a que deu o nome de neutrino (da expressão italiana para "pequeno neutrão"). Começou por determinar, teoricamente, as suas propriedades. Fermi estava convencido de que a partícula era de facto uma entidade sem massa, sem carga eléctrica e praticamente sem tendência para interagir com a matéria. Era uma "partícula-nada", ou, como por vezes então se dizia, uma partícula-fantasma. Dadas as suas características, a existência ou inexistência do neutrino parecia ir dar no mesmo. Só que a partícula servia para preservar a lei de conservação da energia - um ponto de vista que não era particularmente aliciante. Podia-se argumentar (e houve quem o fizesse) que o neutrino fora inventado apenas para salvar as aparências. Se a única maneira de salvar a lei de conservação da energia era inventar uma partícula-fantasma, então a lei não merecia ser resgatada. Contudo, o neutrino permitiu salvar outras leis de conservação.

Quando um núcleo emite uma partícula beta, a soma das massas do novo núcleo e da partícula beta é ligeiramente inferior à massa do núcleo original. A diferença de massas, que não pode ser totalmente atribuída à energia cinética da partícula beta, é explicada com uma "partícula-fantasma", quase indetectável, o neutrino.

Consideremos, por exemplo, um neutrão em repouso. A sua velocidade é nula; por conseguinte, o seu momento linear (que é igual ao produto da massa pela velocidade) é zero. Existe uma lei de conservação do momento linear que os cientistas compreenderam antes mesmo de terem entendido o alcance da lei de conservação da energia. Por outras palavras, seja o que for que suceda a um neutrão em repouso, o momento linear total das partículas a que ele der origem deve permanecer igual a zero - desde que não haja interferências do resto do Universo.

Ao fim de algum tempo, o neutrão em repouso desintegrar-se-á num protão e num electrão. O electrão partirá numa qualquer direcção a grande velocidade, tendo por isso um momento linear considerável. O neutrão, agora transformado num protão, recuará na direcção oposta a uma velocidade muito menor, mas terá uma massa muito superior. Numa situação ideal, o momento linear do electrão (massa pequena x velocidade elevada) será igual ao do protão (massa apreciável x velocidade reduzida). Se as duas partículas partirem em direcções diametralmente opostas, uma terá um momento linear +x e a outra -x. Estes dois valores, se adicionados, dão 0. A ser assim, o processo obedece à lei de conservação do momento linear.

Mas isso não é o que sucede realmente. O momento linear do electrão é, em geral, demasiado reduzido, e esta partícula e o protão não se deslocam em direcções diametralmente opostas. Existe uma parte do momento linear que não está contabilizada. Se, todavia, supusermos que o neutrino existe, podemos imaginar que ele se desloca numa direcção tal que justifique não só a energia como também o momento linear em falta.

Por outro lado, sabemos que o neutrão tem um spin de +1/2 ou -1/2. Suponhamos que se desintegra originando um protão e um electrão, e nada mais. O protão possui um spin de +1/2 ou -1/2, tal como o electrão. O spin do protão e do electrão, considerados em conjunto, será sempre + 1,-1 ou 0, dependendo dos sinais dos spins das duas partículas. O protão e o electrão, em conjunto, nunca podem ter um spin total de +1/2 ou -1/2, como sucedia com o neutrão que lhes deu origem. O que significa que a lei de conservação do momento angular (outra lei de conservação que os físicos conheciam muito bem e que era rigorosamente respeitada nos fenómenos até aí observados) é violada.

Se, todavia, a desintegração do neutrão produzir um protão, um electrão e um neutrino, partículas que possuem todas elas spins de +1/2 ou -I/2, a soma dos respectivos valores (+1/2, +1/2 e -1/2, por exemplo) será +1/2, que é o spin do neutrão original. Em tais circunstâncias, haverá conservação do momento angular.

Existe uma quarta lei de conservação, que foi descoberta muito mais tarde do que as outras: a lei de conservação do número leptónico. Os neutrões e protões possuem número leptónico 0, enquanto que os electrões possuem número leptónico +1 e os positrões -1.

Imaginemos então um neutrão com número bariónico +1 e número leptónico 0. Se se desintegrar num protão (número bariónico +1, número leptónico 0) e num electrão (número bariónico 0, número leptónico + 1), existe conservação do número bariónico mas o mesmo não sucede com o número leptónico.

Agora suponhamos que na desintegração se forma igualmente um neutrino com número leptónico -1. Nesse caso, o neutrão (número bariónico +1, número leptónico 0) dá origem a um protão (número bariónico + 1, número leptónico 0), um electrão (número bariónico 0, número leptónico + 1), e um neutrino (número bariónico 0, número leptónico -1). Ou seja, partimos dum neutrão (número bariónico +1, número leptónico 0) e acabamos com três partículas com um número bariónico total de +1 e um número leptónico total de 0. Nessas circunstâncias, existe conservação tanto do número leptónico como do número bariónico.

E claro que para o neutrino possuir um número leptónico de -1 deve, por direito, ser a imagem no espelho (antineutrino) da partícula, mas é isso mesmo que sucede. Um antineutrino respeita as leis de conservação da energia, carga eléctrica, momento linear e momento angular tão rigorosamente como um neutrino. O antineutrino também conserva o número leptónico.

A ideia duma partícula indetectável concebida simplesmente para salvar uma única lei de conservação não é muito convincente. A noção de quatro partículas indetectáveis, diferentes, concebidas para preservar quatro leis de conservação distintas é ainda menos convincente. Contudo, a ideia duma única partícula indetectável que, por si só, permite preservar quatro leis de conservação - da energia, momento linear, momento angular e número leptónico - é uma ideia muito atraente. E assim, à medida que os anos iam passando, um número crescente de físicos foi admitindo a existência do neutrino e antineutrino, independentemente de terem ou não sido detectados.


A Detecção do Antineutrino

 

Contudo, os físicos não ficaram completamente satisfeitos até neutrino e antineutrino terem sido detectados. (Geralmente, e por uma questão de simplicidade, a designação neutrino inclui também o antineutrino.)

Para ser localizado, o neutrino teria de interagir com outra partícula e essa interacção teria de ser detectável e distinta doutras interacções.

Ou seja, seria necessário reconhecer que determinada interacção fora provocada por um neutrino e por nada mais.

Isso não constituía uma tarefa fácil, uma vez que o neutrino praticamente não interage com o que quer que seja. Tipicamente, calcula-se que um neutrino seja capaz de atravessar 3500 anos-luz de chumbo sólido antes de ser absorvido.

Mas estamos a falar aqui do neutrino típico. O acaso pode levar certos neutrinos, individualmente, a evitarem colisões directas durante muito mais tempo e a deslocarem-se a distâncias que podem ser o dobro ou um milhão de vezes aquela que foi indicada, antes de serem absorvidos. Outros, pelo contrário, podem sofrer uma colisão após terem viajado apenas metade ou a milionésima parte dessa distância média. O que significa que se estivermos a lidar com um feixe contendo biliões e biliões de neutrinos e os fizermos atravessar uma certa quantidade de matéria no laboratório, um ou outro poderão colidir com alguma partícula nessa matéria e interagir.

Para termos qualquer possibilidade de detectar neutrinos precisamos, portanto, duma fonte muito rica nos mesmos. Quando foram concebidos os reactores nucleares, baseados na fissão de núcleos de urânio, criaram-se igualmente fontes abundantes de neutrinos.

Os núcleos de urânio, sendo muito complexos, precisam dum número muito elevado de neutrões para apresentarem alguma estabilidade, por pequena que seja: no caso do urânio-235, 143 neutrões para 92 protões. Quando um núcleo de urânio se desintegra em dois fragmentos mais pequenos, cada qual necessita dum menor número de neutrões para ser estável, pelo que algumas destas partículas são emitidas. Com o passar do tempo, muitas delas desintegram-se, originando protões e libertando igualmente antineutrinos. Um reactor de fissão típico pode facilmente emitir um milhar de milhão dum milhar de milhão de antineutrinos por segundo.

Tendo uma fonte de antineutrinos, põe-se o problema de saber o que esperar deles. Sabemos que os neutrões se desintegram produzindo um protão e emitindo um electrão e um antineutrino. Seria possível inverter este processo, forçando um protão a absorver ao mesmo tempo um electrão e um antineutrino para se transformar de novo num neutrão?

Isso seria pedir demasiado. A probabilidade dum antineutrino colidir com um protão é já muito reduzida. Esperar que essa colisão tenha lugar ao mesmo tempo que um electrão colide com o mesmo protão é excessivo. Tratar-se-ia dum fenómeno tão raro que seria impraticável. Contudo, a colisão dum electrão com um protão é equivalente à emissão dum positrão por um protão. (É como dizer que darem-nos um dólar é equivalente a pagarem uma nossa dívida nesse valor. Seja de que modo for, o nosso património aumenta num dólar.)

Tal significa que é possível ter uma colisão entre um antineutrino e um protão, que depois emite um positrão, convertendo-se num neutrão. Esta transformação respeita a conservação do número bariónico, uma vez que o protão se transforma num neutrão e ambas as partículas possuem número bariónico +1. Existe igualmente conservação do número leptónico, visto que desaparece um antineutrino e surge um positrão, que têm ambos número leptónico -1. Há também conservação da carga eléctrica, pois desaparece um protão e é criado um positrão, ambos com uma carga de +1. As leis de conservação da energia, momento linear e momento angular são igualmente conservadas.

Suponhamos então que um antineutrino colide com um protão, produzindo um neutrão e um positrão. Como é que podemos saber que a transformação ocorreu realmente? Trata-se dum fenómeno que só acontece muito raramente e, entretanto, acontecem outros tipos de interacções que encobrem a acção do neutrino. Mas se houver produção dum neutrão e um positrão, este último irá forçosamente combinar-se com qualquer electrão que encontre num intervalo dum milionésimo de segundo, de que resultará a sua aniquilação mútua. Neste processo, formam-se dois raios gama de igual intensidade, que se deslocam em direcções opostas, com uma energia total equivalente à massa das duas partículas. Quanto ao neutrão, pode ser rapidamente absorvido pelo núcleo dum átomo de cádmio (se existirem átomos desse tipo na vizinhança). No decurso de tal transformação, o núcleo adquirirá energia suficiente para emitir três ou quatro fotões com uma energia total de valor fixo.

Não existe nenhuma outra interacção que produza exactamente este resultado. Por conseguinte, se localizarmos fotões emitidos todos no mesmo instante, nas direcções e com as energias adequadas, saberemos que detectámos a interacção dum neutrino com um protão, e nenhum outro fenómeno.

Em 1953, uma equipa de físicos norte-americanos liderada por Fre-derick Reines (1918-1998) e Clyde Lorrain Cowan (1919-1974) começou a estudar o problema dessa perspectiva. Utilizando um reactor de fissão, a equipa concebeu um dispositivo experimental que permitia que o maior número possível de antineutrinos penetrasse em grandes tanques de água contendo biliões e biliões de protões nos núcleos dos átomos de hidrogénio e oxigénio das moléculas de água. Nesta fora dissolvido cloreto de cádmio, servindo o núcleo de cádmio para capturar quaisquer neutrões libertados. O dispositivo experimental incluía ainda detectores de radiação gama, capazes de determinar as direcções e energias dos fotões. Uma vez o dispositivo assim montado, restava aos cientistas envolvidos na experiência esperar pela combinação certa de fotões.

É evidente que, para detectarem a combinação certa, tinham de ser capazes de eliminar o maior número possível de combinações erradas. Para isso, o dispositivo experimental foi sendo blindado de modo cada vez mais eficiente, à medida que a experiência prosseguia. Por fim, praticamente nada conseguia penetrá-lo excepto antineutrinos. A equipa de físicos consegui por fim eliminar suficiente "ruído de fundo" para ter a certeza de que aquilo que estava a detectar eram as interacções ocasionais dum antineutrino com um protão. Em 1956, vinte e seis anos após a formulação da hipótese por Pauli, Reines e Cowan anunciaram ter detectado um antineutrino.

Outros cientistas tentaram imediatamente repetir a experiência ou versões modificadas da mesma. E não restavam dúvidas. Desde que dispusesse do equipamento adequado, qualquer um podia detectar antineutrinos. Estes tinham deixado de ser partículas-fantasma; correspondendo exactamente à partícula que Pauli e Fermi tinham concluído ser necessária para explicar a radiação beta e a desintegração do neutrão. (Esta experiência constitui um belo exemplo do valor que tem a utilização da lógica em ciência. Ela mostra também quão importante é atermo--nos a uma boa teoria - como as diversas leis de conservação - enquanto tal for razoável. É claro que pode sempre surgir um momento em que uma teoria que até aí parecia firme como o aço tem de ser abandonada - mesmo tratando-se duma lei de conservação - e haveremos de encontrar casos desses. O facto da ciência se corrigir ocasionalmente a si mesma, por maior que seja a relutância dos seus praticantes, constitui a sua coroa de glória. Nenhuma outra actividade intelectual humana dispõe dum mecanismo interno idêntico para o fazer.)


A Detecção do Neutrino

 

Tal como o processo de fissão produz grande quantidade de antineutrinos, por causa do número elevado de conversões de neutrões em protões que nela ocorrem, também a fusão gera um grande número de neutrinos devido às conversões igualmente maciças das mesmas partículas. Na fusão do hidrogénio para dar hélio, por exemplo, quatro núcleos de hidrogénio, constituídos por quatro protões, são convertidos num núcleo de hélio formado por dois protões e dois neutrões. No decurso desse processo formam-se dois positrões e, com estes, dois neutrinos.

Embora já existam reactores de fissão em funcionamento que nos fornecem grande número de antineutrinos, não dispomos ainda de reactores de fusão que produzam quantidades significativas de neutrinos. A fusão não controlada duma bomba de hidrogénio produz durante algum tempo um grande número de neutrinos, mas não se afigura muito prático trabalhar nas proximidades duma tal explosão para aproveitar essa fonte abundante de neutrinos. Todavia, dispomos duma enorme bomba de hidrogénio em contínua "explosão" a cerca de 150 milhões de quilómetros de distância - o Sol. Este astro produz um número incrivelmente elevado de neutrinos por segundo há mais de quatro milhares de milhões de anos.

No centro do Sol, onde têm lugar os processos de fusão, são produzidos fotões. Estes interagem prontamente com a matéria, sendo absorvidos, emitidos de novo, reabsorvidos novamente, e assim por diante. Os fotões levam um tempo imenso a deslocar-se do centro do Sol até à sua superfície, donde são lançados para o espaço, acabando alguns deles por alcançar a Terra. No entanto, sucedeu tanta coisa a estes fotões durante a sua viagem pelo interior do Sol que pouco nos podem dizer sobre aquilo que se passa no centro do astro.

Com os neutrinos, o caso muda de figura. Estas partículas interagem tão pouco com a matéria que, após a sua formação, se deslocam do centro do Sol até à sua superfície em pouco mais de dois segundos. (Visto que os neutrinos não possuem massa, deslocam-se à velocidade da luz, tal como os fotões e gravitões.) Uma vez alcançada a superfície solar, os neutrinos prosseguem a sua viagem e, no caso de se deslocarem em direcção à Terra, alcançam o nosso planeta ao fim de oito minutos.

Uma vez que os neutrinos chegam até nós directamente do centro do Sol, existe pelo menos uma possibilidade de, a partir das suas propriedades, conseguirmos obter informações sobre essa região que, de outro modo, não poderiam ser obtidas. Detectar neutrinos de origem solar representa, por isso, muito mais do que provar simplesmente a sua existência. E uma forma de investigar o Sol.

Se quisermos detectar neutrinos temos de usar uma interacção entre partículas inversa da que foi utilizada para detectar antineutrinos. Para detectar antineutrinos, fazemos com que colidam com protões a fim de produzirem neutrões e positrões. Para os neutrinos, temos de fazer com que colidam com neutrões para darem origem a protões e electrões. Necessitamos, portanto, dum alvo rico em protões, como a água, para a detecção de antineutrinos. Para os neutrinos precisamos dum alvo rico em neutrões e, para isso, temos de usar núcleos onde tais partículas abundem.

O físico italiano Bruno M. Pontecorvo (1913-1993) propôs a utilização dum elemento que possui um núcleo particularmente rico em neutrões - o cloro-37, com 17 protões e 20 neutrões. Se o cloro-37 capturar um neutrino, um dos seus neutrões é transformado num protão, originando a emissão dum electrão.

Mas porquê utilizar este núcleo rico em neutrões e não outro qualquer? A razão é simples: quando o núcleo de cloro-37 perde um neutrão e ganha um protão, transforma-se em árgon-37 (18 protões e 19 neutrões), um gás que pode ser facilmente separado do material que contém cloro-37. Por isso, a detecção deste gás será um indício da captura dum neutrino e de nenhum outro processo.

O leitor poderá pensar que a melhor forma de obter um alvo de cloro-37 é usar o próprio cloro. No entanto, este elemento é um gás e seria muito difícil separar dele quantidades muito pequenas doutro gás. Uma alternativa seria liquefazer o cloro (tendo em conta que o árgon continua a ser um gás à temperatura a que o cloro fica líquido), mas isso implicaria um processo de refrigeração. Assim sendo, é preferível utilizar um composto que seja líquido à temperatura ambiente e cujas moléculas contenham muitos átomos de cloro.

O percloroetileno é um composto com essas características: cada molécula é constituída por dois átomos de carbono e quatro de cloro. Trata-se dum composto químico utilizado comummente na limpeza a seco e que é relativamente barato. Mesmo que na transformação sejam produzidos apenas alguns átomos de árgon-37, eles podem ser removidos do líquido utilizando hélio e depois detectados, visto que o árgon-37 é radioactivo e pode ser identificado, mesmo em quantidades ínfimas por causa do seu modo característico de desintegração.

Foi desta forma, utilizando a interacção que acabámos de descrever, que o físico norte-americano Raymond E. Davis conseguiu provar a existência do neutrino.

A partir de 1965, Reines, um dos descobridores do antineutrino, começou a trabalhar na detecção de neutrinos de origem solar. Utilizou para tal grandes tanques de percloroetileno enterrados no fundo duma mina, a cerca dum quilómetro e meio da superfície. As rochas circundantes serviam para absorver toda a radiação, mesmo as partículas da radiação cósmica, à excepção dos neutrinos, que conseguem facilmente atravessar a Terra. (Havia também a possibilidade de serem detectadas algumas partículas com origem no material radioactivo das rochas na vizinhança imediata do dispositivo experimental.)

E estranho pensar que há vantagens em estudarmos o Sol um quilómetro e meio abaixo do solo, mas foi isso mesmo que Reines decidiu fazer. Contudo, por mais que melhorasse a sua técnica experimental e aumentasse a sensibilidade dos seus instrumentos, nunca consegui detectar mais do que cerca de 1/3 dos neutrinos esperados.

Porquê!1 Talvez o modo de realizar as observações seja desadequado; ou existam factos acerca dos neutrinos que ainda ignoramos; ou as nossas teorias sobre os processos que têm lugar no interior do Sol estejam erradas. Não há ainda uma resposta para este "mistério dos neutrinos desaparecidos". Mas quando ela surgir, será certamente muito excitante.

Se o Sol produz neutrinos, o mesmo acontece certamente com outras estrelas. No entanto, a estrela mais próxima de nós, Alfa Centauri (um sistema constituído por duas estrelas semelhantes ao nosso Sol e uma estrela-anã não muito brilhante), está a uma distância 270 000 vezes superior à que nos separa do Sol. O número de neutrinos que chegam até nós provenientes de Alfa Centauri será, na melhor das hipóteses, a cinquenté-sima parte dum milhar de milhão do número dos que são fornecidos pelo Sol. Uma vez que a detecção de neutrinos emitidos pelo Sol está no limite daquilo que é experimentalmente possível, é nula a possibilidade de detectarmos neutrinos provenientes de quaisquer outras estrelas normais.

Contudo, nem todas as estrelas são normais. De vez em quando, uma estrela explode originando uma gigantesca supernova. Nessas ocasiões, as radiações emitidas aumentam centenas de milhares de milhões de vezes.

Em Fevereiro de 1947, surgiu uma dessas supernovas na Grande Nuvem de Magalhães, a uma distância de 150 000 anos-luz do nosso planeta. A distância a que se encontrava era 33 000 superior à que nos separa de Alfa Centauri, mas a torrente de neutrinos produzida compensava largamente essa diferença. Foi a supernova que surgiu mais próximo de nós em quase 400 anos e a primeira para a qual dispúnhamos de "telescópios de neutrinos" do tipo daquele que fora concebido por Reines.

Um desses telescópios foi colocado sob os Alpes. Uma equipa de asttónomos italianos e soviéticos detectou um pico súbito de sete neutrinos na noite anterior àquela em que a supernova se tornou visível a olho nu. Podemos pois concluir que, à medida que os astrónomos aumentam a sua capacidade para detectar e estudar neutrinos, vão aprendendo mais, não apenas sobre aquilo que se passa no centro do Sol mas também sobre os processos que ocorrem durante as colossais explosões estelares e, talvez mesmo, sobre outros aspectos da astronomia.


Outros Leptões

 

Falámos até agora de quatro leptões: electrão, positrão, neutrino e antineutrino. As suas cargas eléctricas são, respectivamente, -1, +1, 0 e 0. As suas massas são (considerando o valor da massa do electrão como sendo igual a 1) 1, 1 0 e 0. Os seus spins são de +1/2 ou -1/2. E este meio spin que faz de todas estas partículas fermiões. (Os fotões e gravitões possuem massa 0 e carga eléctrica 0, mas têm spins de 1 e 2, respectivamente. O facto dele ser um número inteiro faz de ambas as partículas bosões.)

Era esta a situação em finais de 1936, quando o neutrino, antineutrino e gravitão não tinham ainda sido detectados mas a sua existência parecia segura. Nessa época, conheciam-se também quatro bariões: protão, neutrão, antiprotão e antineutrão.

Se juntarmos a estas partículas o fotão e o gravitão temos um total de dez partículas, que pareciam capazes de explicar toda a matéria existente no Universo, assim como todas as interacções observadas pelos cientistas. Seria bom se as coisas tivessem ficado por aí, uma vez que um Universo com dez partículas é um Universo relativamente simples.

No entanto, em 1936, Anderson, que descobrira o positrão quatro anos antes e que continuava a estudar a radiação cósmica no cimo de montanhas, identificou trajectórias de partículas com uma curvatura invulgar. As curvas eram menos acentuadas do que as dos electrões, pelo que tinham de corresponder a partículas com uma massa maior (partindo do princípio de que a nova partícula possuía uma carga eléctrica idêntica). As curvas eram, no entanto, mais marcadas do que as dos protões, pelo que as partículas tinham de ser menos maciças do que estes. Além disso, havia trajectórias deste tipo em ambas as direcções que em tudo o mais eram idênticas, o que indicava que nuns casos se estava na presença de partículas e nos outros de antipartícuias.

Os cientistas concluíram que existiam partículas e antipartículas de massa intermédia entre as dos leptões e bariões conhecidos. As medições efectuadas revelaram que as novas partículas possuíam uma massa 207 vezes superior à do electrão e, portanto, igual a cerca de 1/9 da massa dum protão ou neutrão.

Anderson começou por designar a nova partícula mesotrão, onde o prefixo meso provém do grego e significa "meio" ou "intermédio". Repare-se, de novo, na terminação incorrecta -trão. Desta vez, felizmente, o nome não pegou e a designação mesão passou a ser usada genericamente para todas as partículas de massa intermédia. A partícula de Anderson revelou-se apenas uma dum conjunto de partículas de massa intermédia, pelo que houve necessidade de as distinguir uma das outras. A partícula de Anderson foi designada mesão mu, onde mu é uma letra do alfabeto grego cujo som é equivalente ao nosso m. No entanto, e como terei ocasião de explicar mais à frente, veio a descobrir-se que o mesão mu diferia das outras partículas de massa intermédia num aspecto fundamental. E assim, o uso da expressão mesão acabou por se restringir às outras partículas, não incluindo o mesão mu. A partícula de Anderson é designada actualmente muão.

O muão foi a primeira partícula a ser descoberta que não tinha um papel óbvio na estrutura dos átomos, ou para salvar as leis de conservação ou como mediador de interacções subatômicas. Conta-se até que o físico austro-americano Isidor Isaac Rabi (1898-1988), ao ouvir falar de muões, terá exclamado: "Mas quem foi que os encomendou?"

O muão possui carga eléctrica -1, precisamente a do electrão, enquanto que o antimuão tem carga eléctrica +1, que é a do positrão. Com efeito, o muão negativo é idêntico em todos os aspectos ao electrão, à excepção da sua massa e duma outra propriedade, o mesmo se passando com o antimuão relativamente ao positrão. Isto é verdade no que se refere a aspectos como a carga eléctrica, spin e campo magnético. Um muão negativo pode até substituir um electrão num átomo, dando origem a um átomo muónico de vida muito breve.

Para que haja conservação do momento angular, um muão deve possuir um momento angular idêntico ao do electrão que substitui. Uma vez que o muão tem uma massa muito superior à do electrão, o que contribui para aumentar o respectivo momento angular, a partícula tem de se deslocar mais perto do núcleo do que o electrão para que o seu valor seja menor. Também podemos pensar nos seguintes termos: uma vez que o muão, com uma massa muito superior à do electrão, tem associada ' uma onda muito mais curta, cabe numa órbita muito mais pequena.

Visto que os átomos muónicos são, pelo motivo atrás referido, muito mais pequenos do que os átomos electrónicos, dois átomos do primeiro tipo podem aproximar-se muito mais do que podem fazê-lo os electrões. Os núcleos dos átomos muónicos têm, assim, uma tendência muito maior a fundir-se do que os dos átomos electrónicos vulgares. Os átomos muónicos parecem, portanto, constituir uma via possível para obter na prática uma fusão - embora exista um problema tremendo a que me referirei adiante.

Um muão negativo é idêntico a um electrão, excepto na sua massa e numa outra propriedade. Pode até substituir um electrão num átomo, originando um efémero átomo muónico.

Os muões e antimuões podem aniquilar-se mutuamente, libertando nesse processo 207 vezes mais energia do que os electrões e positrões. De modo análogo, se concentrarmos numa pequena região do espaço 207 vezes mais energia do que a necessária para formar um par electrão-posi-trão, podemos criar um par muão-antimuão.

Mas o que acontecerá se um muão for produzido sem o seu anti-muão, como sucede quando um electrão se forma sem o positrão correspondente por desintegração dum neutrão? Existem partículas de carga negativa (de que falarei mais à frente) que possuem massa superior à do muão e se desintegram para dar origem a este, sem que se forme também um antimuão. Analogamente, há partículas de carga positiva que originam antimuões sem que se formem muões.

Este facto não constitui uma violação da lei de conservação da carga eléctrica. No entanto, e tal como sucedia no caso da desintegração dos neutrões, há violação das leis de conservação da energia e do momento linear. Além disso, as partículas mais maciças que se desintegram produzindo muões não são, elas mesmas, bariões ou leptões, embora o muão seja um leptão. Por isso, embora a desintegração não viole a lei de conservação do número bariónico, viola a lei de conservação do número leptónico, uma vez que resulta aparentemente na formação dum leptão a partir do nada. Também aqui, como no caso da desintegração dos neutrões, a formação simultânea de neutrinos e antineutrinos permite preservar as leis de conservação, embora com uma complicação adicional a que me referirei adiante.

Podemos pensar num muão como sendo simplesmente um electrão de grande massa e num antimuão como sendo um positrão maciço. Mas por que razão haveriam ambos de existir, e por que razão hão-de ter uma massa 207 vezes superior à massa do electrão ou do positrão, e não outro valor qualquer?

Utilizemos uma analogia. Imagine o leitor que um electrão é uma bola de golfe em repouso no fundo dum vale de energia. Não existe qualquer modo dela descer mais ainda, pelo que permanece indefinidamente nessa posição. No entanto, se lhe for fornecida energia adicional (como sucederia se a bola fosse batida com um taco de golfe), a bola sobe a encosta do vale. Atinge uma altura máxima e depois desliza de novo para o fundo, libertando a energia que adquiriu nesse processo.

Quanto maior for a força da pancada, mais alto a bola subirá pela encosta antes de começar a descer. Se a bola for atingida com força suficiente, poderá subir o suficiente para alcançar um patamar na encosta, onde permanecerá. A bola continua a ser uma bola de golfe (isto é, um electrão), mas adquiriu energia suficiente para permanecer numa posição bem acima da sua posição habitual no fundo do vale ou, em termos subatômicos, adquiriu muito mais massa do que tinha no fundo do vale.

Acontece que esse patamar se situa a um nível de energia equivalente a 207 vezes a massa do electrão. Porquê? Não o sabemos, mas a nossa incapacidade para encontrar uma explicação não constitui um drama. (A ciência não conseguiu explicar tudo acerca de qualquer domínio do conhecimento e talvez nunca consiga fazê-lo. Os cientistas têm descoberto inúmeras respostas, ou respostas aparentes, para múltiplos problemas, mas cada resposta traz consigo problemas novos, mais subtis e, quem sabe, de solução mais difícil.)


Partículas Instáveis

 

O electrão, como sabemos, é uma partícula estável. Estável não significa, no entanto, que nada lhe possa acontecer. Se um electrão se encontrar com um positrão, as duas partículas aniquilam-se mutuamente, convertendo-se em fotões. Se um electrão colidir com outra partícula que não um positrão, pode sofrer outros tipos de transformações.

Contudo, se um electrão estiver isolado no espaço e não encontrar quaisquer outras partículas, permanecerá (tanto quanto sabemos) indefinidamente no mesmo estado, sem alteração das suas propriedades.

O mesmo se passa com o positrão, neutrino e antineutrino. Os quatro leptões que eram conhecidos antes da descoberta do muão são todos partículas estáveis. (A situação é idêntica no que se refere aos dois bosões identificados nos anos 30 - o fotão e o gravitão.)

Das partículas que não são leptões e que eram conhecidas antes da descoberta do muão - ou seja, o protão, antiprotão, neutrão e antineutrão - as duas primeiras parecem ser estáveis (embora existam actualmente algumas dúvidas quanto a isso, como veremos).

O neutrão e o antineutrão não são estáveis. Se um neutrão for isolado de qualquer outra partícula, acabará, ainda assim, por se desintegrar, originando um protão, um electrão e um antineutrino. Um antineutrino, por sua vez, dará origem a um antiprotão, um positrão e um neutrino. Contudo, trata-se dum processo relativamente lento, que demora, em média, vários minutos. Além disso, quando um neutrão faz parte dum núcleo não radioactivo, é estável, podendo aí permanecer para sempre inalterado. Os muões, no entanto, desintegram-se quase de imediato, produzindo electrões. Um muão típico desintegra-se em apenas I/500 000 dum segundo, se não existirem outras interacções.

Por que razão há-de o muão durar tão pouco tempo? Consideremos novamente a analogia de há pouco, em que um electrão era lançado pela encosta acima e ficava a repousar num patamar que representava 207 vezes a massa no fundo do vale. Podemos imaginar que esse patamar é estreito e que o muão fica aí a vibrar ou tremer. Em resultado dessa vibração, o muão acaba, mais cedo ou mais tarde, por cair do patamar, deslizando pelo vale abaixo e transformando-se de novo num electrão. Por causa da pequena dimensão do patamar e da magnitude das vibrações, esse "mais cedo ou mais tarde" revelou-se igual a 1/500 000 dum segundo.

Todos os objectos, incluindo o leitor e eu próprio, exibem um certo tipo de vibração, que resulta do facto da mecânica quântica mostrar que existe uma onda associada a qualquer corpo. No caso dos objectos mais comuns, essa vibração é tão ínfima que pode ser desprezada. No entanto, quanto menor é uma massa, maior é a vibração relativamente às dimensões do objecto. As partículas subatômicas possuem uma massa tão pequena que a vibração assume uma importância considerável e tem de ser levada em conta em qualquer estudo das respectivas propriedades.

O electrão também possui uma vibração associada - na verdade, mais acentuada do que a do muão. Contudo, o electrão encontra-se no fundo do vale. Daí não pode cair para lado algum e por isso a partícula é estável.

Em 1975, o físico norte-americano Martin Perl (n. 1927) detectou na miríade de partículas que se obtêm nos aceleradores quando se produzem colisões uma que era semelhante ao electrão mas apresentava uma massa maior ainda que a do muão. Chamou a essa partícula leptão tau, em que tau é uma letra do alfabeto grego equivalente ao nosso t. A partícula também é designada um tauão.

O tauão partilha todas as suas propriedades, à excepção de duas, com o electrão e o muão. Dessas duas, uma é a massa. O tauão é um electrão super-maciço, com uma massa que é cerca de 3 500 vezes a do electrão e quase 17 vezes superior à do muão. Possui uma massa quase dupla da do protão ou do neutrão e, todavia, o seu comportamento indica claramente que é um leptão, embora esta designação seja usada sobretudo para partículas bem mais conhecidas de pequena ou nenhuma massa. (Poderá parecer confuso e contrário ao senso comum que um nome que implica pequenez seja usado com uma partícula de grande massa, mas considere o leitor a seguinte analogia. Os répteis, incluindo os crocodilos, anacondas e os extintos dinossáurios, são muito maiores do que os insectos, se considerarmos cada grupo de animais como um todo. Existem, no entanto, escaravelhos gigantes do tamanho dum punho humano e lagartos tão pequenos que cabem na ponta dos nossos dedos. E, todavia, o escaravelho é um insecto e o lagarto um réptil.)

A segunda característica que distingue o tauão das outras partículas referidas é a sua instabilidade. Com efeito, é muito mais instável do que o muão, uma vez que se desintegra em apenas cinco bilionésimos dum segundo. Ao fazê-lo, transforma-se num muão que, por sua vez, se converte num electrão.

Podemos imaginar que o tauão resulta dum ganho de energia que leva a partícula a subir muito pela nossa encosta acima. A partícula atinge um patamar muito mais alto e estreito do que aquele que alcançara o muão. O tauão permanece nesse patamar uma fracção ínfima de tempo, antes de voltar a cair. Será então que devemos esperar a descoberta de outros leptões, mais maciços e instáveis ainda do que o tauão? Existirá um número infinito de patamares na encosta da nossa analogia, cada qual mais alto e estreito que o anterior?

Aparentemente não é assim. Os físicos têm razões para acreditar, com base nalgumas observações recentes e raciocínios bastante complexos, que três é o limite e que já identificámos por isso todos os leptões existentes.

Os átomos tauónicos, a existirem, seriam ainda mais pequenos do que os átomos muónicos e, por conseguinte, ainda mais fáceis de fundir. Por esta altura, o leitor já percebeu provavelmente qual é o problema com tudo isto. Tais leptões pesados são demasiado instáveis para poderem ser usados na prática em fusões nucleares, uma vez que desaparecem antes de podermos fazer com eles seja o que for.


Variedades de Neutrinos

 

Analisemos com algum detalhe a desintegração dos muões, uma vez que existe nesse processo um problema que está relacionado com as leis de conservação. Suponhamos que o muão se desintegra num electrão e num antineutrino. Nesse processo existe conservação da carga eléctrica e do momento linear. No entanto, não há conservação do momento angular. O muão possui um spin de +1/2 ou -1/2, o que também acontece com o electrão e o antineutrino. Um electrão e um antineutrino, considerados em conjunto, têm um spin de +1, 0 ou -1, em função dos sinais dos respectivos spins. Os dois não podem, portanto, apresentar um spin total de +1/2 ou -1/2.

Por que razão é que a desintegração do muão parece violar a lei de conservação do momento angular, mesmo levando em conta um antineutrino, quando isso não acontece com a desintegração do neutrão? Tal deve-se ao facto do neutrão se desintegrar dando origem a três partículas - um protão, um electrão e um antineutrino - e três valores de 1/2 se poderem adicionar para dar um valor total de 1/2. A desintegração do muão, tal como a descrevemos até agora, produz apenas duas partículas - um electrão e um antineutrino - e a soma de dois valores de 1/2 só pode dar um número inteiro, nunca um valor de 1/2. Por outras palavras, temos de admitir que o muão, ao desintegrar-se, dá origem também a três partículas - um electrão e talvez dois antineutrinos.

Infelizmente, isso não garante necessariamente o respeito pelas leis de conservação. O muão possui número leptónico +1. O electrão e o antineutrino possuem, cada qual, um número leptónico +1, pelo que começamos com +1 e terminamos com +2, violando assim a lei de conservação do número leptónico. Se acrescentarmos um segundo neutrino, começamos com +1 e terminamos com +3, o que ainda é pior. Suponhamos, no entanto, que o muão, ao desintegrar-se, dá origem a um electrão, um antineutrino e um neutrino. O neutrino tem número leptónico -1, pelo que as três partículas produzidas têm números leptónicos de +1, +1 e -1, cuja soma é +1, o que corresponde ao número leptónico do muão original. Se admitirmos, por conseguinte, que um muão, ao desintegrar-se produz, para além dum electrão, também um neutrino e um antineutrino, todas as leis de conservação são respeitadas.

Um final feliz? Sim, à excepção dum pequeno pormenor. Todas as interacções que os físicos tinham observado até à descoberta do muão e que produziam neutrinos, originavam um neutrino ou um antineutrino. A desintegração do muão é invulgar porque dá origem a um neutrino e a um antineutrino.

Será que isso significa que existem dois tipos de neutrinos? Um tipo produzido apenas por electrões e outro apenas por muões, de tal modo que se possa falar de neutrinos (e antineutrinos) de electrão e de neutrinos (e antineutrinos) muónicos? Será que quando o muão se desintegra e dá origem a um electrão, o muão e o electrão produzem cada qual a sua variedade de neutrino e que é isso que explica a razão porque a desintegração do muão envolve dois neutrinos? Esta questão é conhecida como o problema dos dois neutrinos.

Se um neutrino de electrão e um neutrino muónico forem diferentes na sua natureza, isso dever-se-á a alguma diferença nas suas propriedades - algo que os físicos não conseguiram detectar até agora. O estudo dos neutrinos produzidos por muões é ainda mais difícil do que aqueles que resultam de electrões mas, tanto quanto os físicos são capazes de dizer, os dois tipos são idênticos. Ambos possuem carga 0, massa 0, spin de +1/2 ou -1/2, e por aí fora.

Será que isto resolve o problema? É claro que não. Pode muito bem acontecer que exista uma diferença num qualquer aspecto em que cientista algum pensou até agora e que, por isso, nunca ninguém tentou medir (partindo do princípio de que dispomos de dispositivos para realizar tal medição).

Contudo, se não podemos detectar quaisquer diferenças directamente, talvez possamos fazê-lo indirectamente, forçando as partículas a decidirem-se elas mesmas. Suponhamos, por exemplo, que um antineutrino produzido por um electrão encontra um neutrino produzido por um muão. Se as duas partículas forem idênticas em todos os aspectos, à excepção de constituírem a imagem no espelho uma da outra, deverão aniquilar-se mutuamente, dando origem a um pulso ínfimo de energia. Se elas diferirem em qualquer aspecto que não apenas o facto de serem imagens no espelho uma da outra, a aniquilação mútua não deverá ocorrer. E se não houver aniquilação, será porque as partículas reconhecem a sua diferença, e para nós tal será suficiente. Aceitaremos o seu juízo, mesmo ignorando em que consiste essa diferença.

Contudo, os neutrinos são partículas tão ínfimas e não reactivas que a probabilidade de duas delas se encontrarem é praticamente nula. E mesmo que tal suceda, a energia produzida pode muito bem ser demasiado pequena para que a consigamos detectar. Existe, no entanto, outra forma de obrigar os neutrinos a revelarem a sua natureza. Se um electrão produzir apenas neutrinos de electrão e um muão neutrinos muónicos, e se as interacções forem invertidas, o neutrino de electrão deverá dar origem apenas a electrões e o neutrino muónico apenas a muões. Todavia, se os dois neutrinos forem realmente idênticos, produzirão electrões e muões em igual quantidade.

A experiência atrás descrita foi realizada em 1961 por uma equipa dirigida pelo físico norte-americano Leon Max Lederman (n. 1922). Os cientistas começaram por fazer colidir protões altamente energéticos com um alvo do metal berílio. As colisões deram origem a grande número de partículas, entre as quais muões de alta energia que decaíram, produzindo neutrinos muónicos de elevada energia. Esta enorme mistura de partículas foi depois lançada contra uma placa de aço com 12 metros de espessura que tudo absorveu à excepção dos neutrinos (que atravessam toda a matéria). Do outro lado da placa de aço, o feixe de neutrinos muónicos penetrava num dispositivo capaz de detectar colisões de neutrinos. É claro que estas nunca seriam em grande número, mas ao longo dum período de oito meses foram observadas 56 e todas elas produziram muões.

Este resultado tornou claro que um neutrino muónico não podia produzir um electrão e que, por conseguinte, era diferente nalguma característica (independentemente de a conhecermos ou não) dum neutrino de electrão. Pelo seu trabalho, Lederman foi galardoado com um Prémio Nobel em 1988.

A experiência de Lederman mostrou que a conservação do número leptónico é um pouco mais complicada do que se pensava. Existem leis de conservação do número electrónico e de conservação do número muónico distintas. Assim, um electrão tem número electrónico +1 e um positrão -1. Um neutrino de electrão tem número electrónico +1 e um antineutrino de electrão -1. Todos possuem número muónico 0. Analogamente, um muão tem número muónico +1 e um antimuão -1. Um neutrino muónico tem número muónico +1 e um antineutrino muónico -1. Todos possuem número electrónico 0.

Quando um muão, com número muónico +1 e número electrónico 0 se desintegra, dá origem a um electrão (número electrónico +1, número muónico 0), a um antineutrino de electrão (número electrónico -1, número muónico 0) e a um neutrino muónico (número electrónico 0, número muónico +1). Somadas, as três partículas que resultam da desintegração têm número muónico +1 e número electrónico 0, que é também aquilo que se passa com o muão inicial. Na transformação há, portanto, conservação tanto do número electrónico como do número muónico.

O tauão também dá origem a um neutrino, que até agora foi pouco estudado mas que os físicos suspeitam possuir todas as propriedades óbvias dos outros dois neutrinos, embora seja de algum modo diferente deles. Parece pois inevitável supor que existe algo como uma lei de conservação do número tauónico.

Os físicos falam actualmente na existência de três "sabores" de leptões. E que são: (1) o electrão e o neutrino de electrão, (2) o muão e o neutrino muónico, e (3) o tauão e o neutrino tauónico. Existem igualmente três, sabores de antileptões: (1) o antielectrão (positrão) e o antineutrino de electrão, (2) o antimuão e o antineutrino muónico, e (3) o tauão e o antineutrino tauónico. (O termo sabor é, num certo sentido, uma escolha infeliz. Na linguagem corrente, a palavra é utilizada para distinguir as coisas pelo seu paladar, como sucede com os diferentes sabores dos gelados. Não é correcto dar àqueles que não são cientistas a ideia de que as diferenças entre partículas subatômicas constituem "matizes" em vez de diferenças absolutas, mensuráveis. Todavia, os cientistas também são seres humanos e por vezes escolhem expressões teatrais ou mesmo cómicas. Por exemplo, os núcleos de alguns átomos são mais fáceis de atingir com projécteis subatômicos do que outros. Alguns cientistas bem-humorados resolveram dizer que era tão fácil acertar neles "como na parte lateral dum celeiro" [as the side of a bam]. Em resultado dessa brincadeira, a secção eficaz dum núcleo, uma medida da facilidade com que este pode ser atingido, é medida numa unidade designada bam)

Existe, portanto, um total de doze leptões e antileptões. São partículas fundamentais (ou pelo menos consideram-se actualmente como tal), uma vez que não se desintegram espontaneamente em partículas mais simples. O tauão e o muão desintegram-se em electrões, enquanto que o antitauão e o antimuão produzem positrões. O electrão, o positrão, os três neutrinos e os três antineutrinos não parecem desintegrar-se de todo.

Por que razão há doze leptões, se o Universo só parece conter electrões e neutrinos de electrões em quantidades apreciáveis? Os antineutrinos de electrões só são produzidos no decurso de transformações radioactivas que, no conjunto do Universo, são pouco numerosas. Os positrões surgem em algumas transformações radioactivas, mas mais raramente ainda que os antineutrinos de electrões. Os leptões mais pesados e os seus neutrinos, tanto quanto sabemos, só são produzidos em laboratório através de processos como o bombardeamento com radiação cósmica.

Mas a ser assim, por que razão é que o Universo não funciona apenas com electrões e neutrinos de electrões? Para quê complicar desnecessariamente as coisas? Porque, diz-me o meu instinto, as complicações não são desnecessárias. O Universo está construído de tal modo que cada interacção desempenha o seu papel. Podemos não ser capazes de compreender a relevância do tauão, por exemplo. No entanto, estou convicto de que a existência do tauão é essencial para que o mecanismo do Universo, seja ele qual for, funcione. E que sem o tauão o Universo não seria aquele em que vivemos e talvez não pudesse sequer existir.


10. INTERACÇÕES


A Interacção Forte

 

Esqueçamos por momentos os leptões. O que se passa com os bariões, ou seja, com as partículas que constituem os núcleos atómicos? A partir do momento em que o neutrão foi descoberto e a estrutura protão-neutrão foi proposta para o núcleo, estas partículas passaram a representar um problema sério, que pode ser resumido na seguinte pergunta: "O que é que mantém o núcleo coeso?"

Até 1935, conheciam-se apenas dois tipos de interacção capazes de manterem corpos juntos: a gravítica e a electromagnética. Das duas, a primeira é tão fraca que pode ser completamente ignorada no mundo das partículas subatômicas. A interacção gravítica só se faz sentir de forma significativa quando estão presentes grandes massas. É uma interacção importante quando se trata de satélites, planetas, estrelas e galáxias, mas não no caso dos átomos e partículas subatômicas.

Resta portanto a interacção electromagnética. A atracção entre cargas eléctricas positivas e negativas serve perfeitamente para explicar como é que as moléculas se mantêm juntas nos cristais, a coesão dos átomos nas moléculas e a ligação entre electrões e núcleos nos átomos. No entanto, os cientistas depararam com um problema quando começaram a estudar o núcleo atómico.

Enquanto estiveram convencidos de que os núcleos eram constituídos por protões e electrões, não houve problema algum. Os protões e electrões atraíam-se fortemente. Na verdade, atraíam-se com tanta mais força quanto mais próximos se encontravam. E, nos núcleos, uns e outros estavam virtualmente em contacto. Os protões também estavam virtualmente em contacto uns com os outros, tal como os electrões. E entre objectos com idêntica carga eléctrica existe uma repulsão tão forte como a atracção entre entidades com cargas de sinal contrário.

Era portanto de esperar que, no interior dum núcleo, os protões se repelissem uns aos outros e que o mesmo sucedesse com os electrões. Mas supunha-se, os dois tipos de partículas estavam misturados e dispostos de tal modo que as atracções eram mais eficazes do que as repulsões. Isto era verdade no caso dos cristais, frequentemente constituídos por uma mistura de iões de cargas positivas e negativas, com as cargas de sinal contrário distribuídas de tal modo que as atracções se sobrepunham às repulsões, garantindo a coesão dos cristais. Em suma: no interior dum núcleo, os electrões funcionavam como uma espécie de cimento para os protões, e vice-versa. E a integridade do núcleo era assegurada pela acção destes dois cimentos.

Contudo, a natureza do spin nuclear e a necessidade de conservação do momento angular puseram em dúvida a validade do modelo protão--electrão para a estrutura nuclear. Com a descoberta do neutrão, tornou-se rapidamente evidente que havia necessidade de considerar uma estrutura protão-neutrão, a qual permitia resolver todas as dificuldades relacionadas com o anterior modelo - à excepção duma. O cimento desaparecera.

Se considerarmos apenas a interacção electromagnética, a única força capaz de se fazer sentir no interior dum núcleo constituído por protões e neutrões é a repulsão extremamente forte entre cada protão e todos os outros. Os neutrões, que não possuem carga eléctrica, não atraem nem repelem os protões. São, por assim dizer, meras testemunhas oculares. A intensa repulsão protão-protão deveria ser suficiente para fazer os núcleos explodir instantaneamente numa miríade de protões individuais.

E, contudo, isso não sucede. Os núcleos atómicos mantêm a sua integridade, apresentam uma estabilidade considerável, não existindo sinais duma repulsão mútua destrutiva entre os protões. Mesmo no caso dos núcleos radioactivos, as explosões ocorrem dentro de limites muito estritos, transformando um protão num neutrão, ou vice-versa, eliminando uma partícula alfa com dois protões e dois neutrões ou, em casos extremos, partindo os núcleos ao meio. Tudo isto acontece de modo relativamente lento, por vezes excessivamente lento. Nunca núcleo algum explode instantaneamente libertando os seus protões individuais.

A conclusão natural que temos de extrair deste facto é que existe uma qualquer interacção envolvida, que não é de natureza gravítica nem electromagnética. Um tipo de interacção que nunca fora imaginado, muito menos estudado, e que assegura a coesão dos núcleos. Trata-se duma interacção que podemos designar como interacção nuclear.

Esta interacção nuclear, seja qual for a sua natureza, deve ser responsável por uma força atractiva intensa - uma força muito superior à força repulsiva produzida pelas cargas eléctricas positivas dos diferentes protões. Com efeito, e como se veio a verificar, a interacção nuclear produz uma força atractiva com uma intensidade mais de 100 vezes superior à da interacção electromagnética. Ela é, na verdade, a força mais poderosa que sabemos existir entre partículas subatômicas (e, segundo se crê, a mais forte que pode existir). Por isso, é geralmente designada interacção forte. Mas em que consiste esta interacção forte? E como funciona?

O primeiro a pensar na possível existência da interacção forte foi Heisenberg (1901-1976) que, em 1932, fora também quem primeiro sugerira uma estrutura de protões e neutrões para o núcleo. O que não é, em si mesmo, surpreendente. Quando um cientista propõe uma ideia inovadora que resolve diversos problemas, mas que apresenta uma falha óbvia, sente-se como que obrigado a fazer os possíveis por remediá-la. Afinal, é sua própria criação que está em causa.

Heisenberg concebeu a noção de forças de troca. Trata-se dum conceito desconhecido da física clássica, isto é, do tipo de física que existia antes do advento da mecânica quântica, e que aquela não seria capaz de compreender. No entanto, se usarmos a mecânica quântica, as forças de troca tornam-se possíveis e actuantes.

Para explicarmos o conceito sem recorrer à matemática, podemos imaginar os protões e neutrões como estando constantemente a trocar algo entre si. Admitamos que aquilo que trocam (como Heisenberg começou por sugerir) é carga eléctrica. Isso significa que as cargas eléctricas positivas no interior dum núcleo estão a ser constantemente transferidas duma partícula que possui uma carga positiva para uma partícula que a não tem. O que significa que cada barião é um protão ou um neutrão numa sucessão extremamente rápida. Nenhum protão poderá sentir uma repulsão uma vez que, antes de ter tempo de reagir a esta, já se terá transformado num neutrão. (É como passar uma batata quente rapidamente duma mão para a outra a fim de evitar queimaduras.)

Uma tal força de troca criaria uma atracção poderosa e asseguraria a integridade do núcleo. No entanto, uma análise mais detalhada revelou que a sugestão de Heisenberg era, infelizmente, incorrecta. Foi então que o físico japonês Hideki Yukawa (1907-1981) decidiu atacar o problema. Começou por considerar que se as forças de troca actuavam no interior do núcleo para a interacção forte, tinham de existir também para todas as outras interacções. Yukawa aplicou a mecânica quântica à interacção electromagnética e concluiu que aquilo que era trocado era uma determinada partícula, o fotão. O que produzia a interacção electromagnética era a troca contínua e extremamente rápida de fotões entre duas quaisquer partículas com carga eléctrica. Entre partículas com a mesma carga, a troca produzia uma repulsão; entre partículas de carga oposta, produzia uma atracção.

Entre quaisquer duas partículas com massa existia igualmente uma troca rápida de gravitões. (Estas partículas nunca foram detectadas porque são tão pouco energéticas que nenhum dispositivo até agora desenvolvido é suficientemente sensível para demonstrar a sua existência de modo inequívoco. No entanto, físico algum duvida da sua existência.) Uma vez que parece existir apenas um tipo de massa, a interacção gravítica produz apenas uma atracção.

No interior dum núcleo, portanto, teria de haver uma outra partícula de troca que seria continuamente transferida entre os seus protões e neutrões. Existia, contudo, uma diferença. Tanto a interacção electromagnética como a gravítica são efeitos a longa distância, cuja intensidade diminui apenas lentamente com esta. O efeito do electro-magnetismo, onde existe uma atracção e uma repulsão, fica um tanto ou quanto escondido, mas podemos ver claramente o que isso significa no caso da gravidade, onde as massas podem ser muito grandes e existe apenas atracção. A Terra mantém firmemente a Lua sob a sua influência, mesmo a uma distância de cerca de 400 000 quilómetros. O Sol segura a Terra, a uma distância de 150 000 000 quilómetros. As estrelas mantêm--se juntas em galáxias e as galáxias em enxames a distâncias de milhares e mesmo milhões de anos-luz.

A interacção forte, todavia, diminui de intensidade com a distância muito mais rapidamente do que a gravidade ou o magnetismo. Se duplicarmos a distância, a intensidade destas duas forças diminui para um quarto. No caso da interacção forte, contudo, a redução é para menos de 1 por cento da intensidade original. Isso significa que esta última tem realmente um alcance muito curto, não se fazendo sentir de modo mensurável excepto na vizinhança imediata da partícula que lhe dá origem.

Com efeito, o alcance efectivo da interacção forte é de apenas dez bi-lionésimos de centímetro, ou cerca de l/ioo 000 do diâmetro dum átomo. Assim sendo, a única forma dos protões e neutrões sentirem o efeito atractivo da interacção forte consiste em manterem-se próximos uns dos outros. É esta a razão pela qual os núcleos atómicos são tão pequenos. Eles têm o tamanho suficiente para que a interacção forte se faça sentir. Na verdade, os maiores núcleos conhecidos possuem diâmetros tão grandes que esta interacção tem dificuldade em se fazer sentir à distância necessária, existindo uma tendência para sofrerem ocasionalmente uma fissão.

É por causa desta diferença em termos do respectivo alcance que apenas as interacções gravítica e electromagnética fazem parte da experiência comum dos seres humanos. Aquela é conhecida desde os primórdios da humanidade e esta desde os tempos da Grécia Antiga. A interacção forte, que apenas se faz sentir a distâncias nucleares, nunca poderia ter sido observada até à descoberta do núcleo e à elucidação da sua estrutura - ou seja, até aos anos 30 do século XX.

Mas por que razão existe esta diferença de alcance? Usando os princípios da mecânica quântica, Yukawa concluiu que uma interacção a grande distância implicava a existência duma partícula de troca sem massa. Uma vez que o fotão e o gravitão, duas partículas sem massa, estavam associados a forças electromagnéticas e gravíticas que actuavam a grande distância, a interacção forte tinha de estar associada a uma partícula de troca com massa, visto que se fazia sentir apenas a distâncias muito curtas. Com efeito, Yukawa calculou que a massa da partícula de troca era cerca de 200 vezes superior à do electrão.

Nessa época não eram conhecidas partículas com massas dessa ordem de grandeza e Yukawa ficou com a terrível sensação de que a sua teoria estava errada. Ainda assim, publicou o resultado dos seus trabalhos em 1935. Mas quase de seguida Anderson descobriu o muão, cuja massa se situava precisamente na gama de valores prevista por Yukawa para a massa da sua partícula. E é claro que toda a gente pensou que a partícula de Yukawa tinha sido descoberta. O interesse pela sua teoria cresceu.

No entanto, foi sol de pouca dura. O muão não revelou qualquer tendência para interagir com protões e neutrões, pelo que não podia ser a partícula em questão. Com efeito, não estava de todo sujeito à interacção forte, e essa foi, aliás, a principal razão porque foi classificado como um leptão. Nenhum dos leptões está sujeito à interacção forte. Na verdade, assim que os cientistas reconheceram que o muão não passava dum electrão maciço, compreenderam também que, tal como o electrão, não podia ser uma partícula de troca.

Mas a desilusão não durou para sempre. O físico britânico Cecil Frank Powell (1903-1969), que estudava o efeito da radiação cósmica sobre os átomos e moléculas da atmosfera decidiu, tal como Anderson, fazê-lo a partir de montanhas elevadas. Nos Andes bolivianos, por exemplo, estava a uma altitude suficientemente elevada para que a intensidade da radiação cósmica (proveniente do espaço exterior e não absorvida pelas camadas mais baixas da atmosfera terrestre) fosse dez vezes superior à que se registava ao nível do mar. Powell utilizou instrumentos especiais por si concebidos e mais sensíveis que os de Anderson, tendo detectado, em 1947, trajectórias curvas de partículas de massa intermédia.

A partir da sua curvatura, calculou-se que a nova partícula possuía uma massa 273 superior à do electrão (o que estava próximo da previsão de Yukawa), sendo cerca dum terço mais maciça que o muão. A nova partícula revelou-se tão instável como este, desintegrando-se, em média, ao fim de 1/400 000 dum segundo.

No entanto, tais semelhanças não passavam de pura coincidência, uma vez que existia uma diferença fundamental entre ambas as partículas. A partícula de Powell não era um leptão. Estava sujeita à interacção forte e interagia facilmente com protões e neutrões. Na verdade, tratava--se da partícula de troca prevista por Yukawa.

A nova partícula foi designada mesão pi (sendo pi uma letra do alfabeto grego correspondente ao nosso p e que, suponho, tinha que ver com Powell). Constituiu a primeira duma nova classe de partículas, todas submetidas à interacção forte, denominadas mesões (uma designação inicialmente atribuída ao muão, mas depois retirada quando se verificou que a partícula era um leptão.) Apesar do mesão pi poder, de direito próprio, ser chamado mesão, o seu nome é frequentemente abreviado, por uma questão de conveniência, para pião.

Existe evidentemente um pião positivo, com uma carga exactamente igual à dum protão ou positrão, e um antipião negativo, com uma carga exactamente igual à dum antiprotão ou electrão. O pião desintegra-se produzindo um muão e um antineutrino muónico, e o antipião desintegra-se originando um antimuão e um neutrino muónico, o que assegura a conservação do número muónico, uma vez que o muão e o antineutrino muónico têm números muónicos +1 e -1, respectivamente, enquanto que o antimuão e o neutrino muónico têm números muónicos -1 e +1, respectivamente. Visto que os piões têm número muónico 0, este permanece igual a 0 antes e depois da desintegração.

Existe também um pião neutro, que não possui carga eléctrica e tem uma massa que é apenas 29/30 da massa dos piões com carga. Trata-se duma partícula menos estável que os piões carregados, que existe em média apenas cerca dum milionésimo dum milésimo de milionésimo de segundo, desintegrando-se para originar dois raios gama. O pião neutro é uma das poucas partículas que, à semelhança do fotão e do gravitão, não possui antipartícula. Ou, olhando para a questão doutra perspectiva, que constitui a sua própria antipartícula.

Os mesões, diga-se de passagem, apresentam spin 0 e, por isso, não são fermiões. Não existe uma lei de conservação do número mesónico. Os mesões podem aparecer e desaparecer livremente.

A Yukawa foi atribuído um Prémio Nobel em 1949 pela descoberta da interacção forte, e Powell recebeu idêntico galardão em 1950.


A Interacção Fraca

 

Embora a descoberta da interacção forte constituísse um momento particularmente dramático na história da física, ela não foi a primeira interacção nova a ser identificada nos anos 30. Em 1933, Fermi, que haveria mais tarde de bombardear urânio com neutrões (com consequências que tiveram enorme importância), interessou-se pelos trabalhos de Dirac sobre a interacção electromagnética. Ao procurar descrever o modo como os fotões eram emitidos nas interacções electromagnéticas, Dirac formulara a noção de antimatéria.

Fermi achava que a emissão de electrões e neutrinos pelos neutrões podia ser tratada matematicamente de modo análogo ao que fora usado para descrever a emissão de fotões pelas partículas. Ele conclui que, do ponto de vista matemático, as coisas batiam certo, mas que em termos físicos isso indicava a existência dum tipo de interacção que era muito diferente da interacção electromagnética que governava a emissão de fotões. Esta nova interacção, inicialmente designada interacção de Fermi, era muito mais fraca do que aquela. Com efeito, a sua intensidade era apenas cerca dum centésimo dum milésimo de milionésimo da interacção electromagnética. (E correspondia apenas a um décimo dum bilioné-simo da intensidade da interacção forte, descoberta mais tarde.)

A interacção de Fermi tinha um alcance muito curto, fazendo-se sentir apenas a distâncias que correspondiam a cerca da milésima parte do diâmetro dum núcleo atómico. Assim sendo, não desempenhava qualquer papel no núcleo, sendo todavia importante no caso de partículas individuais. Tratava-se duma segunda interacção nuclear (no sentido em que era uma segunda interacção de curto alcance, envolvendo apenas partículas subatômicas). Uma vez aceite a teoria de Yukawa, os físicos passaram a falar na interacção nuclear forte e na interacção nuclear fraca, designação que substitui a anterior expressão interacção de Fermi.

Mas depois, suponho que por uma questão de economia de palavras, a expressão "nuclear" foi abandonada e os cientistas começaram a referir-se simplesmente à interacção forte e à interacção fraca.

(Esta última designação não é, em minha opinião, totalmente adequada, pois embora seja muito menos intensa do que as interacções forte e electromagnética, a interacção fraca é, ainda assim, dez milhares de biliões de biliões de vezes mais intensa do que a interacção gravítica. É esta última que, de direito próprio, poderia ser chamada interacção fraca.

E, contudo, posso estar errado. Visto que apenas conhecemos verdadeiramente a interacção gravítica relacionada com a enorme massa da Terra e doutros corpos celestes, não podemos considerá-la fraca num sentido prático, que não subatômico. Basta cairmos para imediatamente afastarmos do nosso espírito qualquer ideia de fraqueza relacionada com a interacção gravítica. Na verdade, se for possível concentrar num volume suficientemente pequeno uma quantidade de massa suficientemente grande, a intensidade do campo gravítico produzido torna-se superior a tudo o que possamos imaginar - tão grande que nem a interacção forte se lhe consegue opor. Se deixarmos de pensar nesses termos, a interacção fraca é realmente a mais débil das interacções, pelo menos na forma como habitualmente a encontramos. E, portanto, talvez a designação não seja afinal tão desajustada como isso.)

Algumas partículas sofrem transformações - como as desintegrações ou interacções umas com as outras - que são mediadas pela interacção forte. Outras sofrem transformações que são mediadas pela interacção fraca. Os eventos do primeiro tipo ocorrem naturalmente com muito maior rapidez do que os segundos, do mesmo modo que uma bola de basebol se desloca muito mais rapidamente se atirada por um lançador profissional do que por uma criança de cinco anos.

Em geral, os eventos mediados pela interacção fraca ocorrem em cerca dum milionésimo de segundo, enquanto que aqueles que envolvem a interacção forte demoram menos dum bilionésimo de segundo - por vezes, duram apenas alguns bilionésimos dum bilionésimo de segundo.

Os bariões e mesões são afectados tanto pela interacção forte como pela interacção fraca, mas no caso dos leptões apenas esta é relevante. (Os bariões, mesões e leptões reagem à interacção electromagnética se, e só se, possuírem carga eléctrica. Os neutrões, piões neutros e neutrinos não são afectados por esta interacção.) É esta a razão pela qual os eventos leptónicos, como o decaimento do pião para produzir um muão, o deste para dar um electrão, ou a produção radioactiva de partículas beta, tendem a ocorrer naquilo que, à escala subatômica, parece "câmara lenta". O pião neutro, que não se desintegra em muões, é afectado pela interacção forte e, por isso, desintegra-se muito mais rapidamente do que os piões que possuem carga eléctrica.

A interacção fraca difere dos outros três tipos de interacção pelo facto de ser a única que não é responsável por uma força de atracção óbvia. A interacção gravítica mantém juntos os corpos celestes e garante a existência do sistema solar. A interacção electromagnética assegura a coesão dos átomos e moléculas e garante a existência da Terra. A interacção forte prende os bariões e garante a existência dos átomos.

A interacção fraca não mantém junto o que quer que seja. Ele medeia simplesmente a conversão de determinadas partículas noutras partículas. No entanto, tal facto não deve ser desvalorizado. Por um lado, porque é ela que serve de intermediária nos processos através dos quais os protões se juntam para produzir núcleos de hélio. E, recordemos, é esse processo de fusão nuclear que mantém o Sol a brilhar e torna possível a vida na Terra.

Contudo, a interacção fraca levanta um problema. Se as outras três interacções exercem os seus efeitos através de partículas de troca, então a interacção fraca deve possuir igualmente uma partícula desse tipo. E porque ela tem um alcance muito curto, a sua partícula de troca deve possuir massa. Com efeito, sendo o alcance da interacção fraca consideravelmente menor que o da interacção forte, aquela deveria estar associada a uma partícula consideravelmente mais maciça do que o pião.

Uma teoria proposta pela primeira vez em 1967 (e a que farei referência adiante) propunha que fossem três as partículas de troca associadas à interacção fraca - uma de carga positiva, outra de carga negativa e uma terceira neutra. Essa teoria indicava que as partículas deviam possuir uma massa 700 vezes superior à do pião e 100 vezes superior à do protão.

As partículas de troca foram designadas partículas W (de weak, fraco/a em inglês): as que possuíam carga eléctrica são referidas como W+ e W e a partícula neutra como Zº.

A identificação de tais partículas era importante, não apenas para as acrescentar à colecção de partículas conhecidas dos cientistas, mas também porque a sua existência permitiria corroborar a teoria que postulava a sua existência. Esta seria inequivocamente verdadeira se as massas encontradas fossem realmente tão grandes como a teoria sugeria. Esta era, como veremos, uma teoria importante, e a detecção das partículas de troca tinha uma importância vital.

A dificuldade residia, porém, nas massas enormes de tais partículas. Eram necessárias energias imensas para criar partículas que pudessem ser detectadas. Só em 1955 ficou disponível um dispositivo capaz de gerar energia suficiente para produzir e permitir detectar o antiprotão. Fazer o mesmo para as partículas W exigia a concentração de, pelo menos, cem vezes mais energia.

Apenas nos anos 80 foram concebidos aceleradores de partículas capazes de fornecer a energia necessária. Um grupo de cientistas americanos no Fermilab, em Batavia, Illinois, lançou-se na busca das partículas W, o mesmo sucedendo com um grupo de cientistas europeus reunidos no Centro Europeu de Investigação Nuclear (CERN), próximo de Genebra, na Suíça.

As dificuldades destes dois grupos não tinham apenas que ver com energia. Se as partículas surgissem, teriam uma vida excessivamente curta para poderem ser detectadas directamente. Seria portanto necessário identificá-las através dos seus produtos de desintegração (muões e neutrinos), que haveria que encontrar por entre um grande número doutras partículas formadas na mesma altura.

A competição entre os dois laboratórios era, por isso, difícil. Sucede que o Fermilab ficou sem dinheiro e possuía equipamentos menos adequados. O CERN, por sua vez, era liderado pelo físico italiano - incrivelmente enérgico - Carlo Rubbia (n. 1934) e acabou por ganhar a corrida.

Rubbia modificou os dispositivos experimentais em função do objectivo da sua equipa e, em 1982, obteve 140 0000 eventos que podiam ter resultado na produção de partículas W. Recorrendo a computadores, foi possível reduzir esse número a apenas cinco eventos que somente podiam ser explicados com partículas W em quatro casos e W+ no outro. Além disso, os cientistas conseguiram medir a energia dessas partículas e, a partir daí, calcular a respectiva massa, que era precisamente aquela que fora prevista pela teoria.

Os resultados foram anunciados a 25 de Janeiro de 1983. Rubbia continuou a procurar a partícula Zº, que era 15 por centro mais maciça do que as partículas W e, por isso, mais difícil de detectar. Esta partícula foi finalmente encontrada em Maio de 1983 e o anúncio da descoberta feito em Junho. Em 1984, Rubbia foi galardoado com um Prémio Nobel pelo seu trabalho.

Há uma outra partícula que pode existir relacionada com a teoria. Trata-se da partícula de Higgs, assim designada em homenagem ao físico britânico Peter Higgs (n. 1929) que primeiro postulou a sua existência. A teoria não é clara sobre a sua massa e restantes propriedades. Pensa-se que será consideravelmente mais maciça do que as partículas W. Assim sendo, ninguém sabe quando é que poderá ser detectada. Permanece um desafio para o futuro.


A Interacção Electrofraca

 

Analisámos já quatro interacções: forte, electromagnética, fraca e gravítica, por ordem decrescente de intensidade. Será que existem outras? A maioria dos cientistas pensa que não.

Mas será que é mesmo assim? Afinal, até aos anos 30 os cientistas conheciam apenas duas interacções - a electromagnética e a gravítica - e depois surgiram as duas interacções nucleares. Contudo, as novas interacções não constituíram uma surpresa total. O fenómeno da radioactividade era intrigante, visto ser por demais evidente que nem a gravidade nem o electromagnetismo eram capazes de o explicar. Uma vez desvendada a estrutura do núcleo atómico, passou a existir uma necessidade premente de algo de novo.

A situação actual é bastante diferente. No meio século que decorreu desde a descoberta das duas interacções nucleares, todos os aspectos da física subatômica têm sido intensamente explorados recorrendo a uma panóplia de instrumentos com uma potência e sensibilidade sem precedentes. Além disso, os cientistas começaram a investigar o mundo à nossa volta e o Universo com instrumentos e dispositivos que ninguém teria sido capaz sequer de imaginar nos anos 30.

Têm sido feitas muitas descobertas que ninguém podia ter previsto, sendo óbvio que, no domínio da investigação científica, se avançou mais nos últimos cinquenta anos do que nos milhares de anos que os precederam.

E, todavia, os trabalhos científicos do último meio século não identificaram um único fenómeno, seja à escala do Universo ou do neutrino, que não possa ser explicado através duma das quatro interacções. A necessidade duma quinta interacção nunca se fez sentir, e é isso que leva os cientistas a acreditar que elas são realmente em número de quatro.

E um facto que, no final dos anos 80, se falou duma quinta interacção que seria menos intensa ainda do que a gravidade e possuiria um alcance intermédio entre o das interacções nucleares e o das outras duas interacções. Esta interacção variaria com a composição química dos materiais implicados. Durante algum tempo, a ideia suscitou um certo interesse, mas as propriedades dessa suposta interacção eram duma tal complexidade que a mim, pelo menos, a sua existência me pareceu desde sempre altamente improvável. Na verdade, o interesse rapidamente se desvaneceu.

É claro que existe a possibilidade de se descobrirem novos aspectos do Universo que estão para lá do nosso conhecimento actual. E isso, a acontecer, será uma surpresa completa (como o foi a descoberta da radioactividade em 1896). Uma tal descoberta poderá levar os cientistas a conceber interacções adicionais que serão relevantes em condições que até agora nunca tivemos oportunidade de estudar. Contudo, é pouco provável que isso venha a acontecer.

Assim sendo, a pergunta relativamente ao número de interacções não deve ser "Por que razão não existem mais interacções?" mas "Porquê quatro?". Os cientistas acreditam que existe um princípio de economia, por assim dizer, na estrutura do Universo. Que o seu funcionamento é o mais simples possível: ou seja, que duas tarefas não são realizadas de duas formas completamente diferentes se puderem ser realizadas dum modo único adequadamente modificado para se adaptar a ambas as situações.

Até 1870, pareciam existir quatro fenómenos diferentes que se faziam sentir através do vácuo: luz, electricidade, magnetismo e gravidade. Os quatro pareciam muito diferentes uns dos outros. Ainda assim, e como já se explicou anteriormente, Maxwell, numa das grandes intuições científicas de todos os tempos, elaborou um conjunto de equações que regiam tanto a electricidade como o magnetismo e demonstravam que ambos os fenómenos estavam intimamente relacionados. Além disso, combinando os campos eléctrico e magnético num campo electromagnético, verificava-se que a luz era uma radiação íntima e inextricavelmente relacionada com este. Com a sua intuição, Maxwell foi capaz de prever todo um conjunto de radiações semelhantes à luz - das ondas rádio à radiação gama - que apenas seriam efectivamente detectadas um quarto de século mais tarde.

Parecia portanto natural tentar alargar o trabalho de Maxwell de modo a incluir a interacção gravítica. Einstein dedicou o último terço da sua vida a esta tarefa mas não foi bem sucedido, como de resto todos os que também procuraram fazê-lo. Depois, nos anos 30, a situação complicou-se com a descoberta das duas interacções nucleares, a forte e a fraca. A ciência encontrava-se de novo perante quatro campos. Isso não significou, porém, que os cientistas desistissem de descrever todos os campos com um único conjunto de equações (uma teoria do campo unificado). Demonstrar que o Universo é o mais simples possível é uma tentação demasiado forte para poder ser ignorada.

Em 1967, o físico norte-americano Steven Weinberg (n. 1933) desenvolveu um conjunto de equações que descrevia as interacções electromagnética e fraca. As duas pareciam ser muito diferentes e, todavia, Fermi desenvolvera a teoria da interacção fraca utilizando a formulação matemática usada por Dirac para as interacções electromagnéticas, pelo que devia existir alguma semelhança.

Weinberg propôs um tratamento matemático que colocava as duas interacções sob um mesmo telhado, demonstrando que tinham de existir quatro partículas de troca para aquilo que se podia designar como interacção electrofraca. Uma destas não possui massa e é indubitavelmente o fotão. As outras três têm massa, uma massa muito significativa, e foram designadas partículas W+, W e Zº. (Existe ainda a partícula de Higgs, mas quanto a isso há menos certezas.)

Mais ou menos pela mesma época, o físico paquistanês-britânico Abdus Saiam (1926-1996) elaborou, independentemente, uma teoria quase idêntica. (Tal não deve surpreender-nos. Muitas vezes, quando a informação atinge um certo nível num determinado domínio científico, há progressos significativos que estão mesmo a pedir para serem feitos - a situação está madura, por assim dizer. E acontece mais duma pessoa responder a esse apelo. O caso mais conhecido deste tipo de situação ocorreu em 1859, quando Charles Robert Darwin e Alfred Russel Wallace prepararam para publicação, independentemente e em simultâneo, a teoria da evolução biológica por selecção natural.)

A interacção electrofraca não foi imediatamente reconhecida e aplaudida. Havia alguns aspectos da sua formulação matemática que estavam incompletos e que só alguns anos mais tarde foram aperfeiçoados pelo físico holandês Gerard't Hooft (n. 1946).

A existir a interacção electrofraca, devia haver correntes neutras. Por outras palavras, deviam ocorrer interacções entre partículas envolvendo uma partícula de troca da interacção fraca que não implicassem uma transferência de carga duma partícula para outra. Era por causa desta corrente neutra que a partícula Zº era necessária. Em 1973, tais correntes foram efectivamente detectadas e, subitamente, a teoria electrofraca começou a parecer muito interessante. Em 1979, Weiberg e Saiam receberam o Prémio Nobel pelos seus trabalhos. A detecção das partículas de troca, ocorrida em 1983, foi o elemento que faltava para corroborar a teoria.

Existindo uma única interacção electrofraca, o leitor poderá interrogar-se por que razão as suas facetas de interacção electromagnética e de interacção fraca são tão diferentes. Aparentemente, isso resulta do facto de vivermos a baixas temperaturas. Se a temperatura fosse suficientemente alta (muito mais alta do que aquelas que encontramos actualmente à nossa volta), existiria realmente uma interacção apenas. À medida que a temperatura diminui, porém, os dois aspectos da interacção separam--se. Continuam a constituir uma só interacção, mas manifestam-se de formas substancialmente diferentes.

Podemos usar uma analogia para explicar isto. A água existe em três estados: água líquida, gelo e vapor. A seres que desconhecessem o nosso mundo, eles dariam a impressão de corresponder a três substâncias totalmente diferentes, sem qualquer relação entre si.

Suponhamos agora que a temperatura era suficientemente elevada para que toda a água se encontrasse sob a forma de vapor. A água seria claramente uma única substância com um único conjunto de propriedades. Mas se a temperatura descesse, alguma água condensar-se-ia em água líquida, e as fases sólida e líquida ficariam em equilíbrio. Haveria agora aparentemente duas substâncias, com dois conjuntos de propriedades muito diferentes.

Se a temperatura descesse mais ainda, alguma da água transformar--se-ia em gelo. Teríamos assim gelo, água e vapor, em equilíbrio; os três com aspecto e propriedades bastante diferentes e, todavia, fundamentalmente a mesma substância.

Existe portanto a ideia de que, quando o Universo se formou, a sua temperatura era extraordinariamente elevada - qualquer coisa como dez milhões de biliões de biliões de biliões de graus. Nesse instante, e sob essas condições, existia apenas uma interacção. A medida que a temperatura foi diminuindo (o que aconteceu muito rapidamente, pela nossa escala de tempo), a gravidade separou-se como interacção distinta, tornando-se menos intensa com a descida da temperatura. Depois foi a vez da interacção forte se separar e, finalmente, as interacções fraca e electromagnética divergiram.

Esta sequência de eventos leva-nos naturalmente a supor que o processo pode ser invertido matematicamente e que as quatro interacções podem ser colocadas sob um mesmo telhado. Têm sido apresentadas diversas sugestões para unificar as interacções electrofraca e forte e muitos cientistas estão confiantes que será possível desenvolver com êxito uma "grande teoria unificada". No entanto, todas as tentativas para incluir também a gravidade falharam até agora. O fenómeno continua a constituir um problema irredutível (terei mais a dizer sobre ele adiante).


11. QUARKS


O Zoo Hadrónico

 

Consideremos as diversas partículas subatômicas descritas até agora. Em primeiro lugar, temos os leptões, que estão sujeitos à interacção fraca e, no caso de terem carga eléctrica, à interacção electromagnética, mas não à interacção forte. Os leptões parecem ser partículas fundamentais, nunca tendo sido possível demonstrar a existência de qualquer estrutura interna. Incluem três sabores: o electrão e o seu neutrino, o muão e o seu neutrino, e o tauão e o seu neutrino. Para cada uma destas partículas existe igualmente uma antipartícula, o que dá um total de doze leptões. Os cientistas não esperam encontrar mais partículas deste tipo.

Depois, existem as partículas que são trocadas nas quatro interacções: o gravitão na interacção gravítica, o fotão na interacção electromagnética, as partículas W na interacção fraca e o pião como partícula de troca de Yukawa na interacção forte. O gravitão e o fotão são partículas únicas, mas as partículas W e o pião existem em versões com carga positiva, negativa e neutra. Isto significa que existem, ao todo, oito partículas de troca. Os cientistas também não esperam encontrar mais partículas do género.

Restam as partículas que estão sujeitas à interacção forte. Aquelas que se conhecem há mais tempo são os bariões - ou seja, protões e neutrões - cuja existência lado a lado no núcleo atómico foi o pretexto para a elaboração da teoria da interacção forte. Além disso, há os piões, que são mesões e também estão sujeitos à interacção forte.

As partículas sujeitas à interacção forte - bariões e mesões - são agrupadas sob a designação comum de hadrões, duma expressão grega que significa "espesso" ou "forte". Os hadrões constituem pois um bom contraponto aos leptões que, como expliquei anteriormente, receberam o seu nome da palavra grega para "fraco".

Se o protão, o neutrão e as suas antipartículas, mais os três piões, fossem os únicos hadrões existentes, seriam ao todo sete, um número razoável. Uma vez que os três piões podem ser considerados partículas de troca, isso significa que leptões, partículas de troca e hadrões, tanto na sua forma normal como na sua antiforma, representam, em conjunto, apenas vinte e quatro partículas, um número aceitável para os cientistas, no pressuposto de que a estrutura do Universo é simples.

No entanto, à medida que os aceleradores de partículas se tornaram maiores e mais eficientes, os físicos descobriram que a energia disponível coalescia, por assim dizer, em numerosas partículas que não existiam excepto sob condições de alta energia. Todas essas partículas são extremamente instáveis, existindo no máximo durante um milionésimo de segundo e, na maior parte dos casos, durante períodos muito mais curtos.

As novas descobertas incluem o tauão e o seu neutrino, entre os leptões, e as partículas W entre as partículas de troca, sendo muitas das outras descobertas relativas a hadrões.

Em 1944, por exemplo, foi descoberta uma nova partícula, identificada como um mesão. É designada mesão K ou, frequentemente, kaão. A sua massa é três vezes e meia superior à do pião e aproximadamente metade da do protão.

Em 1947, foi descoberto um primeiro grupo de partículas mais maciças que o protão ou neutrão. As partículas foram chamadas hiperões, duma palavra grega que significa "para lá de", uma vez que as suas massas se situavam para lá das do protão ou neutrão que, até então, eram consideradas as partículas de maior massa.

As descobertas continuaram a suceder-se, tendo sido identificada mais duma centena de hadrões distintos, o que implicava a existência duma centena de diferentes anti-hadrões. Alguns destes existem apenas durante alguns bilionésimos dum bilionésimo de segundo antes de se desintegrarem, mas são, ainda assim, partículas.

Os físicos ficaram deveras preocupados. Até então, todos os sinais tinham apontado para uma simplicidade satisfatória do Universo. Mas agora, o "zoo hadrónico" reduzira de novo as coisas a uma complexidade aparentemente sem sentido. Naturalmente, fizeram-se tentativas para encontrar ordem entre todos esses hadrões, ou seja, para os agrupar dum modo que fizesse sentido. Se isso pudesse ser feito, não seria necessário lidar com tantas espécies individualmente, mas apenas com alguns grupos.

Já em 1932, por exemplo, Heisenberg mostrara que, ignorando a respectiva carga eléctrica, protão e neutrão podiam ser encarados como uma única partícula em dois estados diferentes. Era impossível descrever essa diferença em termos do senso comum, mas bastava chamar a um dos estados positivo e ao outro negativo.

Em 1937, o físico húngaro-americano Eugene Paul Wigner propôs que o protão e o neutrão fossem considerados semelhantes a isótopos na tabela periódica dos elementos. E que os dois estados fossem interpretados como uma espécie de spin, sendo que dois spins diferentes explicavam a diferença de estado. Wigner designou os estados de Heisenberg spin isotópico, uma designação que foi depois simplificada para isospin. Em 1938, o físico russo N. Kemmer demonstrou que os três piões - positivo, negativo e neutro - podiam ser tratados como uma mesma partícula com três isospins distintos.

O isospin é um conceito importante, em primeiro lugar porque permite agrupar algumas das partículas e reduzir a complexidade hadrónica. Depois, porque se conserva entre os hadrões. Este facto ajuda a compreender melhor o zoo hadrónico, visto que todas essas partículas não sofrem alterações ou interagem de modo aleatório, antes conservam certas propriedades, o que limita o número de transformações permitidas. Quanto maior for o número de propriedades que seja possível demonstrar que se têm de conservar, mais numerosas são as restrições impostas às partículas e mais fácil se torna compreender aquilo que se passa.

Os kaões e os hiperões, por exemplo, duram um tempo surpreendentemente longo. É necessário um milionésimo de segundo para os kaões se desintegrarem, e quase um milésimo de milionésimo de segundo para que o mesmo suceda com os hiperões. O modo como são produzidos indica claramente tratar-se de processos mediados pela interacção forte. Por isso, devem desintegrar-se da mesma maneira - numa fracção ínfima dum bilionésimo de segundo.

Mas não é isso que acontece. As partículas duram milhares ou mesmo milhões de vezes mais tempo do que deviam e, portanto, o seu decaimento deve ocorrer através da interacção fraca. Isto, inicialmente, pareceu estranho e, na verdade, estas partículas foram designadas partículas estranhas.

Em 1953, o físico norte-americano Murray Gell-Mann (n. 1929) sugeriu a existência duma propriedade que seria possuída pelas partículas estranhas mas não pelos outros hadrões. Naturalmente, Gell-Mann designou essa propriedade "estranheza".

O protão, neutrão e diversos piões têm, cada qual, uma estranheza igual a 0, mas o mesmo não sucede com os kaões e hiperões. A estranheza conserva-se na interacção forte. Os kaões e os hiperões não podem desintegrar-se por intermédio da interacção forte, uma vez que seriam produzidos piões e protões com estranheza zero, o que significaria o desaparecimento da estranheza e, portanto, a violação duma lei de conservação. Os kaões e hiperões têm, por isso, de se desintegrar por meio da interacção fraca, na qual a estranheza não é conservada. Ê esta a razão porque as partículas estranhas duram tanto tempo.

Os estudos dos hadrões nem sempre permitem estabelecer ou preservar leis de conservação. Num caso, os cientistas foram mesmo forçados a rever a lei.

Já em 1927 Wigner propusera uma lei de conservação da paridade. A paridade não pode ser explicada literalmente, mas podemos usar uma analogia, recorrendo aos números pares e ímpares. A soma de dois números pares é sempre um número par; e a soma de dois números ímpares é sempre um número par. Contudo, a soma dum número par com um número ímpar é sempre um número ímpar. Se considerarmos algumas partículas par e outras ímpar, as transformações permitidas devem obedecer às mesmas regras: par + par = ímpar + ímpar = par; e ímpar + par = par + ímpar = ímpar.

Contudo, no início dos anos 50, descobriu-se que existia entre os kaões uma variedade que apresentava uma forma de enfraquecimento peculiar. Por vezes dava origem a dois piões, outras vezes a três. Os dois piões davam um resultado que era par, mas os três davam um resultado ímpar. A questão que se punha era a de saber como é que o kaão tanto podia ser par como ímpar.

A solução mais simples era supor que existiam duas partículas muito semelhantes, uma com paridade par e a outra ímpar. As duas partículas foram designadas mesão tau e mesão teta, do nome de duas letras do alfabeto grego. Isto parecia resolver a questão, não fosse dar-se o caso de não ser possível distinguir uma partícula da outra.

A situação não era, no entanto, dramática. O neutrino muónico não pode ser distinguido do neutrino de electrão por qualquer propriedade mensurável, mas somente pelo comportamento dum e doutro em diversas interacções. Talvez o mesmo se passasse com o mesão tau e o mesão teta.

No caso dos dois neutrinos, porém, parecia não haver alternativa a aceitar a existência duma diferença indistinguível. No caso dos dois mesões, havia. E se a paridade não se conservasse sempre?

Os físicos sino-americanos Chen Ning Yang (n. 1922) e Tsung-Dao Lee (n. 1926) deduziram as consequências teóricas disso mesmo em 1956, no pressuposto de que a paridade não se conservava, pelo menos nas reacções mediadas pela interacção fraca. Mas como é que tal podia ser demonstrado?

A resposta reside no facto de, num certo sentido, a conservação da paridade ser equivalente à noção de simetria esquerda-direita. Por outras palavras, se a paridade for conservada e uma determinada reacção produzir um feixe de partículas, estas deslocar-se-ão para a esquerda e para a direita em quantidades iguais. Se, contudo, a paridade não se conservar, as partículas irão apenas para a esquerda ou apenas para a direita. (Um dos motivos porque os cientistas tinham tanta dificuldade em aceitar que a paridade não se conservava residia no facto de não verem razão para o Universo estabelecer uma distinção entre esquerda e direita.)

Para esclarecer de vez a questão, foi concebida na Universidade de Colúmbia uma experiência, dirigida por uma física sino-americana, Chien Shung Wu. Nela foi usada uma amostra do isótopo radioactivo cobalto-60, que se desintegra produzindo partículas beta, num processo que é mediado pela interacção fraca. Essas partículas beta são emitidas em todas as direcções, o que se deve em parte ao facto dos próprios átomos estarem orientados em todas as direcções. Wu resolveu por isso colocar o material num campo magnético muito intenso, de modo a que os átomos ficassem todos alinhados na mesma direcção. Isto permitia que emitissem radiação beta numa única direcção, se de facto não houvesse conservação da paridade. É claro que, à temperatura ambiente, os átomos vibram em diferentes direcções, apesar de sujeitos a um campo magnético. Wu decidiu, por isso, arrefecer o cobalto-60 até uma temperatura próxima do zero absoluto.

Se a paridade não se conservasse, as partículas beta seriam emitidas apenas para um lado. Em Janeiro de 1957, já não restavam quaisquer dúvidas aos cientistas: as partículas beta estavam a ser emitidas apenas numa direcção, o que significava que a paridade não se conservava nas interacções fracas. Nesse mesmo ano, Yang e Lee receberam um Prémio Nobel.'

A paridade conserva-se nos outros tipos de interacções e, mesmo no caso da interacção fraca, é possível formular uma lei de conservação mais genérica. Se uma determinada partícula for "esquerda" em termos de paridade (P), a sua antipartícula com carga oposta (C) é "direita". O que significa que se partícula e antipartícula forem consideradas em conjunto, a propriedade CP (que considera tanto a paridade como a carga) é conservada.

Contudo, em 1964, os físicos norte-americanos Val Logsdon Fitch (n. 1923) e James Watson Cronin (n. 1931) demonstraram que nem mesmo CP era sempre conservada e que era necessário juntar-lhe a propriedade tempo (T). Se CP não se conservar numa direcção do tempo, não se conserva na direcção oposta. Crê-se actualmente que aquilo que se conserva nas interacções fracas é a simetria CPT. Pelo seu trabalho, Cronin e Fitch partilharam um Prémio Nobel em 1980.

Em 1981, Gell-Mann usou um conjunto de propriedades que se conservavam para agrupar os hadrões em polígonos de forma simétrica contendo oito, nove ou dez itens. Deste modo, conseguiu constituir famílias de partículas e criar algo semelhante à tabela periódica dos elementos. Nessa época, o físico israelita Yuval Ne'eman (n. 1925) trabalhava igualmente sobre ideias semelhantes.

Os cientistas tiveram dificuldade em levar os arranjos de Gell-Mann a sério, tal como, um século antes, lhes tinha custado aceitar a tabela periódica dos elementos de Mendeleev. Mendeleev, no entanto, conseguira convencer os seus pares usando a tabela para prever as propriedades de elementos ainda não descobertos - e acertando nelas.

Gell-Mann concebeu um triângulo de dez partículas, organizadas de tal modo que os valores das diferentes propriedades conservadas variavam de forma fixa e regular de ponto para ponto. Contudo, ao seu vértice superior não correspondia nenhuma partícula conhecida.

O esquema indica que a partícula em falta possui propriedades peculiares, incluindo uma massa invulgarmente grande e uma estranheza também invulgarmente elevada. Essa partícula foi designada ómega menos, embora a sua existência fosse encarada com algum cepticismo.

A partir da natureza das propriedades da partícula ómega menos, Gell-Mann concluiu que ela era produzida pela interacção dum kaão negativo com um protão. Estes teriam de ser feitos colidir a energias suficientemente altas para originarem uma partícula com a massa invulgarmente grande atribuída à ómega menos.

Gell-Mann teve de convencer o responsável por um grande acelerador de partículas a realizar a experiência. Em Dezembro de 1963, a equipa que trabalhava no acelerador de Brookhaven, Long Island, começou a fazer colidir mesões K com protões. No dia 31 de Janeiro de 1964, foi detectado um evento que só podia ser explicado pela presença duma partícula ómega menos, visto ter surgido uma partícula que revelava precisamente as propriedades previstas por Gell-Mann. Este foi galardoado em 1969 com um Prémio Nobel pelo seu trabalho. A partir de então, os agrupamentos de hadrões de Gell-Mann passaram a ser levados a sério. O zoo hadrónico começava finalmente a ficar mais arrumado.


No Interior dos Hadrões

 

Mas dividir os hadrões em grupos e construir uma espécie de tabela periódica subatômica não era suficiente. A organização da tabela periódica de Mendeleev não tivera uma explicação satisfatória até ter sido elucidada a estrutura interna dos átomos e compreendida a importância dos diferentes arranjos dos electrões nas suas camadas.

Gell-Mann considerava que os hadrões deviam ter uma estrutura interna que explicasse a existência dos grupos. Não se tratava duma ideia insustentável. Os leptões são partículas fundamentais que se comportam como simples pontos no espaço, sem estrutura interna, mas isso não era necessariamente verdade no caso dos hadrões.

Ele imaginou um grupo de partículas que seriam talvez fundamentais, com propriedades que, se agrupadas de modo adequado, produziam todos os diferentes hadrões com as respectivas propriedades. Uma combinação daria o protão, outra o neutrão, outra ainda os diferentes piões, etc.

Gell-Mann lançou mãos à obra e em breve descobriu que a tarefa não era possível se ficasse agarrado ao princípio de que cada partícula tinha de ter uma carga eléctrica de magnitude igual ou múltipla da carga do electrão ou protão. Em vez disso, descobriu que as partículas constituintes dos hadrões tinham de possuir cargas que eram fracções daquela.

Perante uma tal perspectiva, Gell-Mann hesitou. Desde que os cientistas trabalhavam com partículas com carga eléctrica, o que remontava às experiências de Faraday no domínio da electroquímica realizadas cerca de século e meio antes, que as cargas eléctricas pareciam existir em múltiplos duma unidade mais pequena (e aparentemente indivisível) - o electrão.

Em 1963, porém, Gell-Mann decidiu publicar as suas ideias. E sugeriu a existência de três partículas fundamentais constituintes dos hadrões, e de três antipartículas que formariam os anti-hadrões. Cada hadrão seria constituído por duas ou três dessas partículas fundamentais. Os mesões seriam formados a partir de duas e os bariões de três.

Gell-Mann decidiu chamar quarks a essas partículas fundamentais. (Trata-se duma bizarria retirada da obra de James Joyce, Finnegans Wake, onde a expressão aparece na frase "Tfiree quarks for Muster Mark". Sempre entendi isto como querendo dizer, em linguagem joyceana, "Três quartilhos (quarts) para o Sr. (Mister) Mark". E sempre imaginei que se tratava dum pedido de cerveja. A interpretação de Gell-Mann parece ter sido outra: "Three quarks for Muster Hadron" (três quarks para agrupar [muster] os hadrões). Em minha opinião, a designação não devia ter sido conservada, uma vez que não é elegante. No entanto, o nome pegou, provavelmente para surpresa do próprio Gell-Mann, e agora é incontornável.)

Gell-Mann propôs a existência de três tipos de quarks, que foram extravagantemente designados como quark de cima (up), quark de baixo (down) e quark estranho (strange). (Estes adjectivos não devem ser tomados à letra. Podemos falar em quark u, quark d e quark s ou simplesmente em u, d e s. Por vezes diz-se que o s significa "de lado" (sideways) para criar uma certa coerência com o up e o down, mas estranho é melhor porque é mais expressivo.)

O quark u tem uma carga eléctrica de 2/3 e o quark d de 1/3. (Como seria de esperar, o antiquark u tem uma carga de -2/3 e o antiquark d de + 1/3.) Cada tipo de quark tem uma série de números representando as diversas propriedades que conserva. Os quarks têm de ser combinados de tal modo que o hadrão a que dão origem possua todos os números correctos para as suas propriedades.

Naturalmente, é com as cargas fraccionarias que devemos ter mais cuidado. Os quarks também devem ser combinados de modo a garantir que a carga eléctrica total do hadrão é +1, -1 ou 0. Por exemplo: um protão é constituído por dois quarks u e um quark d; a sua carga total é dada por +2/3 e +2/3 e -I/3, ou seja +1. Um antiprotão é formado por dois antiquarks u e um antiquark d (-2/3 e -2/3 e +1/3), para uma carga total de -1. Um neutrão é constituído por um quark u e dois quarks d (+2/3 e -1/3 e -I/3), para uma carga total de 0. E um antineutrão é composto por um antiquark u e dois antiquarks d (-2/3 e +1/3 e 1/3), para uma carga total de 0.

Um pião positivo é constituído por um quark u e um quark d (+2/3 e +1/3), para uma carga total de +1. E um pião negativo é composto por um antiquark u e um quark d (-2/3 e -I/3), para uma carga total de -1.

O quark s entra na constituição das partículas estranhas, das quais aliás recebeu a designação s. Tem carga eléctrica -I/3 e estranheza -1. O antiquark s possui carga eléctrica +1/3 e estranheza +1.

O mesão K positivo contém um quark u e um antiquark s (+2/3 e +1/3), para uma carga total de +1 e uma estranheza de -1. O mesão K negativo consiste num antiquark u e num quark s (-2/3 e -I/3), para uma carga total de -1 e uma estranheza de -1.

Uma partícula lambda (um hiperão neutro) consiste num quark u, num quark d e num quark s (+2/3 e 1/3 e -I/3), para uma carga eléctrica de 0, enquanto que a partícula ómega menos é constituída por três quarks s (-I/3 e -I/3 e -I/3), para uma carga total de -1. Ambas são partículas estranhas.

Deste modo se compõem os diversos hadrões, não havendo qualquer combinação possível que não resulte numa carga total de 0, +1 ou -1.

Mas será que tudo isto é realmente verdade? Será que os quarks existem mesmo ou tudo não passa duma contabilidade engenhosa? Afinal, uma nota de dólar vale o mesmo que inúmeras combinações de moedas - meios-dólares, quarters (vinte e cinco cêntimos), dimes (dez cêntimos), nickels (cinco cêntimos) e pennies (um cêntimo). Mas se a nota de dólar for rasgada em pedaços, não há moedas cujo valor seja equivalente a qualquer parte da sua estrutura.

Suponhamos então que abríamos um hadrão ao meio. Será que saíam lá de dentro quarks? Ou tudo isto são apenas contas? Infelizmente, ninguém conseguiu até agora despedaçar um hadrão ou produzir de forma inequívoca um quark livre. Se tal acontecesse, seria fácil identificar a partícula por causa da sua carga fraccionaria. No entanto, existem cientistas que acreditam que é impossível, mesmo em teoria, extrair um quark dum hadrão. E mesmo que fosse possível, não dispomos ainda de energias suficientemente elevadas para o conseguir. Contudo, existem provas indirectas da existência real dos quarks.

Em 1911, Rutherford descreveu as experiências em que bombardeara átomos com partículas alfa. Na sua maioria, atravessaram os átomos como se eles fossem apenas espaço vazio. Algumas, contudo, foram dispersadas. Ocasionalmente, elas colidiam com pequenas entidades no interior dos átomos e as suas trajectórias eram deflectidas. Foi a partir deste facto que Rutherford concluiu que existia um pequeno ponto maciço no interior dos átomos - o seu núcleo.

Seria possível bombardear protões com electrões de alta energia e, deste modo, provocar a sua dispersão? Dos resultados duma tal experiência talvez se pudesse concluir que havia pontos dentro dos protões que provocavam a dispersão e, portanto, que os quarks existiam realmente no interior daqueles.

A experiência foi efectivamente realizada por Jerome Friedman (n. 1930), Henry Kendall (1926-1999) e Richard Taylor (n. 1939) no acelerador linear da Universidade de Stanford no início dos anos 70, tendo os três recebido o Prémio Nobel da física pelos seus trabalhos em 1990. Os resultados foram adequadamente interpretados pelo físico norte-americano Richard Phillips Feynman (1918-1988), que já fora galardoado com um Nobel em 1965 por algo a que me referirei adiante. Em 1974, tornara-se claro que os quarks existiam realmente, mesmo se nunca eram encontrados no estado livre.

Feynman chamou partões às partículas existentes dentro dos protões. (Em minha opinião, trata-se duma designação muito melhor do que quarks. Ou Feynman achava, como eu, que o termo quark é pouco harmonioso, ou então considerava que a teoria de Gell-Mann não estava absolutamente correcta.)

Mas havia agora a possibilidade de surgirem novas dificuldades. Quando estudámos os átomos verificámos que existiam tantos tipos diferentes que a simplicidade se perdeu. Descemos ao nível das partículas subatômicas para restaurar essa simplicidade, mas descobrimos que estas eram em tão grande número que a simplicidade se perdeu uma segunda vez. Agora que estamos ao nível dos quarks, será que vamos concluir que existem muitos tipos diferentes?

Havia quem pensasse que devia existir pelo menos mais um quark. Era o caso do físico norte-americano Julian Seymour Schwinger (n. 1918), que partilhara o Nobel com Feynman em 1965. Schwinger considerava que os quarks eram partículas fundamentais, como os leptões. E que eram partículas pontuais, sem estrutura interna (com diâmetro igual a zero, tanto quanto podemos medi-lo), devendo existir uma simetria entre esses dois tipos de partículas.

Conheciam-se então dois sabores de leptões - o electrão e o seu neutrino, e o muão e o seu neutrino - e, por conseguinte, dois sabores de antileptões. Deviam, por isso, existir dois sabores de quarks. Um era o quark u e o quark d (e os seus antiquarks, evidentemente). O outro era o quark s e que mais? Se existia um quarto quark, ainda não tinham sido encontradas partículas que o contivessem, mas tal podia dever-se ao facto desse quark e dessas partículas serem tão maciças que a sua produção exigia uma energia considerável.

Em 1974, uma equipa dirigida pelo físico norte-americano Burton Richter (n. 1931) usou o poderoso anel acelerador de positrões-electrões da Universidade de Stanford para produzir uma partícula extremamente maciça - na verdade, três vezes mais maciça do que um protão. Uma partícula com tais características devia desintegrar-se numa fracção ínfima dum segundo, mas não foi isso que aconteceu. Por conseguinte, tinha de conter um novo quark - um que, tal como o quark s (mas sendo muito mais maciço do que este), impedia a sua desintegração através da interacção forte.

A nova partícula foi designada uma partícula com charme pelo facto de durar tanto tempo e conter, presumivelmente, um "quark charme" ou quark c - o quarto quark que Schwinger procurava. Era, com efeito, uma partícula mais maciça do que as outras três. Em Brookhaven, o físico norte-americano Samuel Chao Chung Ting (n. 1936) chegou às mesmas conclusões. Richter e Ting partilharam um Prémio Nobel em 1976.

Por esta altura, no entanto, fora descoberto um terceiro sabor de leptões, sob a forma do tauão e do neutrino tauónico (e respectivas anti-partículas). Significaria isso que existia um terceiro sabor de quarks?

Na verdade, uma quinta partícula foi descoberta em 1978, tendo sido baptizada de quark de fundo ou quark b (bottom). Tem de existir uma sexta partícula, a que os físicos chamam de quark de topo ou quark t (top). Ainda não foi localizada, provavelmente porque é extraordinariamente maciça. (Alguns cientistas acham que b e t devem significar "beleza" [beauty] e "verdade" [trutk].)


Cromodinâmica Quântica

 

Temos portanto três sabores de quarks, tal como temos três sabores de leptões. Em cada sabor há dois leptões, ou quarks, e dois antileptões ou antiquarks. O que significa que existem, ao todo, 12 leptões e 12 quarks. São 24 partículas que, juntamente com as partículas de troca, compõem o Universo (ou, pelo menos, é assim que as coisas actualmente parecem ser). O que nos faz regressar a uma simplicidade tolerável - pelo menos, por agora. Como explicarei adiante, esta situação poderá alterar-se.

As semelhanças entre os dois tipos de partículas são interessantes. No caso dos leptões, o primeiro sabor consiste num electrão com carga -1 e num neutrino de electrão com carga 0. Este padrão repete-se nos outros dois sabores: um muão com carga -1 e um neutrino muónico com carga 0; e um tauão com carga -1 e um neutrino tauónico com carga 0. A situação inverte-se, naturalmente, no caso dos antileptões, onde os três sabores têm cargas de +1 e 0.

No caso dos quarks, o primeiro sabor inclui o quark u (+2/3) e o quark d (-I/3). Este padrão repete-se no segundo e terceiro sabores, com o quark c (+2/3) e o quark s (-V3); e com o quark t (+2/3) e o quark b (-1/3). Mais uma vez, a situação inverte-se no caso dos antiquarks.

E evidente que a comparação não é exacta. Os leptões incluem partículas com cargas que são nulas ou números inteiros. O que não sucede no caso dos quarks, que só têm cargas fraccionarias.

As massas das partículas aumentam com o sabor no caso dos leptões com carga (os neutrinos sem carga não possuem massa). Se considerarmos a massa do electrão igual a 1, a massa du muão é 207 e a do tauão cerca de 3 500. A massa também aumenta com o sabor no caso dos quarks, mas não existem quarks sem massa, talvez porque também não existem quarks sem carga.

No caso do primeiro sabor dos quarks (continuando a considerar a massa do electrão igual a 1), o quark u, que é o menos maciço de todos, tem massa 5, e o quark d tem massa 7. No caso do segundo sabor, o quark s tem uma massa de cerca de 150 e o quark c de cerca de 1 500. O quark c é quase tão maciço como um protão, sendo esta a razão porque é necessária tanta energia para produzir partículas com charme, o que levou a que a sua descoberta ocorresse tão tardiamente.

O terceiro sabor corresponde a massas ainda maiores. O quark b tem uma massa de cerca de 5 000, ou seja, quase três vezes a massa do protão. É por isso que foi descoberto ainda mais tarde que o quark c. Quanto ao quark t, não existem valores fiáveis para a respectiva massa, uma vez que não foi ainda identificado, mas as estimativas apontam para que seja pelo menos 25 vezes mais maciço do que o protão, razão pela qual a sua descoberta tarda.

Não basta, evidentemente, fazer uma lista de todos os quarks. É necessário elucidar o mecanismo do seu funcionamento. Em 1947, por exemplo, três físicos trabalhando independentemente tinham descrito de modo diferente aquilo que sucede na interacção entre electrões e fotões, explicando desse modo a interacção electromagnética. As três explicações eram válidas e essencialmente equivalentes.

Dois desses físicos eram Schwinger e Feynman. O terceiro era o japonês Sin-itiro Tomonaga (1906-1979). (É possível que Tomonaga fosse o primeiro, mas a Segunda Guerra Mundial estava em curso e os cientistas japoneses estavam isolados. Tomonaga só pôde publicar os seus trabalhos depois do fim da guerra.) Os três partilharam um Prémio Nobel em 1965.

A teoria é designada electrodinâmica quântica e revelou-se uma das teorias mais bem sucedidas de sempre. Foi capaz de prever com extraordinária precisão fenómenos envolvendo a interacção electromagnética, e desde que foi formulada não houve necessidade de a aperfeiçoar.

Os cientistas pensaram, naturalmente, que as técnicas usadas na electrodinâmica quântica podiam ser usadas para descrever o funcionamento das interacções forte e fraca. Mas as primeiras tentativas foram decepcionantes. Por fim, Weinberg e Saiam conseguiram unificar as interacções electromagnética e fraca, mas a interacção forte continuou a apresentar dificuldades.

Por exemplo: os quarks têm spins fraccionários e são por isso fermiões, tal como os leptões. Existe um princípio de exclusão, formulado por Pauli em 1925, que diz que dois fermiões não podem ser agrupados no mesmo sistema se todas as suas propriedades quânticas forem idênticas. Tem de existir sempre uma diferença nos respectivos números quânticos. Se tentarmos juntar dois fermiões com números quânticos idênticos, gera--se entre eles uma repulsão muito mais intensa do que a repulsão electromagnética. No entanto, verifica-se que em alguns hadrões três quarks idênticos podem ser juntos num mesmo hadrão, como se o princípio de exclusão não existisse. A partícula ómega menos, por exemplo, é constituída por três quarks s.

Os cientistas tinham, porém, grande relutância em pôr de lado esse princípio de exclusão que se aplicava em todos os outros domínios da física subatômica. E pretendiam que se mantivesse válido no caso dos quarks. Talvez existisse alguma diferença entre quarks que eram aparentemente idênticos. Se existissem, por exemplo, três variedades de quarks s, era possível juntar uma partícula de cada num hadrão sem violar o princípio de exclusão.

A partir de 1964, diversos investigadores - entre os quais Oscar Green-berg na Universidade de Maryland, o físico nipo-americano Yoichiro Nambu (n. 1921) na Universidade de Chicago, e Moo-Young Han (n. 1934) na Universidade de Syracuse - começaram a trabalhar sobre esta questão das variedades de quarks.

Concluíram que as variedades não eram análogas a coisa alguma na física subatômica, e não podiam, na verdade, ser descritas. Apenas se lhes podia atribuir um nome e descrever o modo como operavam. O nome escolhido foi cor.

É claro que, num certo sentido, se trata duma má escolha, porque os quarks não possuem cor na acepção comum da palavra. Por outro lado, a designação é perfeita. Na fotografia e televisão a cores, é bem sabido que o vermelho, verde e azul se combinam para dar a impressão de ausência de cor, ou seja, de branco. Se todos os quarks existirem nas variedades vermelha, verde e azul, uma combinação dum quark de cada resultará num desaparecimento da cor, ou seja, em branco. Todas as combinações de quarks nos hadrões têm de produzir um resultado branco. Não se conhece qualquer hadrão onde exista cor por a respectiva composição de quarks ser cromaticamente desequilibrada.

Isso explica por que razão há três quarks para cada barião, e dois quarks (ou antes, um quark e um antiquark) em cada mesão. Estas são as únicas combinações incolores.

Uma vez compreendida a noção de cor, diversas observações que sem o conceito teriam parecido anómalas revelaram-se absolutamente coerentes. Por esse motivo, a ideia de quarks coloridos foi rapidamente aceite pela comunidade científica.

Claro que se há seis quarks e seis antiquarks diferentes entre os três sabores, e se cada quark pode ter uma de três cores, então existem ao todo trinta e seis quarks coloridos. Isto aumenta a complexidade da situação, mas dá aos cientistas uma ferramenta para construir uma teoria do comportamento dessas partículas que se aproxime, em valor, da electro-dinâmica quântica. A nova teoria é designada cromodinâmica quântica, onde o prefixo cromo- vem da palavra grega para "cor". Gell-Mann, que fora quem primeiro propusera o conceito de quark, foi um dos que mais contribuíram para o seu desenvolvimento nos anos 70.

A interacção forte é essencialmente a interacção entre quarks. Os hadrões, que são constituídos por quarks, estão secundariamente sujeitos à interacção forte, precisamente porque são feitos de tais partículas. Os piões, que parecem ser a partícula de troca para essa interacção secundária dos hadrões, são partículas de troca apenas porque, também eles, são constituídos por quarks. Por outras palavras, toda a ênfase posta na interacção forte fundamental deve ser colocada agora nos quarks.

Se tentarmos separar dois quarks, o número de gluões trocados entre ambos aumenta. Trata-se da força de atracção entre quarks, que aumenta com a distância. Por isso, os quarks só se podem deslocar livremente no interior dos hadrões. Os cientistas suspeitam que nunca será possível isolar quarks livres para estudo.

A ser assim, deve existir uma partícula de troca ao nível dos quarks. Foi Gell-Mann quem propôs um nome para esta nova partícula. Resolveu chamar-lhe gluão, por ser a cola (gíue) que mantém juntos os quarks.

Os gluões têm propriedades invulgares. No caso das outras partículas de troca, por exemplo, quanto maior for a distância entre partículas sujeitas à interacção, menor é o número de partículas trocadas entre elas e menos intensa é a interacção. As interacções gravítica e electromagnética diminuem de intensidade com o quadrado da distância entre dois objectos a elas sujeitos. A interacção fraca e a interacção forte secundária entre hadrões diminuem ainda mais rapidamente de intensidade com a distância.

No caso dos quarks e gluões, todavia, passa-se precisamente o contrário. Se tentarmos separar dois quarks, o número de gluões trocados entre eles aumenta. Isto é o mesmo que dizer que a força de atracção entre os quarks aumenta com a distância.

No interior dos hadrões, os quarks deslocam-se livremente e com facilidade. Se forem separados, porém, "endurecem". O que significa que os quarks estão confinados às partículas, apenas existindo confortavelmente dentro dos hadrões. Por este motivo, os físicos suspeitam que nunca conseguiremos estudar quarks no estado livre. Não há maneira de os fazer sair dos hadrões. Estes podem, evidentemente, transformar-se uns nos outros, transportando consigo a sua carga de dois ou três quarks (que podem, eles próprios, mudar de cor).

Há outro aspecto em que os gluões são mais complexos do que as outras partículas de troca. Os gravitões são trocados entre partículas com massa mas não possuem, eles próprios, massa. Os fotões são trocados entre partículas com carga eléctrica mas não possuem, eles próprios, carga. Os gluões, que têm cor, são trocados por partículas com cor. Por isso, os gluões podem ficar juntos. Esta é outra razão porque o nome gluão foi uma boa escolha. (Para se referirem a um par de gluões que ficam juntos, alguns físicos falam em bola de cola [glue bali].)

O gluão tem a capacidade de mudar a cor dum quark (mas não o seu sabor). Existe um gluão que transforma um quark vermelho num verde do mesmo sabor, outro que converte vermelho em azul, e assim por diante. Têm de existir oito gluões diferentes para dar conta de todas as transformações cromáticas possíveis. Tal constitui uma complexidade adicional. Com uma partícula de troca gravítica, uma electromagnética, três da interacção fraca e agora oito da interacção forte, temos ao todo treze partículas de troca.

Mesmo assim, a electrodinâmica quântica baseada em quarks com três sabores e três cores, com oito gluões coloridos (quarenta e quatro partículas, no total) constitui uma teoria bem sucedida e os cientistas acreditam que continuará a explicar todas as características dos hadrões e seu comportamento.


12. O UNIVERSO


O Mistério da Massa em Falta

 

As observações e experiências que os cientistas têm feito no domínio da física subatômica são realizadas, maioritariamente, aqui na Terra. Como é que sabemos que os resultados obtidos são aplicáveis a outros mundos - às estrelas ou ao Universo em geral?

Temos vindo a estudar directamente a superfície da Lua, de Marte e de Vénus, bem como outros corpos do nosso sistema solar, através de sondas, utilizando para tal instrumentos sofisticados - mesmo quando não há contacto físico. Também dispomos de pedaços de matéria extraterrestre que chegam à Terra sob a forma de meteoritos. Nenhum desses estudos revelou quaisquer surpresas a nível subatômico. Os cientistas estão convencidos de que todos os corpos planetários no sistema solar são feitos da mesma matéria e que, por isso, obedecem às mesmas regras.

Mas quanto ao Sol, que parece tão diferente de todos os outros componentes do sistema solar? Bem, há partículas carregadas electricamente que chegam até nós vindas do Sol, sobretudo protões, e também neutrinos, e uns e outros são tal qual esperávamos que fossem.

E quanto ao Universo para lá do sistema solar? Recebemos neutrinos da supernova que explodiu em 1987 na Grande Nuvem de Magalhães, e recebemos radiação cósmica (sobretudo protões e partículas alfa) do Universo em geral. Ambos os fenómenos indicam que o Universo se comporta segundo as regras que elucidámos aqui na Terra.

A informação mais importante sobre o Universo chega geralmente até nós sob a forma de fotões. Na verdade, conseguimos ver o Sol e as estrelas, e até galáxias que estão à distância de milhares de milhões de anos-luz. Também conseguimos detectar fotões que são demasiado ou insuficientemente energéticos para que os nossos olhos os vejam - raios gama, raios X, radiação ultravioleta, infravermelha e ondas rádio.

Os fotões que conseguimos detectar fornecem-nos indicações precisas sobre a estrutura química dos corpos que os emitem. Os astrónomos estão convencidos de que outras estrelas e galáxias são feitas de matéria análoga à que constitui o nosso próprio Sol. E este é feito de matéria tal como a que existe na Terra (com a diferença de que as temperaturas são muito mais elevadas no Sol).

Mas será que vemos, ou detectamos, uma amostra representativa de todos os fotões que existem? Haverá alguma coisa no Universo que não emita fotões? Na verdade, não há. Qualquer corpo que esteja rodeado por espaço à temperatura média do Universo (cerca de três grau acima do zero absoluto) - e isso significa praticamente todos os corpos - emite fotões. Alguma da radiação, todavia, é insuficientemente intensa ou energética para poder ser detectada.

Existem muitas estrelas que são tão débeis que não as conseguimos ver, mesmo com os melhores instrumentos disponíveis, a não ser que estejam bastante perto de nós. Alguns planetas noutros sistemas solares possuem superfícies tão frias com os do nosso próprio sistema e, por isso, as ondas rádio que emitem são demasiado ténues e perdem-se no fulgor da radiação que é emitida pelas estrelas em torno das quais orbitam.

Ainda assim, os cientistas acham que faz sentido supor que a maior parte da massa do Universo está concentrada em estrelas e que a parcela de massa que não conseguimos ver, por estar demasiado fria e a sua radiação ser demasiado débil, não é significativa. No nosso sistema solar, por exemplo, todos os planetas, asteróides, cometas, meteoritos e poeiras que orbitam em torno do Sol perfazem apenas 0,1 por cento da massa total. Os restantes 99,99 por cento da massa estão concentrados no Sol. Há pois razões para supor que, dum modo geral, as outras estrelas também predominam deste modo sobre os objectos que orbitam em torno delas.

Podem naturalmente existir regiões no Universo onde as condições são tão extremas que as leis da natureza que conhecemos não funcionam. As regiões onde é mais provável que tal suceda são os buracos negros, onde a matéria colapsou e se encontra numa situação de densidade quase infinita, criando à sua volta uma pequena zona de intensidade gravítica quase infinita. Não podemos estudar os buracos negros em pormenor e, até agora, não identificámos um sequer de modo completo e inequívoco. Ainda assim, e partindo do princípio de que existem, estas entidades poderão ser governadas por leis que não aquelas que conhecemos.

Um outro domínio de incerteza diz respeitos aos primeiros instantes após o aparecimento do Universo, quando as condições eram tão extremas que talvez as nossas teorias físicas não se aplicassem. (Terei algumas palavras a dizer sobre este assunto adiante.) E, todavia, nada parece estar isento de surpresas. Todos os fotões do Universo exterior que estudamos são o produto de interacções electromagnéticas, mas as surpresas vieram--nos dos efeitos da gravidade, a outra interacção a longa distância.

Não podemos detectar gravitões, mas podemos detectar o efeito da gravidade sobre o movimento das estrelas e galáxias. Podemos medir a velocidade de rotação das galáxias em diferentes regiões da sua estrutura, e partimos do princípio de que essa rotação é provocada por forças gravíticas no interior da galáxia, tal como a rotação dos planetas do sistema solar é determinada pela influência gravítica do Sol.

Uma vez que 99,9 por cento da massa do sistema solar estão concentrados no Sol, a influência gravítica solar sobrepõe-se a todo o resto. Se exceptuarmos algumas correcções mínimas, essa é a única influência a ter em conta. Quanto mais longe um planeta estiver do Sol, menos intensa é a influência gravítica deste sobre aquele, e mais lentamente o planeta se desloca. O modo como o movimento varia com a distância foi primeiro elucidado em 1609 pelo astrónomo alemão Johannes Kepler (1571-1630) e explicado pela lei da gravitação universal, formulada em 1687 por Newton.

Tal como o sistema solar, as galáxias têm a sua massa concentrada no centro, embora não duma forma tão extrema. Podemos ver como as estrelas se tornam mais numerosas à medida que nos aproximamos do centro duma galáxia, e parece por isso razoável concluir que cerca de 90 por cento da massa de todas as galáxias está contida num volume relativamente pequeno no seu âmago. Portanto, seria de esperar que as estrelas girassem cada vez mais lentamente em torno do centro duma galáxias à medida que aumenta a sua distância a este. Mas não é isso que acontece. Aparentemente, as estrelas deslocam-se praticamente à mesma velocidade à medida quando nos afastamos do centro da galáxia.

Nenhum cientista está disposto a abandonar a lei da gravitação (que foi modificada e alargada, mas não substituída, pela teoria da relatividade generalizada de Einstein), uma vez que nenhuma lei alternativa parece capaz de explicar aquilo que se passa, em geral, no Universo. Por isso, é necessário supor que a massa da galáxia não está concentrada no seu centro mas distribuída de modo mais uniforme por toda ela. Contudo, como é que pode ser assim, se nós vemos que a massa, sob a forma de estrelas, está concentrada?

A única conclusão possível é de que existe matéria fora da zona central que nós não vemos. Trata-se de "matéria negra"que não emite quaisquer fotões que possamos detectai mas que exerce a sua influência gravítica. Com efeito, somos forçados a presumir, do ponto de vista da gravidade, que a massa duma galáxia pode ser muitas vezes superior àquela que calculamos a partir dos fotões que irradia. Até serem feitos estudos sobre as rotações das galáxias, estávamos aparentemente a passar ao lado da maior parte da massa destas.

Outro ponto: as galáxias existem em enxames. Dentro dos enxames (que podem ser constituídos por dezenas ou milhares de galáxias), as galáxias individuais deslocam-se incessantemente, como abelhas numa colmeia. A coesão dos enxames de galáxias é garantida pela atracção gravítica mútua das galáxias que os constituem. Mas as massas das galáxias - a fiarmo-nos apenas naquilo que podemos ver, através dos fotões que podemos detectar - não são suficientes para proporcionar a atracção gravítica necessária para manter os enxames juntos. E, todavia, os enxames não se desfazem. Mais uma vez deve existir massa que não detectamos. Quanto maior o enxame, maior a quantidade de massa que não conseguimos quantificar. Pode existir até 100 vezes mais massa no Universo do que aquela que conseguimos ver. Este fenómeno é conhecido como o "mistério da massa em falta". O que é que se passa?

A resposta mais fácil é supor que todas as galáxias contêm miríades de pequenas estrelas, planetas e nuvens de poeiras muito ténues. O problema é que, daquilo que conhecemos do Universo, não é razoável imaginar que esse material existe em tais quantidades que a sua massa é uma centena de vezes superior à das estrelas que conseguimos ver.

Passemos então ao mundo subatômico. Tanto quanto sabemos, cerca de 90 por cento da massa do Universo é constituída por protões. As únicas outras partículas subatômicas cujo número se compara ou excede o de protões são os electtões, que existem em igual número, e os fotões e neutrinos de electrões, que podem existir em quantidades milhares de milhões de vezes superiores ao número de protões. Contudo, os electroes possuem massas diminutas, e os fotões e neutrinos de electrões não têm qualquer massa intrínseca. Os electtões, fotões e neutrinos de electrões estão todos em movimento e possuem energia cinética equivalente às respectivas massas. Porém, as massas que dão origem a tal energia são extremamente pequenas - tão pequenas que podem ser desprezadas. O que deixa apenas o protão como componente que contribui com massa para o Universo.

Será que a massa em falta é constituída por protões adicionais que desconhecemos? A resposta parece ser não! Os astrónomos têm formas de calcular a densidade de protões no Universo e, assim, de determinar quantos podem existir, detectados ou não, nas regiões ocupadas pelas galáxias ou pelos seus enxames. A quantidade de protões presentes corresponde, no máximo, a apenas 1 por cento da massa em falta. Portanto, seja o que for que corresponde à massa em falta, não podem ser protões.

E isso deixa-nos com os electrões, fotões e neutrinos de electrões. Temos quase a certeza de que os electrões e fotões não podem contribuir para a massa em falta, mas já não estamos tão certos quanto aos neutrinos de electrões.

Em 1963, um grupo de cientistas japoneses sugeriu que o neutrino de electrão podia ter uma massa minúscula, apenas uma pequena fracção da do electrão. A ser assim, o neutrino muónico podia ter uma massa ligeiramente maior e o neutrino tauónico uma massa maior ainda. Todas estas massas seriam muito pequenas, mas não nulas.

Se for esse o caso, os neutrinos deslocar-se-ão a uma velocidade inferior à da luz - embora não muito inferior - e cada um dos neutrinos viajará a uma velocidade ligeiramente diferente. Por isso, os três sabores de neutrino oscilarão, sucedendo-se uns aos outros rapidamente.

Tal significa que se um feixe de neutrinos de electrões partir do Sol, cerca de oito minutos mais tarde, tendo concluído a sua corrida de 150 milhões de quilómetros até à Terra, surgirá no nosso planeta sob a forma dum feixe contendo iguais quantidades de neutrinos de electrões, neutrinos muónicos e neutrinos tauónicos.

Isso seria muito interessante, na medida em que Reines, que há décadas se dedica a detectar neutrinos provenientes do Sol, utiliza dispositivos que apenas funcionam com neutrinos de electrões. Se os neutrinos estiverem a oscilar, ele recebe um feixe constituído por apenas um terço de neutrinos de electrão, em vez de inteiramente constituído por neutrinos de electrão. Ou seja, Reines estará a detectar apenas um terço das partículas, o que explicaria por que razão a contagem de neutrinos de electrão recebidos é sempre tão baixa.

Em 1980, Reines anunciou que realizara experiências que o levavam a acreditar que havia de facto oscilações e que os neutrinos tinham de facto uma pequeníssima massa. A ser assim, ficariam explicados não apenas os neutrinos em falta provenientes do Sol, como também o mistério da massa em falta. Existem tantos neutrinos espalhados pelo Universo que mesmo que cada um tivesse uma massa que fosse apenas l/io 000 da do electrão, tal seria suficiente para que a massa total dos neutrinos fosse cem vezes superior à massa de todos os protões do Universo. Além disso, estes neutrinos com uma ligeira massa poderiam ser usados para explicar a formação das galáxias, um problema que actualmente dá grandes dores de cabeça aos astrónomos.

A possibilidade da existência de neutrinos com uma ligeira massa quase resolver um conjunto de problemas leva-nos a ansiar para que tal seja verdade. O único problema é que ninguém confirmou os dados de Reines. E existe a convicção generalizada de que ele se enganou. Por mais elegante e desejável que uma teoria possa ser, ela deve ser abandonada se não se adequar ao Universo.

Mas mesmo que a massa em falta não seja constituída por protões e neutrinos, ela parece realmente existir. De que é feita, então? Em anos tecentes, os físicos têm tentado elaborar teorias que unifiquem a interacção forte e a electrofraca. Algumas dessas teorias exigem a invenção de partículas novas e exóticas. Talvez sejam essas partículas, nunca observadas e que, para já, existem apenas no espíritos dalguns cientistas imaginativos, que expliquem a massa em falta. Temos portanto de aguardar observações que suportem essas sofisticadas teorias.


O Fim do Universo

 

Para um observador ocasional, o Universo, quer seja observado à vista desarmada ou usando um de muitos instrumentos, pode parecer imutável. As mudanças que observar serão provavelmente cíclicas. Se algumas estrelas explodem, outras se formam. Dir-se-ia, portanto, não haver razão para pensar que o Universo tem necessariamente um fim ou um princípio, se não fosse um facto avassalador que poderá não ser de natureza cíclica: o Universo está em expansão.

Essa é uma história que se iniciou em 1912, quando o astrónomo norte-americano Vesto Melvin Slipher (1875-1969) começou a estudar os espectros de certas nebulosas. Trata-se, na verdade, de galáxias distantes situadas bem longe da nossa própria Via Láctea, mas isso era desconhecido na época. Analisando os espectros, Slipher podia verificar se as linhas espectrais estavam deslocadas para a extremidade violeta do espectro (o que significaria que a nebulosa se estava a aproximar de nós) ou em direcção à extremidade vermelha (o que indicaria que se estava a afastar de nós).

Por volta de 1917, Slipher concluíra que das quinze nebulosas estudadas, todas, à excepção de duas, apresentavam uma deslocação para o vermelho estando, portanto, a afastar-se. Outros astrónomos continuaram o seu trabalho e quando finalmente se reconheceu que as nebulosas eram galáxias distantes, verificou-se que, com as duas excepções referidas por Slipher (e que correspondiam a galáxias invulgarmente próximas de nós), todas as outras estavam a afastar-se. Além disso, quanto menos visível a galáxia era, mais rapidamente se afastava.

1. As linhas espectrais da luz proveniente duma galáxia próxima (que se afasta) estão apenas ligeiramente deslocadas para a extremidade vermelha do espectro.

2. As linhas espectrais da luz proveniente duma galáxia distante (que se afasta rapidamente) estão significativamente deslocadas para a extremidade vermelha do espectro.

No final dos anos 20, o astrónomo norte-americano Edwin Powell Hubble (1889-1953) recolhera dados suficientes para poder afirmar que o Universo estava em expansão e que os enxames de galáxias que o constituem estavam a afastar-se uns dos outros.

Isto fazia sentido à luz da teoria. Em 1916, Einstein apresentara a sua teoria da relatividade generalizada, que descrevia a gravitação de modo mais rigoroso do que Newton fizera. As equações formuladas por Einstein para a descrever constituem, com efeito, os alicerces da ciência da cosmologia (o estudo do Universo no seu conjunto).

Inicialmente, Einstein considerou que o Universo era globalmente imutável e ajustou as suas equações a esse pressuposto. Em 1917, o astrónomo neerlandês Willem de Sitter (1872-1934) mostrou que as equações não ajustadas, se resolvidas adequadamente, implicavam que o Universo estava em expansão. As observações de Hubble provaram que esta teoria estava correcta.

A questão, agora, é a seguinte: durante quanto tempo é que o Universo continuará a expandir-se? A atracção gravítica mútua de todas as suas partes é um factor que contraria a expansão. Esta desenvolve-se, portanto, contra a atracção gravítica, tal como um objecto lançado ao ar a partir da superfície da Terra se desloca contra a atracção desta.

A nossa experiência comum diz-nos que um objecto lançado ao ar em circunstâncias normais acaba por ser derrotado pela atracção gravítica do nosso planeta. A sua velocidade de ascensão reduz-se gradualmente a zero, após o que o objecto começa a ser de novo atraído para a Terra. Quanto maior for a força com que inicialmente é lançado ao ar - e, portanto, quanto maior for a sua velocidade ascensional inicial - mais alto ele sobe e mais tempo decorre até começar a cair.

Se um objecto for lançado da Terra com força suficiente (velocidade inicial suficiente), nunca volta a cair. A atracção gravítica da Terra vai diminuindo à medida que o objecto se afasta mais e mais do centro daquela. Se o objecto fizer uma ascensão suficientemente rápida (11 quilómetros por segundo), a atracção gravítica, que diminui com a distância, nunca será suficientemente grande para o trazer de volta. Tal significa que 11 quilómetros por segundo é a velocidade de escape da atracção gravítica terrestre.

Podemos então interrogarmo-nos sobre se a velocidade de expansão do Universo contra a atracção gravítica em sentido contrário atingiu o valor de escape. Se a velocidade de expansão for superior à velocidade de escape, o Universo expandir-se-á para sempre. Será portanto um Universo aberto. Todavia, se a velocidade de expansão for inferior à velocidade de escape, a expansão irá gradualmente abrandar e, em certo momento, cessará. Depois, o Universo começará a contrair-se. Estaremos neste caso perante um Universo fechado.

O facto do Universo ser aberto ou fechado, de terminar como uma bola de matéria eternamente em expansão e cada vez mais rarefeita ou, pelo contrário, cada vez mais pequena e densa, não afectará as nossas vidas individuais ou sequer a existência do nosso sistema planetário. A curiosidade dos cientistas, porém, é grande. E para chegarem a uma conclusão, têm procurado determinar a velocidade de expansão. Também têm sido feitas tentativas para calcular a densidade média da matéria no Universo, o que poderá dar uma ideia da atracção gravítica que se opõe à expansão. Ambos os cálculos são difíceis, e os resultados apenas aproximados. Contudo, a conclusão é de que a densidade do Universo é somente cerca de 1 por cento daquilo que seria necessário para interromper a expansão. Pareceria assim que o Universo é aberto e está para sempre a expandir-se.

Mas, alto aí! A determinação da densidade da matéria no Universo baseia-se naquilo que somos capazes de detectar - e quanto à matéria negra? Se for verdade que a matéria negra no Universo - aquela matéria cuja natureza ainda não determinámos - pode ser até cem vezes mais maciça do que a matéria que conseguimos detectar, isso será talvez suficiente para fechar o Universo. Ficamos, assim, sem saber se o Universo é aberto ou fechado.

E também possível que exista no Universo apenas matéria negra suficiente para o colocar no limiar entre aberto e fechado (ou muito próximo disso), o que significaria que o Universo é "plano". Tal seria uma coincidência extraordinária, e o sentimento generalizado é de que, se assim for, deverá existir uma razão para isso.

O leitor percebe assim por que motivo é tão importante, do ponto de vista cosmológico, saber se a matéria negra existe realmente e, em caso afirmativo, de que é feita. A resposta, quando chegar, deverá emergir do domínio das partículas subatômicas. Vemos pois como o avanço do conhecimento é verdadeiramente unitário. O conhecimento do maior objecto que conhecemos, o Universo, depende daquilo que soubermos sobre os mais pequenos corpos conhecidos, as partículas subatômicas.

Há outro aspecto em que as partículas subatômicas podem afectar o fim do Universo, e que resulta da tentativa de unificação das interacções forte e electrofraca. Os primeiros esforços nesse sentido surgiram em 1973, quando Saiam, o co-fundador da teoria electrofraca, resolveu atacar o problema.

A interacção electrofraca envolve os leptões e a interacção forte os quarks. Por isso, uma teoria unificada implica necessariamente a existência duma semelhança básica, subjacente, entre os dois tipos de partículas. Ou que, em determinadas circunstâncias, umas se possam converter nas outras. O pressuposto natural é de que os quarks podem ser convertidos em leptões, uma vez que isso vai na direcção da redução da massa e energia.

Suponhamos então que um quark no interior dum protão era convertido num leptão. Este deixaria de ser um protão, desintegrando-se em partículas menos maciças como kaões, piões, muões e positrões (tudo partículas de carga positiva, o que respeitaria a conservação da carga eléctrica). Os kaões, piões e muões acabariam por decair originando positrões, o que significaria que, globalmente, os protões se transformavam em positrões.

Um tal processo violaria a lei da conservação do número bariónico. Porém, todas as leis de conservação são meras deduções a partir de observações realizadas. Nunca observámos qualquer transformação que altere o número bariónico num sistema isolado, pelo que partimos do princípio de que uma tal transformação não pode ocorrer - e é isso que nos dá a lei de conservação. Mas por mais poderosas e convenientes que sejam as leis de conservação, elas permanecem suposições, e os cientistas devem estar preparados para, ocasionalmente, aceitar o facto de alguma delas não ser válida em todas as situações concebíveis. Foi isso que aconteceu no caso da lei de conservação da paridade, como expliquei anteriormente.

Ainda assim, os físicos vêm estudando intensamente os protões há muitas décadas e nunca assistiram a decaimento algum dessas partículas. Por outro lado, uma vez que estão convencidos da impossibilidade de tal transformação, nunca se esforçaram em descobrir se as coisas se passam realmente assim.

Além disso, a unificação das interacções existentes (existem diversas variedades) indica que a vida média do protão é extremamente longa. São necessários IO31 anos (dez milhões de biliões de biliões de anos) para que metade dos protões em qualquer amostra de matéria se desintegre. Uma vez que o Universo só tem cerca de 15 milhares de milhões de anos, a vida média do protão representa quase 70 milhares de milhões de biliões de vezes a idade do Universo. O número de protões que se terão desintegrado desde que o Universo existe será assim uma fracção insignificante do total.

Mas não será igual a zero! Se começarmos com 1031 protões, que é a quantidade que encontramos num tanque com cerca de 20 toneladas de água, existe a possibilidade de ocorrer uma desintegração no decurso dum ano. Detectar esse único protão em 20 toneladas de água e identificar a sua desintegração como devendo-se à transformação dum quark num leptão não será uma tarefa fácil, e os cientistas, que já fizeram algumas tentativas iniciais nesse sentido, ainda não conseguiram detectar tal desintegração.

Um êxito ou um fracasso são importantes. Um êxito contribuirá significativamente para estabelecer a validade da unificação das interacções, a chamada grande teoria unificada. Um fracasso pô-la-á em dúvida.

Pense o leitor também no impacte que tal teria sobre o destino do Universo. Se este for aberto e estiver para sempre em expansão, irá perdendo muito lentamente os seus protões. Acabará por se transformar numa nuvem inimaginavelmente vasta e rarefeita de leptões - electrões e positrões (e, evidentemente, fotões e neutrinos).

E claro que também suspeitamos que, à medida que o Universo for envelhecendo, mais e mais porções dele serão concentradas em buracos negros - e não fazemos qualquer ideia sobre as leis da natureza que se aplicam no centro destes. Haverá aí algum tipo de hadrões? E será que decaem, muito, muito lentamente, mas com toda a certeza, e que os buracos negros acabam por desaparecer? O quebra-cabeças continua - e continuará provavelmente para sempre.


O Início do Universo

 

O Universo está actualmente em expansão. Independentemente de ser aberto ou fechado, o Universo está presentemente a expandir-se. O que significa que era mais pequeno o ano passado do que é agora, e mais pequeno ainda no ano anterior, e assim por diante.

Se olharmos para o futuro, a sua "infindabilidade" é pelo menos concebível, uma vez que o Universo pode ser aberto e expandir-se para sempre. Mas se olharmos para trás, para o passado, não existe essa possibilidade de "infindabilidade". O Universo é cada vez mais pequeno e num determinado momento no passado distante, podemos imaginá-lo como estando reduzido à sua dimensão mínima.

A primeira pessoa a estudar isto com algum pormenor foi o astrónomo belga George Henri Lemaitre (1894-1966). Em 1927, ele sugeriu que, olhando para o passado, havia um momento em que a matéria e energia do Universo estavam literalmente esmagadas e concentradas numa massa extraordinariamente densa, a que chamou ovo cósmico. Lemaitre considerava esse ovo instável. Ele teria explodido naquilo que só podemos imaginar como a mais gigantesca e catastrófica explosão que o Universo foi capaz de proporcionar. Os efeitos dessa explosão ainda estão connosco sob a forma dum Universo em expansão. O físico russo--americano George Gamow (1904-1968) resolveu chamar-lhe big bang e o nome ficou.

Houve, naturalmente, alguma resistência à ideia dum big bang. Foram propostos cenários alternativos para explicar a expansão do Universo. A questão só ficou resolvida em 1964, quando o físico germano-ameri-cano Arno Allan Penzias (n. 1933) e o físico norte-americano Robert Woodrow Wilson (n. 1936) resolveram estudar as ondas rádio que nos chegavam do espaço.

Quando eles perscrutavam suficientemente longe no espaço, fosse qual fosse a direcção em que olhassem, detectavam radiação que estava a viajar há tantos milhares de milhões de anos que só podia ter tido origem no próprio big bang, se alguma vez existiu tal acontecimento. Penzias e Wilson descobriram uma ténue radiação de fundo constituída por ondas rádio que apresentavam idêntica intensidade em todas as direcções do firmamento, e que consideraram representar o "eco" distante do big bang. Os físicos consideraram que a descoberta validava a teoria do big bang e os seus autores foram galardoados com um Prémio Nobel, em 1978, pelo seu trabalho.

A teoria do big bang apresenta, evidentemente, algumas dificuldades. Por exemplo, quando foi que aquele ocorreu? Um modo de deteiminar esse momento é medir a velocidade a que o Universo se está actualmente a expandir e depois trabalhar para trás, levando em linha de conta o aumento da atracção gravítica à medida que o Universo se torna mais pequeno e denso.

Isso, porém, é muito mais fácil de dizer do que fazer. Existem diversos modos de determinar a velocidade de expansão, de medir a idade das estrelas mais antigas e de calcular a distância a que se encontram os corpos mais longínquos que conseguimos ver (e, portanto, o tempo que a radiação com origem neles demorou a chegar até nós).

Actualmente, os radio-astrónomos podem ainda escutar o "eco" distante do big bang.

Os resultados tendem a contradizer-se, e as estimativas sobre o tempo que decorreu desde o big bang variam entre 10 e 20 milhares de milhões de anos. Geralmente as pessoas fazem a média entre os valores e consideram que a idade do Universo é de 15 milhares de milhões de anos, mas eu suspeito que o verdadeiro valor está mais próximo dos 20 milhares de milhões.

Existem outras dificuldades mais subtis. A radiação de fundo detectada por Penzias e Wilson é extremamente uniforme em todas as partes do céu, e representa uma temperatura média global do Universo de três graus acima do zero absoluto. Tal facto é surpreendente, porque para existir uma situação em que a temperatura é igual em todo o lado, é geralmente necessário que haja algum tipo de contacto entre as diversas partes, de modo a que o calor possa fluir dum lado para o outro igualizando a temperatura. Mas isso não pode ter sucedido no Universo porque há diferentes regiões que estão separadas por distâncias superiores àquela que a luz pode ter percorrido desde que ele existe. Uma vez que nada viaja mais rápido do que a luz, o que terá igualizado a temperatura? Ou, por outras palavras, o que é que torna o Universo tão homogéneo?

Um outro problema é precisamente o inverso. Se o Universo é homogéneo, por que razão é que não se conservou assim? Por que razão não é apenas uma massa informe de partículas subatômicas eternamente em expansão? Por que foi que as partículas se condensaram em aglomerados que se transformaram em enxames de galáxias, e as galáxias se condensaram e deram origem a estrelas? Por outras palavras, por que é o Universo tão homogéneo num certo sentido e tão granular noutro?

Existem ainda outros problemas, mas todos eles - a idade, a homogeneidade, a natureza granular, etc. - dependem daquilo que aconteceu no início do Universo, nos primeiros instantes após a grande explosão. Naturalmente ninguém estava lá para ver, mas os cientistas procuram perceber o que se passou a partir daquilo que conhecem sobre o estado actual do Universo, e daquilo que aprenderam sobre as partículas subatômicas.

E, assim, partem do princípio que, à medida que recuamos no tempo e nos aproximamos do momento do big bang, a temperatura aumenta e a densidade da energia é cada vez maior. Os cientistas consideram que não é possível falar de instantes inferiores a IO45 segundo (um milésimo de milionésimo dum bilionésimo dum bilionésimo dum bilionésimo de segundo) após o big bang. Para instantes inferiores a isto, as condições são tão extremas que o próprio espaço e tempo não têm sentido.

Contudo, o Universo arrefeceu rapidamente em apenas algumas fracções dum segundo. Inicialmente não passava dum mar de quarks, que existiam livremente porque nada mais existia, e porque possuíam demasiada energia para sequer estabilizarem o suficiente e se combinarem uns com os outros.

Quando a idade do Universo já era dum milionésimo de segundo, porém, os quarks já se tinham separado nos quarks e leptões que conhecemos actualmente, e aqueles tinham arrefecido o suficiente para se poderem combinar e formar bariões e mesões. Nunca mais se viram quarks livres. As interacções, inicialmente dum tipo apenas, começaram a separar-se nas quatro que nós reconhecemos. Quando o Universo tinha um segundo de idade, já estava a tal ponto rarefeito que os neutrinos deixaram de interagir com as outras partículas, passando a existir numa total indiferença pelo restante Universo, e assim permanecendo desde então. Quando a idade do Universo chegou aos três segundos, começaram a formar-se os núcleos atómicos mais simples.

Após uma centena de milhar de anos, os electrões começaram a orbitar em torno dos núcleos. Formaram-se átomos. Depois, a matéria começou a condensar-se e a dar origem a galáxias e estrelas e o Universo começou a tomar o aspecto que lhe conhecemos.

Ainda assim, os cientistas não puderam deixar de pensar no momento zero, no instante em que o big bang realmente ocorreu, antes do limite do 10'45 segundo. Donde veio o material que constituía o ovo cósmico?

Se pensarmos na situação que existia antes da formação do ovo cósmico, podemos visualizar uma vastidão vazia, sem limites. Aparentemente, porém, essa não será uma descrição adequada daquilo que existia. Esse vazio continha energia. Não era bem um vácuo porque, por definição, o vácuo não contém nada. O pré-Universo, todavia, possuía energia, e embora todas as suas outras propriedades fossem as do vácuo, é designado um falso vácuo. Nesse falso vácuo surgiu um ponto minúsculo de matéria onde a energia, pelas forças cegas das transformações aleatórias, ficou suficientemente concentrada para o efeito. Na verdade, podemos imaginar esse falso vácuo sem limites como uma massa borbulhante e espumosa onde surgiam porções de matéria aqui e além, tal como as ondas do mar produzem espuma.

Algumas dessas porções de matéria terão desaparecido imediatamente no falso vácuo donde tinham surgido. Outras, porém, seriam suficientemente grandes ou ter-se-iam formado sob tais condições que sofreram uma rápida expansão, de tal modo que é certo que o Universo se formou e sobreviverá, possivelmente, por muitos milhares de milhões de anos.

É portanto possível que habitemos um dum número infinito de universos em diferentes estádios de desenvolvimento, presumivelmente regidos por diferentes conjuntos de leis físicas. Contudo, não existe modo algum de comunicarmos com qualquer outro universo, e estamos por isso para sempre confinados ao nosso, tal como um quark está confinado a um hadrão. Tal facto não deverá entristecer-nos desnecessariamente. Bem vistas as coisas, o nosso próprio Universo é suficientemente vasto, variado e surpreendente.

O físico norte-americano Alan Guth (n. 1947), que defende um início deste tipo para o Universo, sugeriu, em 1980, que no estádio inicial do Universo existiu uma fase "inflacionária" rápida. Esse modelo é designado do Universo inflacionário.

É difícil compreender quão breve foi esse período inflacionário e quão enorme a inflação. Esta iniciou-se cerca de IO'35 segundo (dez bilionésimos dum bilionésimo dum bilionésimo dum segundo) e, de seguida, o Universo duplicou de volume a cada 10'35 segundo. Após um milhar de duplicações (apenas 10'32 segundo após o big bang), a inflação terminou. Esta diferença de tempo (dez milésimos dum milionésimo dum bilionésimo dum bilionésimo de segundo) foi, contudo, suficiente para que o Universo crescesse 1050 em volume. No final do período inflacionário, o Universo tinha um volume que era cem biliões de biliões de biliões de biliões de vezes aquele que possuía no início. Além disso, ao aumentar de volume, integrou mais falso vácuo e a energia deste, aumentando desse modo enormemente a sua massa. É possível demonstrar que foi essa inflação rápida inicial que tornou o Universo homogéneo, e praticamente plano, possuindo a densidade de massa suficiente para se situar entre um Universo aberto e um Universo fechado.

O Universo inflacionário de Guth não explica todas as propriedades do Universo tal como o conhecemos. Os cientistas têm vindo a modificar a teoria para que ela descreva melhor aquilo que nos rodeia, especialmente no que diz respeito à formação das galáxias.

Para que tal seja possível, é necessária mais uma unificação. É preciso juntar sob um mesmo telhado, não só a interacção forte e a electrofraca, mas também a gravitação. Esta tem resistido até agora a todas as tentativas de integração, mas os cientistas estão a trabalhar com algo a que chamam a teoria das supercordas, que também designam como a "teoria de tudo".

Não se trata apenas de juntar bariões e leptões como dois exemplos diferentes de algo mais fundamental, mas os fermiões e bosões são unificados e considerados dois exemplos diferentes de algo mais fundamental. Foi postulada a existência dum novo grupo de partículas em que existem novos fermiões semelhantes aos nossos bosões, e novos bosões análogos aos nossos fermiões.

Aonde isto nos levará, não sei. Não faz sentido tentar esboçar as teorias e modelos que são actualmente discutidos pelos cientistas, uma vez que umas e outros vão sendo modificados quase diariamente. Além disso, não existem quaisquer observações que os suportem, pelo que permanecem no domínio da pura especulação.

Ainda assim, persiste o sonho dum único conjunto de equações capaz de abranger todas as partículas que existem no Universo, bem como todas as suas interacções. Precisamos dele para termos uma imagem consistente dum Universo que começou com um único tipo de partícula governado por um só tipo de interacção - uma partícula que, à medida que arrefecia, se dividiu originando a grande variedade de efeitos que actualmente podemos observar.

E tudo começou quando alguns Antigos se questionaram sobre a divisão da matéria e até que ponto ela podia prosseguir. O que mostra aquilo que pode acontecer quando fazemos as perguntas certas.

 

 

                                                                  Isaac Asimov

 

 

              Voltar à “Página do Autor"

 

 

 

 

      

 

 

O melhor da literatura para todos os gostos e idades