quarta-feira, 6 de outubro de 2021

Entropia: Definição Básica

 A entropia é um dos conceitos mais interessantes na física. Para começar, sua definição é algo um tanto quanto contra intuitivo.

Primeiro, vamos usar um sistema S e fazer com que ele passe por uma transformação cíclica, que como o próprio nome diz, se repete em ciclos. Suponha que em cada ciclo o sistema receba (ou dê, tanto faz) calor de uma ou várias fontes individuais tendo cada uma uma diferente (ou a mesma) temperatura. Oras, então existe troca de calor entre S e as fontes de calor. Para cada temperatura temos uma certa quantidade de calor trocada. A quantidade de calor trocada pode ser positiva ou negativa, dependendo da temperatura da fonte ser maior ou menor do que do sistema S. Se a temperatura da fonte for maior, o sistema tem troca de calor positiva; se for menor, negativa. Isto é só para adotarmos um padrão, pois poderia ser o contrário que não faria diferença.

Por mais incrível que pareça, a soma das razões entre a temperatura e a troca de calor é 1) ou menor que zero ou 2) igual a zero. Para o caso em que o resultado é nulo o ciclo é chamado de reversível.



Por outro lado, caso as fontes de calor sejam continuas, então ao invés de somar as razões, nós integramos por uma determinado ciclo. Claro, vale o mesmo que foi dito acima. 


Mas de onde vem a entropia, Sergio? Bom, vamos dizer que o seu sistema S possua um ciclo reversível que se inicia no estado inicial A e caminhe para o estado final B. Há vários modos (só mostro 2 possíveis caminhos) de se fazer isso, como mostra a figura abaixo, que é um diagrama de volume por pressão.

Então, vamos ter que calcular 

A integração acima fornece o mesmo resultado para qualquer que seja o caminho escolhido entre os estados A e B. Ou seja, no caso dos dois caminhos possíveis acima, temos

O fato de que qualquer caminho neste sistema forneça sempre o esmo resultado nos diz que estamos diante de algo muito importante: uma nova função para descrever o estado de um sistema. Assim, definimos a entropia como sendo

onde partimos de um certo estado inicial fixo na origem O e vamos até o estado final em A, que pode variar. Assim, a entropia só depende do estado final A. 

Muita matemática? Na-na-ni-na-não! Nada que um pouco de sofrimento e dor não nos ajude a superar...Mas perceba que no caso de um sistema com ciclo reversível, temos uma entropia nula. Se o sistema não for reversível, então pode-se mostrar que para um sistema isolado a entropia do estado inicial é sempre menor ou igual que do estado final. Ou seja, a entropia só aumenta ou permanece constante, mas não decresce neste caso. Mais ainda, dá pra mostrar que o estado de máxima entropia em um sistema isolado é o estado de maior estabilidade. 

Depois continuo!












segunda-feira, 13 de setembro de 2021

Entropia e Tempo

Um assunto fascinante para mim é a entropia, que em geral é definido como desordem, que é um de seus entendimentos estatísticos. Mas será que é isso (ou só isso) mesmo?

Einstein gostava da termodinâmica, que achava a mais universal das teorias, e muito provavelmente porque temperatura seja um conceito que transita por toda a física. Ele dizia que é uma teoria de princípios, ou seja, independente de modelos (não construtiva). Note-se que Einstein usou o conceito de entropia para investigar a radiação de origem térmica, chegando com isso aos quanta de luz. Claro, Einstein também criou sua própria mecânica estatística impondo limites para a validade das leis da termodinâmica.

A palavra entropia foi criada por Clausius para que fosse semelhante a palavra energia. Ele usou o grego para criar essa palavra que quer mais ou menos dizer o "ato de dar a volta". Quando um determinado processo é reversível, então, a conservação de entropia significa a possibilidade de recomeço. Se o processo não é reversível, não existe essa possibilidade e a entropia não se conserva.

Entropia é uma quantidade extensiva, isto é, ela depende de determinadas características do sistema (como massa, por exemplo). Infelizmente, a entropia não pode ser medida diretamente em um sistema (não existe um entropimetro...). Na verdade, seguindo Von Neumann, ninguém sabe de fato o que é a entropia...

Vou gastar alguns posts falando sobre essa coisa estranha, mas fantástica, chamada entropia.

sexta-feira, 16 de julho de 2021

Universalidade dos leptons?

Recentes resultados do Large Electron-Proton Collider (LEP) no CERN parecem contradizer a universalidade dos leptons. Universalidade?!

Bom, o Modelo Padrão prevê que as três gerações de leptons - muônico, tauônico e eletrônico - possuem mesma probabilidade de decaimento, pois presume-se que o seu acoplamento (ligação) com a força fraca seja o mesmo, isto é, tenha a mesma intensidade. Em qualquer caso, o bóson mediador é o mesmo, W.

Os resultados do LEP indicaram que a razão entre a entre os leptons tauônicos e muônicos é ligeiramente superior a 1, com erro não compatível com a universalidade, sendo que o Modelo Padrão prevê 1. No entanto, os resultados recém publicados da Colaboração ATLAS, que analisou um montanha maior de dados via colisões próton-próton, mostrou que a razão é ligeiramente menor que 1, com erro compatível com a esperada universalidade. 

O Modelo Padrão,  por mais bem sucedido que seja, está constantemente sendo testado e verificado, pois desvios mínimos de suas previsões podem indicar o aparecimento de nova física, como já foi falado aqui no blog. 

O resultado do ATLAS pode ser visto aqui.


Criação de Partículas - Buracos Negros

 O grande problema, talvez, para se lidar com buracos negros está na sua natureza extrema: é o extremo da Relatividade Geral e da Mecânica Quântica. Sua densidade é tão grande que ambos os extremos do nosso conhecimento acabam por ser relevantes. Não se pode desprezar os efeitos quânticos na gravitação. Porém, não temos uma teoria quântica da gravitação, o que nos obriga a trabalhar com modelos e aproximações, que muitas vezes são extremamente úteis, outras acabam por ficar meio confusas.

O trabalho de Hawking foi pioneiro em tratar deste assunto, a produção de partículas (algo puramente quântico) dentro de um objeto compacto (o buraco negro). A brincadeira, então, se trata em fazer o casamento entre a métrica do espaço-tempo, uma entidade clássica que não está quantizada, e a descrição dos campos de matéria, que é quântica. Além disso, há aqui o mesmo problema que Parker tinha: a definição de operadores de criação e destruição em espaços curvos. Já vimos que há dificuldade em definir os modos de frequência negativa e positiva nessa situação. O truque, então, é fazer como Parker fez. 1. Definir uma região plana do espaço, onde teremos um certo estado de vácuo; 2. Permitir que a curvatura do espaço faça o seu trabalho, "levando" a região plana para um novo estado de vácuo; 3. O novo vácuo não é necessariamente o mesmo que o primeiro, o que permite a criação de partículas.

Este processo, mesmo que localmente pequeno, ao longo da vida do buraco negro pode ser relevante para sua própria estabilidade. Hawking argumenta sobre a ambiguidade na definição dos operadores de criação e destruição, relacionando esta ambiguidade com o raio de curvatura do buraco negro. A partir desta ambiguidade, ele argumenta, é que surgem as partículas. Claro, dá-lhe conta usando a solução de Kerr-Newman para buracos negros com massa, momento angular e carga. Este tipo de solução é estacionária, não misturando as frequências positivas e negativas, não levado, portanto,  a nenhuma produção de partículas. No entanto, o fenômeno de superradiancia, que trata da espalhamento de ondas que incidem em um buraco negro carregado, indica que a amplitude dessas ondas aumenta. Amplitude e energia andam de mãos dadas: aumento de amplitude é interpretado como a produção de partículas. 

O resto do artigo é dedicado a mostrar como a mistura de modos resulta da produção de partículas. Genial! A íntegra do artigo pode ser vista aqui.

Repare, contudo, que há uma construção do método (embora Hawking não utilize os trabalhos de Parker) de criação de partículas, começando em Bogoliubov e indo até Hawking. Há várias e várias sutilezas em todo o processo, que não é mera aplicação de fórmulas. Há um entendimento profundo sobre a física do problema e sobre os limites dos métodos utilizados. Ou seja, é necessário entender de onde se está saindo para compreender onde se chegou. Não é algo corriqueiro e é feito por poucos com muito trabalho árduo.

Há várias leituras para recomendar. Por exemplo, aqui há uma boa aula sobre evaporação de buracos negros. Já aqui há uma boa descrição sobre a Mecânica Quântica dos buracos negros. Of course, em inglês. Em português, temos uma boa explicação geral aqui. Enfim, boas leituras...




quarta-feira, 7 de julho de 2021

Criação de Partículas - Leonard Parker

Em seu doutorado, Parker falava sobre a criação de partículas em um universo em expansão e é, provavelmente, o primeiro trabalho neste sentido. O que ele fez? Ele juntou num mesmo barco a mecânica quântica e a relatividade geral, mostrando que partículas podem ser criadas de modo espontâneo pela expansão do universo, que equivale, em certo sentido, a dizer que partículas podem ser criadas por um campo gravitacional que seja dependente do tempo.

O truque utilizado por ele consiste em admitir que o espaço começa e termina plano (Minkowski). No meio do caminho entre estes dois estados, a expansão é suave e espacialmente plana (no chamado universo de Friedmann-Lamaitre-Robertson-Walker - FLRW). Oras, no início e no fim, sendo o espaço plano, então fica simples definir o vácuo e contar as partículas criadas entre os extremos. Ele contorna o problema de definirmos o vácuo em espaços curvos.

Por simplicidade, ele quantiza um campo de partículas com spin 0 - bósons- (equação de Klein-Gordon). Durante este procedimento, as soluções do campo são apresentadas juntamente com as regras de comutação de seus operadores. E ai está o ponto: a forma como ele escreve o operador é a forma das transformações de Bogoliubov. Bingo!

O grande mérito de Parker, acredito, foi ter feito uma junção entre produção de partículas e expansão cósmica, isto é, mostrando que partículas podem ser criadas por simples variação temporal do campo gravitacional. 

No próximo post abordo o trabalho do Hawking sobre produção de partículas por buracos negros, que é algo espinhoso, pois é necessário definir o que é partícula e o que é vácuo em espaços curvos.










sexta-feira, 2 de julho de 2021

Criação de Partículas - O Problema da Relatividade Geral

 A Relatividade Geral - RG - é linda, mas cheia de problemas. Para começo de conversa, a RG é clássica no sentido mais newtoniano possível. Isto é, ela é parte de um mundo descrito por equações diferenciais (parciais) que possuem condições iniciais dadas. São essas condições iniciais que dão forma ao futuro.

Mas o aspecto newtoniano acaba ai. No mais, a RG é uma visão de mundo única, que unifica a geometria subjacente ao espaço com a inércia e a gravitação, formando uma estrutura única chamado espaço-tempo. Claro, depois que se aprendeu a fazer uma teoria assim, podemos fazer várias outras que sejam localmente equivalentes. 

Bom, nem só de beleza vive a natureza (ou a física, melhor dizendo). Vive de simetria também. Simetrias, do ponto de vista matemático, podem ser estudadas utilizando-se da Teoria de Grupos. Do ponto de vista físico, por exemplo, é interessante que nossos experimentos tenham simetria translacional, indicando que ela pode ser feita em qualquer parte do universo, contanto que o experimento seja executado do mesmo modo e que a física seja a mesma localmente. Ou simetria temporal. 

Simetrias são altamente desejáveis porque há um teorema, talvez um dos mais importantes do século XX, que diz que para cada simetria que um sistema possui, então há uma quantidade conservada (uma corrente conservada). Esse é o teorema de Noether, de uma beleza e elegância ímpares. Ele simplifica nossa vida ao máximo, pois basta você procurar as simetrias do sistema que está estudando. Se houver simetria, então haverá uma quantidade associada exatamente a esta simetria que conservada (energia, momento, etc.). Há um artigo ótimo aqui sobre simetrias na Mecânica Clássica.

Retornando ao ponto inicial. A RG, com relação ao teorema de Noether, não conserva, em geral, a energia. Há casos especiais em que pode haver a conservação de energia, mas no geral, não há. Grosso modo, para espaço-tempo plano, a energia se conserva sem problemas. Infelizmente, para espaço-tempo curvo, não há conservação de energia. Veja a explicação mais detalhada aqui.

Levando-se em conta que este post é parte de uma séria que tenta explicar a produção de partículas em buracos negros, então a curvatura do espaço-tempo é importante. E é ai que a porca torce o rabo. Para espaços planos, temos uma estrutura chamada invariância de Poincaré que nos permite selecionar foliações possíveis do espaço e construir partículas pela decomposição dos campos em modos de frequência positiva e negativa. Por outro lado, em espaços curvos não há nada disso, pois a priori não há grupo de simetria, o que dificulta a definição unívoca do estado de uma partícula pela decomposição do campo em modos de frequência positiva e negativa. Esta dificuldade se traduz de imediato em outra, que é a não unicidade do estado de vácuo, pois temos uma dependência explícita do sistema de referência neste ponto.

O problema acima é sério e há uma corrente de teóricos da relatividade que prega a não existência de partículas. Acho que o maior entusiasta dessa corrente de pensamento é o físico P. C. W. Davies, um gigante da RG. Como esse papo é longo, continuo depois.

segunda-feira, 28 de junho de 2021

Criação de Partículas - Transformações de Bogoliubov

Leonard Parker é O cara quando precisamos iniciar algum estudo sobre produção de partículas por expansão cósmica. Ele é uma dos fundadores das chamadas teorias quânticas de campos em espaços curvos. Seus trabalhos seminais são marcados pelo uso das chamadas transformações de Bogoliubov (já falei um pouco sobre o Bogoliubov em outro post).

Acho interessante, então, apresentar as transformações de Bogoliubov. A aplicação original destas transformações se dá em superfluidez, que é o fenômeno de zero viscosidade (ou seja, não há perda energia cinética pelo movimento do líquido). Ao estudar o fenômeno da superfluidez, às vezes é útil expressar os hamiltonianos que descrevem o sistema por meio de dois operadores de criação e dois  de destruição (esses hamiltonianos são chamados de bilineares). E, como qualquer problema que inclua hamiltonianos, a solução se inicia por meio de sua diagonalização. Ou seja, a matriz que descreve o sistema físico precisa passar por operações matemática lícitas até que apenas os elementos de sua diagonal principal permaneçam não-nulos. Daí fica moleza escrever suas soluções.

Bom, Bogoliubov percebeu que suas transformações conduziam à diagonalização dos hamiltonianos em questão, produzindo combinações entre esses operadores (mas mantendo suas relações de comutação). Como temos dois tipos básicos de partículas, férmions e bósons, precisamos verificar se há diferença nas transformaçõs para ambos os casos. E há, claro, mas que não apresenta grandes dificuldades em se passar de um para outro caso. Aqui, por simplicidade, vou apresentar o caso bosônico. Defino o hamiltoniano como
sendo que 
são números reais e 
são os operadores de criação e destruição bosônicos. O interesse de Bogoliubov estava no estudo de uma rotação no espaço onde o hamiltoniano estava inserido. Ele queria saber o que aconteceria se houvesse uma rotação no fluido descrito pelo hamiltoniano, grosso modo. Para fazer isso, preservando as operações de comutatividade dos operadores originais, ele introduz as seguintes transformações
Note que como estamos falando de bósons, temos que as relações de comutação são
e que resultam na seguinte transformação entre os espaços
Ou seja, 
Como estamos tratando de rotações, a maneira mais simples (acredite em mim!) é usarmos a trigonometria hiperbólica, fazendo uso das representações
sendo cosh = cosseno hiperbólico e senh = seno hiperbólico, ambos com relação ao ângulo de rotação (a e b são escalares). E voilà, temos as nossas transformações prontas. Simples e eficazes.

Resumindo: as transformações de Bogoliubov permitem rotacionar o fluido combinado linearmente os operadores de criação e destruição. Ou seja, podemos criar/destruir partículas apenas rotacionando (ou translacionando) o espaço. 

Há inúmeras aplicações das transformações de Bogoliubov, em especial na supercondutividade e antiferromagnetismo, além do fenômeno da superfluidez. Nestes sistemas,  as transformações são utilizadas para a diagonalização do hamiltoniano original, permitindo o acesso as soluções do sistema sob análise. 

No caso da produção de partículas, que nos interessa aqui, precisamos definir primeiro o que é partícula. Explico. Em geral, fazemos o seguinte: iniciamos o nosso universo no estado de vácuo antes do tempo inicial de nossa contagem. Depois disso, deixamos o estado de vácuo interagir com o campo gravitacional até um certo tempo final. Agora contamos quantas partículas temos no tempo final e, se houver um número maior do tempo inicial, então tivemos produção de partículas. Porém, como sabemos se produzimos de fato partículas ou se apenas contamos um número diferente devido ao fato de estarmos em um sistema de referência específico? Precisamos eliminar a dependência do sistema de referência para podermos contar corretamente. E este é um problema na Relatividade Geral, pois não há simetria geral que permita a definição de um estado de vácuo único. Veremos isso num próximo post.


terça-feira, 22 de junho de 2021

Criação de Partículas - Um Pouco de Contas

No post anterior falei sobre a ideia geral por trás da aplicação de operadores de criação/destruição num determinado autovetor (o estado do sistema). Neste aqui vou falar um pouco sobre as contas em si, pulando os detalhes mais sórdidos, claro.

Primeiro, vamos definir como falar na linguagem de Dirac. Nesta linguagem (ou notação), escrevemos os estados quânticos a partir de vetores linha (bra) e coluna (ket). Formalmente, estes vetores estão num local chamado espaço de Hilbert complexo (infinito!). Lembrando do post passado, os operadores criação e destruição devem satisfazer a condição 


Estes dois operadores serão aplicados em um ket que representará o estado normalizado (um autovetor)
Por completude, o bra é escrito como

sendo representado na forma vetorial por vetor linha. No presente caso, queremos também que a seguinte condição seja válida

Ou seja, que tenhamos um autovalor definido. Isto resultará em autovalores reais e positivos

Lembre-se que os autovalores são aquilo que se espera medir (uma probabilidade, na verdade) no experimento, grosso modo falando. Para o autovetor que estamos considerando
Então, o autovetor 

quando submetido ao operador 


irá produzir um autoestado 

Podemos fazer o mesmo com 
só que teremos como retorno o autoestado
Claro, omiti várias passagens para não ficar preso nas contas, mas o que devemos ter em mente, ao final, é que o operador criação aumenta de uma partícula a população. Por outro lado, o operador destruição diminui de uma partícula a população.

Os operadores de criação e destruição são combinados na forma (1) sendo, então, interpretado como o número de partículas de um certo tipo. Claro, se o autovetor usado estiver representando o vácuo, então teremos partículas sendo criadas e aniquiladas a partir da atuação dos operadores criação e destruição. De modo geral, um sistema com n-partículas pode ser construído em termos do estado de vácuo, que é o estado de mais baixa energia possível (o estado fundamental)
lembrando que n! é o fatorial de n. Assim, podemos criar partículas a partir do estado fundamental do sistema. Isto é extremamente importante e é um resultado específico da Mecânica Quântica (sem análogo na Mecânica Clássica).

Não vamos nos perder! O que queremos com tudo isso é chegar nos trabalhos do Hawking sobre produção de partículas em buracos negros. Antes, porém, precisa ficar claro que existe uma estrutura matemática por trás da física e que sem ela não vamos muito longe. Há inúmeros livros-textos que tratam do formalismo de bras e kets da Mecânica Quântica, uns mais complicados e outros menos. Um bem básico e com bastante argumentação é o Eisberg-Resnick. É considerado elementar, mas acho que é uma boa para quem pretende começar a se aventurar por este mundo.

No próximo post falarei sobre os trabalhos de Leonard Parker (nos anos de 1960) sobre produção de partículas causada por um universo em expansão. Acho que estes trabalhos são importantes para chegarmos ao Hawking.







terça-feira, 15 de junho de 2021

Criação de Partículas - Ideia Geral

Criar partículas não algo fácil,  pelo menos do ponto de vista matemático. Neste post vou falar sobre a criação do ponto de vista da Mecânica Quântica (MQ). Claro, não vou tocar na questão ontológica, o que é uma partícula?, porque não sei mesmo o que seja esse objeto. Posso calcular, pesar, saber as propriedades, mas não sei, fundamentalmente, o que é. Para ver como é complicado tentar dizer o que é uma partícula, basta ver aqui.

Imagine, no entanto, a maravilha que é poder transformar energia em matéria. Transformar o próprio campo eletromagnético em partículas, isto é, fazer com que um quantum de luz dê origem a um par partícula-antipartícula. Minha estupefação foi precedida pela de muitos outros, como a de Victor Weisskopf ao comentar no anos de 1930 os  avanços de P.A.M. Dirac na teoria do elétron, de 1928.

Atualmente, o processo de criar e aniquilar partículas está muito bem estabelecido na MQ. Na verdade, estes processos são, aparentemente, exclusivos da MQ. No entanto, o entendimento de que partículas poderiam ser criadas e aniquiladas aos pares antecede a MQ, datando do início do século XX. Por exemplo, os físicos acreditavam que bastava que as partículas tivessem cargas opostas para se aniquilarem (prótons e elétrons). Sabemos que não basta apenas isso, hoje em dia. 

Preciso ressaltar, ainda, que há duas versões de interpretação para a MQ. A versão corrente dos livros-textos (que vem da chamada "Escola de Copenhagem", defendida por Bohr) e a de David Bohm, que não possui formulação relativística. Então, quando eu disser MQ daqui por diante, estarei me referindo ao que é comumente aceito nos bancos universitários.

Bom, na MQ a definição do vácuo é fundamental, pois é deste estado físico que vamos retirar e colocar partículas. Mas o que é o vácuo quântico? Bom, para começar, ele nada tem a ver com o vácuo clássico, aristotélico, que significa a ausência de tudo. No caso quântico, o vácuo não é a ausência de tudo, mas apenas um estado físico (o de mais baixa energia possível) preenchido por campos quânticos onde partículas e antipartículas (aos pares) podem surgir (criadas) e desaparecer (aniquiladas) em átimos de tempo. Aceito isto, precisamos encontrar algo que possa atuar sobre o vácuo. Isto é, precisamos de uma entidade matemática que, ao se aplicada no vácuo (que é um estado físico), produza alguma alteração no mesmo. Para isso, são utilizados os atuadores. Não, minto, os alteradores. Não, minto de novo. O nome correto é operadores. Os operadores são entidades matemáticas que atuam sobre uma determinada função matemática (que no caso representará o vácuo), produzindo uma modificação em seu estado. A MQ é uma teoria linear, isto é, ela é descrita por meio de quantidades lineares, incluindo os operadores, que são todos lineares.

Parece complicado, e é mesmo. Primeiro, é necessário que definamos que os operadores que vamos usar não comutem. Como? Que?! Comutar é...sejam A e B dois operadores. Para que eles comutem, devemos ter AB - BA = 0. Para que não comutem, AB - BA = C, onde C não pode ser o operador nulo (grosso modo, zero). Por simplicidade, assume-se que C = 1, mas não faz diferença o que seja. Definimos, então, o comutador de A e B como [A,B] = AB - BA. Repare, então, que o que dissemos até aqui foi: se primeiro aplicamos A e depois B num determinado estado físico, isto não é o mesmo que aplicar B e depois A. Moleza. Tenho certeza que você pode encontrar exemplos disso no seu dia-a-dia. Por exemplo, para dar uma dica: coloque seu celular sobre a mesa e 1) gire para a esquerda em 90 graus e 2) levante em 90 graus com relação ao tampo da mesa; agora faça 2) primeiro e depois 1). Deu o mesmo resultado? Claro que não. Então você tem que os operadores 1) e 2) não comutam (não produzem o mesmo resultado final)

Por que isso, Sergio? Por que os operadores não devem comutar? Bom, primeiro devo dizer qual é a vantagem deles comutarem. Se dois operadores A e B comutam, então AB - BA = 0, o que equivale a dizer, na linguagem da MQ, que ambos podem ser observados ao mesmo tempo. Sendo assim, tudo o que puder ser descrito por estes dois operadores ao mesmo tempo, será descrito. Do ponto de vista matemático, então, dizemos que A e B formam uma base para este espaço de observação. Assim, operadores que comutam podem formar uma base no espaço de obervação. E se os operadores não comutarem? Então eles não são observados ao mesmo tempo e não podem formar uma base.  O exemplo mais batido é o da posição e momento de uma partícula: se você sabe onde está a partícula, não sabe quanto exatamente ela tem de momento e vice-versa. Ou seja, posição e momento não formam uma base para descrever o comportamento de uma partícula.

Mas e por que devemos usar operadores que não comutam, mesmo? Oras, grosso modo, eu não quero produzir uma partícula que possa ser descrita numa base onde ela existe e não-existe ao mesmo tempo. Ou ela existe ou não-existe, não é uma condição dual. Assim, meus operadores que irão atuar na vácuo quântico irão descrever a criação e aniquilação de uma partícula, mas nunca um estado de coexistência. 

Outra coisa importante é: um operador ao ser aplicado a uma função precisa produzir algo que seja passível de verificação (experimentação). É necessário produzir um valor (algo quantificável). Desta forma, o operador que cria uma partícula quando aplicado ao vácuo, precisa produzir (aumentar) uma partícula. Já o operador que destrói a partícula quando aplicado ao vácuo, precisa reduzir o número de partículas (caso já haja partículas) de uma partícula. A função que descreve o vácuo é chamada de autoestado. O resultado numérico que se obtém ao aplicarmos um operador a um autoestado é chamado de autovalor. 

Há várias questões formais para descrever tudo o que está dito acima, que demandam bastante formalismo. No próximo post mostrarei um pouco disso tudo. Precisarei de alguns posts para podermos chegar na criação de partículas por buracos negros, que é o que o Hawking fez.











segunda-feira, 14 de junho de 2021

Documentário da Netflix

Dias atrás assisti ao documentário Buracos Negros: No Limite do Conhecimento, da Netflix. Gostei, mas não gostei.

A ideia que dá origem ao documentário é muito interessante e consiste em explicar como se deu a construção da imagem espetacular de 2018. O mérito todo é da equipe gigantesca por trás do Event Horizon Telescope (EHT), financiado por várias agências de fomento, o que não inclui nenhuma brasileira, infelizmente. Por outro lado, aparece no documentario a inserção natural do Stephen Hawking, com seus trabalhos iniciais. E acho que aí surge o problema. 

O trabalho do EHT, por si só, já é meritório do documentário e eu esperava que houvesse uma discussão mais profunda sobre os telescópios que estão ao redor do mundo e que foram utilizados para a reconstrução da imagem. Mas não houve isso. Rápida e superficialmente, há uma exposição da técnica de reconstrução. Depois disso, dá-lhe imagens e mais imagens apenas para embelezar o vídeo.

Mas, para complicar mais ainda, durante parte do trabalho do EHT, Hawking falece. E pior, ele estava em processo de colaboração na escrita de um artigo, que é publicado postumamente. Oras, acho que não valia a pena comer o tempo do documentário com a história desse artigo. Não mesmo. Se queriam falar dos artigos, então seria interessante falar sobre os trabalhos iniciais de Hawking e Bekenstein.

Enfim, o documentário tem méritos, como linguagem acessível e belíssimas imagens. Por outro lado, a fusão do fantástico trabalho do EHT com o que seria mais um (não  necessariamente o último) artigo do Hawking deixou a desejar.

Aproveitarei para falar sobre a criação de partículas no próximo post, assunto que o Hawking explorou a fundo ao longo da vida.

sexta-feira, 4 de junho de 2021

Renormalização - Wilson e Bogolyubov

Os procedimentos de renormalização surgem, como disse no post anterior, em Teorias Quânticas de Campos (TQC), sendo a Eletrodinâmica Quântica a primeira a ter que lidar com estes problemas. Já no final dos anos de 1940 se sabia resolver o problema de remoção dos infinitos por meio das técnicas desenvolvidas por Feynman, Dyson e Schwinger. Com estas técnicas,  massas e constantes de acoplamento passaram a ter os valores finitos desejados.

As técnicas de renormalização evoluíram muito ao longo dos anos, mas os pioneiros da área merecem algumas palavras. Destaco neste post os trabalhos de Kenneth Wilson e Nikolai Bogolyubov.

Começo pelo trabalho de Bogolyubov, contextualizando o período de suas contribuições. Primeiro, é necessário establecer o que é um grupo de renormalização. 

Em 1952 Stueckelberg e Petermann publicaram um artigo sobre o grupo de normalização em teoria quântica. Neste artigo e em outro de 1953, estes autores mostram que o grupo das transformações finitas formam um grupo contínuo, chamado de Grupo de Lie. Em termos técnicos, as equações diferencias de Lie são consistentes dentro deste grupo.

Em 1954, Gell-Mann e Low derivam equações funcionais dentro da QED para descrever os propagadores no limite do ultra-violeta. São equações fundamentais dentro da QED.

Em 1955, Bogolyubov e Shirkov publicam o primeiro artigo nomeando explicitamente a existência de um grupo de REnormalização em TQC. Para tanto, conectam os resultados de Stueckelberg e Petermann aos de Gell-Mann e Low, usando um algoritmo simples, que chamamos de Métodos de Grupos de Renormalização (RG), usando as hoje famosíssimas funções beta para domar as divergências no infra-vermelho e ultra-violeta. 

O interesse de Bogolyubov por infinitos sempre foi evidente desde seu primeiro artigo, publicado aos 15 anos! Onde pode, Bogolyubov contribuiu significamente. E ele pode muito. Contribuiu substancialmente em física estatística, TQC, teoria das partículas elementares, mecânica não-linear, por exemplo. Como professor, sempre foi a favor de se criar uma atmosfera calorosa e gentil para o desenvolvimento das ideias. Ganhou dezenas de prêmios na fisica e matemática em vida. Há prêmios que agora levam o seu nome.

O nome de Kenneth Wilson surge bem mais tarde dentro dos trabalhos em RG, muito embora tenha sido aluno de doutorado de Gell-Mann perto do final da década de 1950. Embora tenha entrado mais tarde, seu trabalho eleva o nível da discussão. Ele constrói um RG para sistemas estatísticos baseado na ideia de médias para determinados blocos dentro de sistemas muito grandes. Ele constrói um sistema de blocos discretos, que resulta num discreto e não mais contínuo,  como havia na TQC. Maravilha das maravilhas, porque sendo discreto ele poderia ser rapidamente alplicado a tudo que pudesse ser discretizado. Como exemplo,  as transições de fase. 

Dito de outra forma: a escala importa. Parece óbvio isso. Olhar um quadro de longe é diferente de olhá-lo de perto, claro. Mas tente explicitar isso matematicamente para você ver como é complicado.

Wilson sempre foi muito interessado em computadores e computação, sendo um usuário frequente dos primeiros computadores a cartão do final dos anos de 1950. Em 1974 ele publica um artigo onde formula explicitamente uma teoria de calibre em uma rede do tipo espaço-tempo. Este artigo é fundamental para mostrar o confinamento de quarks na Cromodinâmica Quântica (QCD). Não bastasse isso, é a base para os desenvolvimentos da chamada QCD na rede, que utilizava ferramentas computacionais aplicadas à QCD não-perturvativa. É por seu trabalho em renormalização, no entanto, que leva o Nobel de 1982.

Daria para ficar horas falando apenas sobre Bogolyubov, tantas são suas contribuições. Igualmente sobre Wilson. Porém, fico por aqui hoje, mas voltarei a falar sobre renormalização em outros posts pois acho o tema fascinante. 

segunda-feira, 31 de maio de 2021

Renormalização - 1

 Renormalização? Palavra meio estranha, mas que indica exatamente isso: normalizar algo que está não está normal. 

A natureza, creio eu, não gosta de infinitos. De nenhum tipo de infinito. Isso parece ser um consenso entre os físicos, também. Mas, infelizmente, muitas das equações que usamos para descrever a natureza não são, num primeiro momento, adequadas para isso. Isto é, elas contém infinitos dentro delas, que precisam ser eliminados. Este tipo de problema aparece principalmente na chamada Teoria Quântica de Campos (TQC), cuja filha mais bem sucedida é a Eletrodinâmica Quântica (QED). 

Como o nome já diz, a entidade básica nesta teoria é o campo e não a partícula. Apesar do sucesso inicial, a TQC fracassou na descrição da gravitação. No entanto, há enorme sucesso na descrição das outras interações e a QED é prova disso. Aliás, foi na formulação da QED que começaram a surgir os primeiros problemas de divergência, isto é, os infinitos. Mais especificamente, eles surgiram quando tentaram calcular a auto-interação (a auto-energia) dos elétrons e a chamada polarização do vácuo. Mas o que são estas coisas?!

A auto-energia do elétron surge porque os fótons são as partículas mediadoras da interação eletromagnética. Isto é, fótons são emitidos e absorvidos continuamente pelos próprios elétrons. Mas não são fótons reais! Este fótons são chamados de virtuais, isto é, são agentes de troca apenas. Ocorre que a emissão e absorção contínua destes fótons virtuais faz com que o elétron seja envolvido por numa nuvem de fótons virtuais. Oras, então a massa do elétron, na verdade, passa a ser a massa que está envolvida (nua) mais a massa surgida por conta do surgimento dos fótons virtuais.

Agora, observe que algo deve dar origem aos fótons virtuais, certo? O que seria? Oras, seriam os pares de elétrons-pósitrons virtuais, que decairiam nos fótons virtuais. Note que agora temos um problema com relação às cargas positivas e negativas. Os pósitrons virtuais são partículas de carga positiva. Então no momento de sua criação na nuvem, ele seria naturalmente atraído para ao núcleo, que contém o elétron real. Já os elétrons virtuais seriam repelidos pela núcleo, pois possuem carga negativa. Bom, então parte da carga do elétron seria blindada (ou escondida) pelos pósitrons virtuais, resultando numa carga efetiva (medida) para o elétron menor do que a original. Este é a chamada polarização do vácuo, isto é, houve a criação de polos no vácuo (semelhante ao efeito causado por um dielétrico, que polariza um meio inicialmente não-polarizado).

Este dois processos acima são os primeiros a apresentarem problemas de divergência na QED, isto é, o aparecimento de infinitos onde não deveriam aparecer. 

O processo de eliminação dos infinitos é chamado de renormalização. No início, não passava de um truque matemático bastante engenhoso para se remover os infinitos das soluções. Porém, as técnicas de renormalização foram evoluindo e foram incorporadas ao ferramental disponível. Ou seja, as técnicas de renormalização passaram a ser vistas como necessárias para eliminação dos infinitos dentro da TQC. 

Mas como surgem essas divergências? Bom, quando se usa teoria de perturbação, geralmente se faz a perturbação utilizando-se algum parâmetro que deveria independer da escala da teoria. Isto é, tanto "de longe" quanto "de perto", o parâmetro deveria ser o mesmo (ter o mesmo comportamento). Ocorre que, ao se perturbar o parâmetro e executar a sua expansão em série de potências, o primeiro termo apresenta um comportamento bem definido. Porém, os termos restantes da série de potência são divergentes, o que mostra que há um problema ai. A renormalização consiste em tornar bem comportados os termos restantes dessa expansão em série.

Falarei sobre mais detalhes em outros posts, porque o assunto é fascinante. Porém, não posso deixar de mencionar o nome de dois físicos que contribuíram enormemente para o assunto: Kenneth Wilson e Nikolaj Bogolyubov. Wilson eu já havia falado num outro posto sobre QGP. Bogolyubov é um gigante da física da extinta União Soviética. Falarei deles no próximo post.


sexta-feira, 28 de maio de 2021

Momento Anômalo do Muon: Experimentos

Como disse no post anterior, neste aqui vou falar sobre os experimentos (menos os detalhes mórbidos) por trás da medição do momento anômalo do múon. Não de todos os experimentos, claro, porque desde 1959 já há gente se dedicando a estudar o momento desse carinha.

Falarei de 2 experimentos, apenas. O primeiro (com mais detalhes), que publicou seus resultados em 2001 (Brookhaven National Laboratory - BNL), e do que possui resultado mais recentes, saído em 2021 (Fermi National Laboratory - Fermilab). O experimento do Fermilab  é, na verdade, uma continuação do experimento do BNL.

O experimento do BNL (Colaboração Muon g-2) que saiu em 2001 segue basicamente o mesmo esquema utilizado no experimento do CERN de 1978. Grosseiramente falando, um feixe polarizado de múons é armazenado em um dipolo magnético circular altamente uniforme. Ao circularem pelo anel, os múons decaem (post anterior) e a taxa de decaimento é, então, medida com precisão. Ao interagir com o campo magnético e elétrico, o spin do múon precessa, igual ao pião. A frequência angular pode ser calculada, dependendo explicitamente do campo magnético e elétrico no qual o múon está imerso.

Mas vamos ao experimento. Para começar a brincadeira, precisamos produzir os múons. Para tanto, utiliza-se inicialmente um acelerador de partículas chamado Síncrotron de Gradiente Alternado para produzir os feixes iniciais de prótons. 

Este acelerador foi desenvolvido nos anos 1950 e entrou em operação em 1960, sendo por muitos anos o mais potente acelerador de prótons do mundo. 

Bom, o AGS consegue entregar feixes contendo da ordem de 10^(13) protons, com uma energia de 24 GeV (Giga elétron-Volts). A cada 33 ms, os feixes de prótons são direcionados para um alvo de níquel. No processo de colisão são produzidos píons com energia de 3.1 GeV, que são transportados para uma estrutura linear de 116 m de comprimento. Neste tubo, cerca de 50% dos píons decaem em múons, que é o que desejamos desde o início.

Os múons produzidos são polarizados e selecionados de acordo com o momento que possuem, sendo depois injetados em um anel de armazenamento. Neste anel os múons são mantidos em uma órbita circular por meio de campos magnéticos pulsados. O cálculo é que de apenas UM múon é armazenado para cada 10^9 próton que encontram o alvo de níquel! 

Após esta etapa, a frequência de precessão dos múons era analizada a partir da variação no tempo do seu espectro de decaimento. Pósitrons são emitidos durante o decaimento do múon. Este pósitrons são emitidos, preferencialmente, ao longo da direção do spin do múon. Ou seja, existe forte correlação entre a energia do pósitron que é emitido e o ângulo entre o spin do múon e o seu vetor momento. É mais ou menos como se você estivesse segudando uma bola e começasse a girar rapidamente sobre seu próprio eixo; se você, de repente, soltasse a bola haveria uma forte correlação entre a energia com que ela sai da sua mão e com a sua velocidade de giro (seu spin, grosso modo). O pósitrons emitidos nesta etapa caem em espiral para dentro do anel, sendo detectados por aparelho próprio para isso (uma espécie de cintilador). Mas o que interessam os pósitrons? Bom, é a partir deles que se detecta a frequência angular dos múons. Ou seja, uma medida indireta. Como a frequência do campo magnético é conhecida, então de posse do valor da frequência angular do múon, podemos calcular o valor do momento anômalo. 

É um trabalho experimental gigantesco e cheio de detalhes que precisam ser verificados várias vezes. Todas as eventuais perdas e ganhos dos aparelhos devem ser analisadas e, se necessário, compensadas. Há um colossal trabalho estatístico e computacional por trás de tudo isso, onde são geradas montanhas de dados que ajudarão no trabalho de peneiramento dos dados experimentais.

O experimento do Fermilab (Colaboração FNAL) acabou de sair no de 07 de abril deste ano. Resultado quentinho! A matemática do experimento não é complicada, mas a instrumentalização do experimento, sim. 

O feixe de múons orbita um anel perfeitamente circular replete de magnetos com campo precisamente conhecido. O vetor momento do múon irá precessar com uma certa frequência cíclotron 


Como os múons estão em condições relativísticas, devemos introduzir a precessão de Larmor e a precessão de Thomas na forma relativística. Com isso feito, teremos a precessão total do múon, que irá fornecer a frequência de precessão do spin do múon, dada por


A precessão do vetor momento e do spin devem ser iguais. O seja, a diferença entre os dois resultados, chamada de precessão anômala, deveria ser nula

Ou seja, o termo entre parênteses na equação (3) deveria ser zero, que é o famoso g-2. Mas isso é teoria. A prática deve comprovar o resultado experado ou mostrar que ele não está correto. O que se irá medir no experimento, então, é a precessão anômala do múon, pois a carga q, a massa m e o campo magnético B são precisamente conhecidos. 

Para realizar o experimento, um feixe de múons é injetado em um anel circular composto por vários elementos: quadrupolos, calorímetros, estações de busca, colimadores, etc. Uma representação simples é mostrada na figura abaixo.
 


Ao entrar no anel, o feixe será continuamente monitorado. Os calorímetros irão detectar basicamente os pósitrons originados do decaimento dos múons (exatamente como no BNL), e cada calorímetro irá detectar pósitrons com uma pequena variação na precessão das fases do spin.

De resto, segue etapas muito parecidas com o BNL de 2001, muito embora a parte técnica e computacional tenham evoluido consideravelmente. Abaixo vemos uma reprodução do status atual do valor do momento anômalo do múon (figura obtida aqui).

Vemos que há uma inevitável conclusão a partir da figura acima: não há conciliação possível entre o Modelo Padrão e os resultados do BNL e do Fermilab. Nova física à vista!










sexta-feira, 16 de abril de 2021

Momento Anômalo do Muon

Não sei se alguém viu a recente fantástica medição do momento anômalo do muon?! Não? Vixe...

Então vamos lá. A descoberta do muon é interessante e pode ser vista como um teste da Relatividade Especial (RE). O tempo de vida dessas partículas é muito pequeno, da ordem de 2 milionésimos de segundo. Os pions, partículas muito interessantes também, ao interagirem com os átomos da atmosfera (vindos do espaço) decaem naturalmente em muons. 

Como tem um tempo de vida muito curto, o muon rapidamente decai em outras partículas um pouco mais estáveis, como elétrons e pósitrons (e neutrinos).


Isso faz com que os muons sejam praticamente invisíveis aos núcleos atômicos presentes na atmosfera (ou seja, descem em linha praticamente reta até a superfície terrestre). Oras, oras, o que precisamos procurar aqui embaixo na superfície, então? Muons que não tiveram tempo de decair, ainda. Mas exatamente quantos chegam na superfície? Bom, a contagem pode ser feita pela expressão simplérrima, como para qualquer decaimento, escrita abaixo

O caso (1) se refere ao valor clássico (sem RE), enquanto que (2) é para o caso onde vale a RE. Mas por que precisamos usar a RE? Porque a velocidade do muon é muito elevada, próxima da velocidade da luz c. O cálculo clássico (1) para uma atmosfera de 15 km fornece mais ou menos 130 muons chegando na superfície a cada 1 trilhão. Usando (2)  e a correção relativística (3), calcula-se o número de mais ou menos 630 bilhões de muons atingindo a superfície a cada 1 trilhão de eventos. Este número concorda com o que é medido, como constataram Carl D. Anderson e Seth Neddermeyer (1936)J. C. Street e E. C. Stevenson (1937).

Agora voltando ao momento anômalo do muon. O pião executa um tipo de movimento quando gira em torno do seu próprio eixo chamado precessão. O mesmo acontece com o giroscópio, como pode ser visto nesse vídeo. Os elétrons, por exemplo, também apresentam um movimento semelhante quando submetidos a um campo magnético forte. Eles agem como se houvesse um pequeno ímã dentro deles que, ao interagir com o campo magnético forte, oscila, fazendo com que a partícula apresente o mesmo comportamento do giroscópio.

Esse ímã interno é, na verdade, o momento de dipolo magnético da partícula. Esse momento, ao interagir com o campo magnético externo, faz com que a partícula gire. Ou seja, esse momento magnético de dipolo obrigatoriamente tem origem vetorial.

Os muons, que são partículas elementares de carga -1 e massa ~200 vezes maior que do elétron, apresentam o mesmo comportamento. Ao serem imersos em um campo magnético extremamente intenso passam a girar porque o seu momento magnético de dipolo interage com o campo magnético externo. Essa oscilação (ou taxa de precessão) depende da intensidade do momento de dipolo magnético do múon. Esse momento de dipolo recebe a letra g como identificador (g de giromagnético). Como ocorre com todas as partículas, suas propriedades devem ser medidas para que funcionem como testes daquilo que é previsto teoricamente.

Dentro do Modelo Padrão (MP), que é o que temos no momento, está previsto um momento de dipolo magnético para o muon visto na faixa verde da figura abaixo, obtida aqui (há um vídeo bem legal também). Ocorre que os valores medidos experimentalmente são maiores, vistos na outra faixa. Essa diferença é de cerca de duas unidades e, por isso, o que se procura é o g-2 (gê menos 2). O artigo com o experimento está aqui.

A previsão do MP é absurdamente precisa e leva em conta todas as interações que o muon pode ter (com campos e outras partículas conhecidas). Isso torna as coisas mais intrigantes ainda, pois se tudo o que é conhecido foi levado em conta, como explicar a divergência entre o que é calculado e o que é medido?

A primeira resposta é: flutuação estatística. Os processos envolvidos podem conter algum grau de aleatoriedade, resultando no que se chama de flutuação estatística. Explicando de outro modo: os dados mensurados para um mesmo experimento podem resultar em valores ligeiramente diferentes (por variações de pressão na sala, temperatura, etc.). Essa variabilidade é chamada de flutuação estatística. Em geral, procura-se retirar toda e qualquer flutuação estatística, ainda mais num experimento deste porte. Então, é pouco provável que o resultado obtido seja devido a algo deste tipo. Mas não é improvável.

Por outro lado, se não é flutuação estatística, então o que é? Se a interação do muon com todos os campos e partículas foi considerada no cálculo do momento anômalo, então só nos resta apelar para o que não é conhecido. É ai que a porca torce o rabo! Se há necessidade de se usar partículas não previstas no MP, então o Modelo Padrão já era. Estamos falando de física nova, ALÉM do MP. Não que o MP já não apresentasse problemas antes disso. Ele não explica a hierarquia de massa, a instabilidade do vácuo e por ai vai. Ou seja, ele não está feito e acabado (e por isso é só um modelo).

Há inúmeras variantes que descrevem a física além do MP, todas bastante complicadas e com suas próprias previsões (inclui a variante que prevê matéria escura, por exemplo). Um pequeno review pode ser visto aqui (of course, my horse, em inglês).

Há detalhes dos experimentos que deixarei para um outro post. Por hoje é só.



segunda-feira, 12 de abril de 2021

Plasma de Quarks e Gluons - 3

 Bom, se você leu os dois posts anteriores, então sabe que:

1. A QCD é a teoria das interações fortes;

2. Os quarks estão confinados e só podem ser livres no limite assintótico (altas temperaturas);

3. O Plasma de Quarks e Gluons pode existir no limite de altas temperaturas;

4. Pode haver quarks livre no QGP;

Este é o resumo da ópera, até agora. Mas como é que podemos "ver" quarks livres? Pra ser sincero, não "veremos" nada. O que buscamos encontrar são efeitos secundários da presença deste tipo de matéria. Que tipos de efeitos? Vários. 

Para começar, devemos falar sobre colisões entre partículas elementares. Em geral, estudamos colisões do tipo 

onde a, b e c são partículas bem definidas e X pode corresponder a um estado fragmentado. Pois bem, o detalhe mora nas partículas que podem surgir no estado X. Por exemplo, a chamada supressão da partícula (meson) J/psi é considerada como uma consequência da formação do QGP. (Há outras indicações, mas aqui só vou falar da J/psi.)

A partícula J/psi é interessante, não só por ter dois nomes (foi descoberta quase ao mesmo tempo por dois grupos diferentes, nomeada J por um e psi pelo outro). Bom, este meson é formado por um quark c (charm) e um antiquark bar{c} (um c com uma barra em cima). Mesons que são formados por quarks charm recebem o nome engraçadinho de charmonium. 

O meson J/psi se forma em diversos tipos de colisões (são vistos como jatos de partículas). Mas o que se espera que o J/psi faça? É esperado que haja uma supressão ou aumento no sinal do J/psi. Isto é, que o número total dessas partículas registrado nos aparelhos seja muito pequeno, pois em altas temperaturas os quark c e bar{c} devem se separar, produzindo menos J/psi no final da reação. Ou,  no caso de um aumento, que sejam detectadas mais partículas deste tipo do que o esperado. Em geral, espera-se este último tipo de comportamento na colisão de íons pesados.

Historicamente, este tipo de matéria foi "descoberto" algumas vezes ao longo do tempo, mas sempre com possibilidade de não ser de fato o que se esperava. Isto se deve, basicamente, ao equipamento utilizado na época, ainda bastante aquém do que se desejava. Apenas em 2000 foi que se detectou um sinal inequívoco da formação deste tipo de matéria. 

Apenas para termos uma ideia da temperatura nas colisões entre partículas elementares, a temperature mais alta já produzida foi de 250 mil vezes a temperatura no núcleo do nosso sol. Então quando falamos de QGP estamos tentando reproduzir o começo do universo. É complicado...













sexta-feira, 9 de abril de 2021

Plasma de Quarks e Gluons - 2

 A Cromodinâmica Quântica é uma teoria bastante complicada e ainda em franca evolução. Seu início é normalmente tomado lá nos idos de 1973 (eu estava nascendo...), quando Gross e Wilcek e, independentemente, Politzer, mostraram que para os quarks o que valia era a interação forte, com estas partículas estando confinadas em hadrons (barions e mesons).

Oras, oras, como? Bom, interação forte é uma das forças fundamentais do universo, mas que atua numa escala muito, muito pequena. Basicamente diz respeito apenas aos quarks e gluons. E o que fizeram Gross, Wilcek e Politzer? Eles mostraram, grosso modo, que o potential de interação destas partículas elementares é bastante diferente do que podemos considerar como usual (na física clássica). Por usual estou usando, por exemplo, o potencial gravitacional (ou Coulombiano): quanto mais distante a separação entre as massas (ou cargas), menor é a intensidade da interação. No caso da interação forte, o que vale é o seguinte: quanto mais próximo os quarks estão entre si, menos interagentes são. Ou seja, quando você tenta separar um do outro, a intensidade da interação aumenta!

De modo mais formal, Gross, Wilcek e Politzer mostraram que a liberdade assintótica está presente nas teorias de calibre (gauge) não-abelianas. E a QCD é uma delas. Não-abeliana?! Bom, abeliana com certeza você sabe o que é, só talvez não esteja ligando o nome à pessoa. Um grupo é todo conjunto onde está definida uma operação matemática com os elementos deste conjunto. Ser abeliano ou não significa que vale ou não a comutatividade dessa operação. Uma teoria abeliana é aquele em que vale a comutatividade. A Eletrodinâmica Quântica, predecessora da QCD e provavelmente a teoria mais bem testada até hoje, é abeliana. A QCD é não-abeliana, o que a torna incrivelmente mais complicada.

Bom, resumindo até aqui: quando você aproxima os quarks uns dos outros, eles se tornam partículas livres (um gás de partículas livres - ou quase-livres); quando você os afasta, eles passam a se comportar como se estivessem ligados uns aos outros. A fase na qual eles estão ligados é chamada de confinamento, no sentido de que não encontramos quarks livres na natureza, apenas em pares. A fase livre é apenas assintótica, pois apenas no limite de energias muito, muitos altas é que conseguiríamos vê-los livres. Isto é, a liberdade é apenas no limite de altas energias (ou altas temperaturas, no caso do QGP).

É muito interessante notar que várias pessoas entre os anos 1960 e 1973 "rasparam" na descoberta da tal "liberdade assintótica". Ou seja, a ideia de que havia um fenômeno novo a ser descoberto estava presente nas discussões de ponta. Acho que o mais interessante é o caso do físico Kenneth Wilson, que simplesmente escreveu um artigo sobre grupos de renormalização e não considerou, dentre os casos possíveis, o que resultaria na liberdade assintótica (mas não se preocupe, ele ganhou o Nobel de 1982 por outras fantásticas contribuições à física). Ele escreveu sobre isso tempos depois. Mas há outros, como Curtis Callan, Kurt Symanzik e o fantástico Gerard 't Hooft.

Mas viajei! Então vou voltar! Bom, se temos confinamento e temos liberdade assintótica, então precisamos dizer como a matéria de comporta em cada fase, para podermos posicionar o problema e saber o que procurar do ponto de vista experimental. No confinamento, temos que procurar a matéria usual, a bariônica, e explicar como ela se forma a partir de quarks e gluons. Ou seja, a teoria precisa ser capaz, então, de dizer o espectro de massa das partículas. 

No caso da liberdade assintótica o que devemos procurar? Quarks livres, claro! Mas como fazer isso? Dá pra fazer isso diretamente ou precisa ser feito de modo indireto? Bom, falarei disso num próximo post sobre QGP.

sexta-feira, 2 de abril de 2021

Plasma de Quarks e Gluons - 1

 Plasma, mais um estado da matéria. Mas que estado seria este? Bom, todo mundo conhece os 3 estados básicos: sólido, liquido e gasoso. Certo? E como seria este novo estado? 

Pra começo de conversa, nem é um estado novo. Na verdade, historicamente falando, é o mais antigo de todos e está presente no universo desde a sua mais tenra idade. É que para imaginar o universo você deve pensá-lo de trás pra frente: muito, muito quente (e denso) no início e que foi esfriando até chegar na temperatura que temos agora. Ou seja, o resfriamento permitiu que as outras fases da matéria passassem a existir e não apenas o plasma. Mas descobrimos o plasma apenas recentemente quando tivemos tecnologia para isso. Quer dizer, nem tão recente assim. O físico Langmuir descobriu este estado da matéria lá nos anos de 1920, trabalhando nos laboratórios da General Electric.

Mas no consiste o plasma, mesmo? É um gás altamente ionizado composto por elétrons e íons positivos livres, resultando num gás com carga elétrica total nula. Como? Ao aquecermos um gás nós fornecemos energia às suas moléculas, que terão seus elétrons arrancados de suas órbitas. O resultado disso será um gás onde teremos a separação dos elétrons de seus núcleos atômicos. Logo, teremos um gás onde os elétrons estarão livres (e os núcleos positivos também). Ué, mas as cargas contrárias não deveriam se atrair, Serjão? Com certeza! Porém, a energia no gás é muito intensa, fazendo com que a agitação térmica impeça a união das partículas com cargas opostas. A explicação acima é para o que chamamos de plasma térmico, que ocorrer, por exemplo, no interior de estrelas ou durante a passagem de um raio na atmosfera. Há os plasmas não térmicos, no qual os elétrons estão numa temperatura muito mais elevada que os íons positivos que compõem o plasma. Neste caso, os elétrons trafegam pelo plasma com velocidades muito elevadas, enquanto o restante do plasma permanece em relativa tranquilidade, com temperatura próxima da temperatura ambiente. As lâmpadas de neônio funcionam com base nesse fenômeno (Langmuir trabalhava na General Electric, lembra?).

Por outro lado, o plasma de quarks e gluons seria o quê? Lembrando que quarks e gluons são os constituintes básicos da matéria e que os gluons são as partículas que relacionam um quark com o outro (o fóton faz o mesmo para o caso dos elétrons, prótons e outras partículas), então temos um plasma que contém este tipo de matéria, chamada de matéria não bariônica: quarks e gluons livres! Ué, mas eles estavam presos em que mesmo? Loga história...vamos por partes.

Este tipo de estado da matéria está previsto na Cromodinâmica Quântica (QCD, acrônimo em inglês), que é a teoria das interações fortes, para temperaturas e densidade muito elevadas. É muito provável que tenha sido o estado dominante da matéria no universo durante seus primeiros microsegundos de vida. O estudo deste tipo de matéria é feito dentro do chamado Plasma de Quarks e Gluons (QGP, acrônimo em inglês), que é a parte da QCD que estuda estes objetos. Há diversos experimentos ao redor do mundo procurando por este estado da matéria. Atualmente, o Relativistic Heavy-Ion Collider (RHIC) no BNL e o Large Hadron Collider (LHC) no CERN buscam por este tipo de matéria. No entanto, é curioso notar que nos anos de 1980 e 1990 já havia indicativo de que este estado da matéria já poderia sido observado, mas deixaram isso passar despercebido no chamado Super Proton Synchrotron (SPS) no CERN. Ocorre que é bastante difícil encontrar as assinaturas deste tipo de evento (o plasma de quarks e gluons). Talvez a descoberta do bóson W no SPS tenha obscurecido um pouco a busca por este plasma.

Voltarei a falar sobre este assunto num próximo post, porque este é só o introdutório sobre o tema. Daí falarei de como os quarks e gluons se tornam livres e de como surge o plasma destes carinhas.