Archive for 12 febrero 2014

Running Schwarschild radio

febrero 12, 2014

El caso mas sencillo de agujero negro es el de Scharschild, que describe un agujero negro sin carga y que no rota sobre si mismo. Su horizonte de sucesos, la superficie desde la cuál no se puede salir (ignoraré aquí cualquier sutileza sobre diversos tipos de horizontes que se pueden definir o la reciente afirmación de Hawking de que el horizonte de sucesos no es bueno para describir agujeros negros en los que los efectos cuánticos son importantes). Esta superficie, para el caso de Schwarschild es esférica, y tiene un radio el radio de Schwarschild que viene dado por R_s= \frac{2GM}{c^2}.

Cuando he hablado de efectos cuánticos al referirme a Hawking me refería, por supuesto, a su famosa teoría en la que usando técnicas de cuantización en espacios curvos mostraba que un agujero negro emite radiación, conocida cómo radiación Hawking. Podéis leer algunos detalles sobre esa radiación (pero no la deducción de la misma) en la entrada inglesa de la wiki Hawking’s radiation. Unas ideas muy elementales sobre cuantización en espacios curvos la tenéis (en español, aunque la mayor parte del blog esté en inglés) en mi otro blog: Ideas básicas sobre cuantización en espacios curvos.

Cómo se puede leer en esas entradas un agujero negro que esté aislado de todo y no se “alimente” como resultado de esa emisión de radiación va perdiendo energía, y por tanto masa, y su radio de Schwarschild se va haciendo mas pequeño, es decir, el agujero negro se va evaporando. Podría pensarse que el título de la entrada haga referencia a este efecto, pero considero que a estas alturas el tema de la desintegración Hawking es algo sobradamente conocido por cualquiera interesado en estos temas así que el propósito de esta entrada es ligeramente diferente. El término “running” seguramente pueda dar una pista a la gente que conozca teoría cuántica de campos con un cierto nivel y, por tanto, haya oído hablar de las “running coupling constants”. He mantenido el término en inglés porque no se me ocurre ninguna traducción realmente buena del término running, quizás lo que más podría acercarse es “deslizante”.

Cuando empecé a escribir la entrada pensaba despachar la explicación del grupo de renormalización, la ecuación de Callan-Symanzsky y la teoría de las “constantes de acoplo deslizantes” con entradas a la wiki española (o a algún blog en español que tratase el tema), pero he visto que la wiki tiene un tratamiento muy pobre, siendo generoso, del asunto y no he visto ningún blog que lo trate. Supongo que la mayor parte de gente que me lea se manejará bien con el inglés (después de todo suelo poner vínculos a sitios en inglés casi siempre) y podrá leer la entrada de la wiki inglesa: renormalizción. En todo caso me sirve para darme cuenta que tal vez debería hacer un esfuerzo y escribir algo sobre renormalización en el futuro. En todo caso ahora daré las ideas mínimas sobre renormalización para que se pueda entender lo que pretendo exponer.

En QFT el objetivo final, normalmente, es calcular amplitudes de transición entre estados asintóticos. Es decir, uno tiene, un grupo inicial de partículas libres con unos momentos dados que interaccionan por un tiempo finito y se convierten, en general, en otras partículas con otros momentos distinto. La idea es calcular las probabilidades de esas transiciones. Los cálculos de esas probabilidades se suelen hacer usando los diagramas de Feynman. Discutí algo sobre ello en la entrada sobre el amplithuedron. Cómo explico ahí los diagramas se organizan en función del número de loops. Los que no tienen loops se denominan “tree level” y normalmente suelen reproducir las secciones eficaces clásicas (las secciones eficaces son unos objetos que sirven para expresar los procesos de colisión y están relacionados con las amplitudes de transición que comentaba antes). A nivel tree los diagramas de Feynman dan resultados finitos. Sin embargo, en cuanto nos vamos a diagramas con loops los resultados se vuelen infinitos y hay que ver si se puede lidiar con esos infinitos de algún modo para obtener respuestas finitas. Sí ello es posible se dice que la teoría es renormalizable.

Para entender un poco mejor el tema usemos el ejemplo de la wiki, el lagrangiano de la QED.

Ese lagrangiano consta de tres partes básicas. Una es el lagrangiano de Dirac que describe un fermión libre standard (no quiral). Otro término L_{em}=\frac{1}{4}F_{\nu \mu}F^{\nu \mu} (lo he escrito omitiendo las B’s) es el que describe el campo electromagnético libre. El otro término, el que, operando para dejarlo por separado, vendría a ser L_{int}=ieA^{\nu}\Phi es el que describe la interacción. La e que aparece multiplicando sería la constante de acoplo que en el caso del electromagnetismo es la constante de estructura fina, que suele escribirse con la letra alpha, pero bueno, mantengo la notación de la wikipedia. Según decía, y como comentan en la wikipedia, los diagramas con uno y mas loops suelen dar resultados divergentes cuando se calculan. Eso se debe a que en el cálculo hay que efectuar integrales indefinidas que resultan no estar acotadas. Hay diversas técnicas de regularización y renormalización (Pauli-Villards, dimensional, función z, etc). Todas ellas tienen una estrategia común. Hay un parámetro, llamémoslo u, y la integral se divide en dos partes, una hasta un valor de inferior a u, y otra desde u hasta infinito (esto es muy transparente en la técnica de Pauli-villars dónde ese u es un momento, denominado momento de corte. En la regularización dimensional se calcula la integral en el plano complejo, cambiando el momento p por p + iu, y luego se hace tender u a 0). Una de las partes de la integral dará un resultado finito, el otro un resultado infinito. La idea de la renormalización es que tenemos que añadir al lagrangiano original unos términos que den un nuevo diagrama de Feynman que anule la parte infinita de el diagrama original. Eso se va a poder hacer siempre, lo malo es que esos nuevos términos, en general, van a tener su propia constante de acoplo. Y luego, por cada nuevo loop, tendremos que añadir mas contratérminos, con mas constantes. En general una teoría con estas características va a ser inútil porque si bien término por término va a tener resultados finitos resulta que cada nuevo término añade una nueva constante que debe ser medida experimentalmente y, por consiguiente, se vuelve no predictiva.

En el caso de las teorías renormalizables los contratérminos tienen la misma forma que el término de interacción orginal. Eso hace que podamos anular los resultados infinitos mediante cambios en el valor de los campos, masas y consantes de acoplo. Se supone que el lagrangiano original “desnudo” (bare en inglés, de ahí la B que añade la wiki a los términos del lagrangiano) no puede observarse porque debido a fluctuaciones cuánticas un electrón va a estar rodeado de una nube de pares electrón/positron virtuales que apantallan la carga desnuda. Por ese motivo, la carga, la masa, la función de onda, y, lo más importante, las constantes de acoplo, van a depender de la energía a la que se mide la interacción. Por eso se habla de “running coupling constants”. Dependiendo de la energía a la que se midan van a tener un valor distingo. Esto es el proceso de renormalización, pero si uno va un poco más allá llega a una ecuación que deben cumplir en general esas constantes de acoplo, la ecuación de Callan-Szymansky. Esa ecuación, usando los resultados a un loop, se puede resolver y nos da el flujo de las constantes de acoplo según cambia la energía. Estos resultados son los que dan la idea de teorías de unificación porque se observa que las constantes de acoplo del electromagnetismo, de la nuclear débil y de la nuclear fuerte casi convergen a un valor común en el que todas las constantes valdrían lo mismo y, por tanto, habría una única interacción. Eso da la idea de teorías de gran unificación (GUT en inglés). Si uno incorpora supersimetría esa casi convergencia se convierte en convergencia, y es uno de los muchos motivos por los que se cree que la supersimetría es importante, pese a no haberse observado.

Bien, ahora ya tenemos (espero) una idea de lo que es eso de “las constantes de acoplo deslizantes”. Al hablar de las GUT he mencionado tres interacciones, pero, aparte de esas, hay otra, la gravedad. Tanto en la teoría de Newton cómo en la de Einstein la constante de acoplo de la gravedad es la G de la fórmula de Newton de la gravitación universal F=G \frac{m.m'}{R^2} . En QFT tenemos partículas “materiales” descritas por la ecuación de K-G (partículas escalares cómo el bosón de Higgs) o por la ecuación de Dirac (fermiones no quirales, cómo el electrón o los quarks) o algún tipo de ecuación (Weyl o Majorana para fermiones quirales, cómo el neutrino. Las interacciones viene medidas por partículas virtuales que van a ser partículas vectoriales. Para el electromagnetismo esa partícula es el fotón, para las nucleares fuertes son los gluones y para la nuclear débil los bosones W+, W- y Z0). En las entradas de este blog dedicadas a QFT, por ejemplo la anterior, se pueden encontrar mas detalles. Feynman, uno de los creadores de la QED, y el que desarroló la técnica de los diagramas que lleva su nombre intentó cuantizar la teoría de la gravedad de Einstein por procedimientos análogos a los de la QED. Más adelante de Witt continuó su trabajo y formuló las reglas para los diagramas de Feynman de la relatividad general.

El truco está en que la métrica de la relatividad general (una introducción desde o a relatividad especial y general la tenéis en este blog Minicurso de Relatividad General ) se divide en dos partes g_{\nu \mu} = \eta_{\nu \mu} + h_{\nu \mu} La primera parte, la \eta de esta división puede pensarse que es la métrica de minkowsky que describe la relatividad especial (aunque, en realidad, puede ser cualquier otra métrica que cumpla las ecuaciones de Einstein que se considera una métrica de fondo que no se cuantiza) y la parte con la h es la que describe las fluctuaciones cuánticas. Se supone que esas fluctuaciones corresponden al intercambio de gravitones. El problema es que la teoría cuántica que se obtiene al hacer eso es no renormalizable y uno debe buscar una teoría cuántica de la gravedad de otra manera. La respuesta mas desarrollada de la gravedad cuántica es la teoría de cuerdas. Esta describe la propagación de gravitones y es una teoría renormalizable.

Bien, ya vamos llegando a la idea de la entrada. Sí tenemos una teoría cuántica de la gravedad deberíamos tener que, de forma análoga al resto de constantes, la contante gravitatoria G va a depender de la energía a la que se mide y que es una “running coupling constant”. Lo cierto es que no es un tema que haya visto (al menos que recuerde) tratado en ningún libro standard, ni de QFT, ni de cuerdas, ni tampoco en artículos de introducción a la gravedad cuántica y su problemática. De hecho ha sido mientras pensaba en otros asuntos cuando he caído en que esto podría pasar. Las consecuencias de una “running G” serían varias, pero inicialmente se me ocurrió relacionarlo con los agujeros negros. El planetamiento es muy simple: si el radio de Schwarschild depende de G, y esta varía con la energía, el radio de Schwarschild debería depender de la energía. Esto hay que concretarlo un poco, claro. Una idea sería que cuando hago chocar dos partículas a alta energía estas ven una G renormalizada y, por consiguiente, su radio de Schwarschild debería calcularse con esa Gren y no con la G de bajas energías. Otra idea sería que un agujero negro astrofísico (o uno primordial, formado en los momentos inmediatamente posteriores al big bang) cuando se estuviese terminando de evaporar llegaría a un tamaño en el que “probaría” tamaños muy pequeños, y por tanto energías muy grandes (recordemos, por causa de la relación de incertidumbre de Heisenberg para probar tamaños pequeños necesitamos energías muy grandes). Por tanto, una vez más, ahí podría jugar su papel la Gren.

Bien, una vez que se me ocurrió la idea me puse a buscar si alguien la había considerado ya, y sí, algo he encontrado. Está, por ejemplo, éste artículo On the running of the gravitational constant. Es del 2011 y analiza trabajos previos sobre el asunto. Afirma que no se puede dar una definición universalmente válida para esa “running G”. Ahora bien, sí uno mira los cálculos observa que están hechos con la gravedad cuántica mas sencilla, la cuantización directa de la gravedad de Einstein, que sabemos que no es renormalizable. Todos los demás artículos que he visto sobre el tema también hacen algo similar. Eso, por supuesto, es muy chocante. ‘t Hoof demostró que si bien la gravedad pura (sin términos de materia) es renormalizable a 1 loop no lo es si se introducen términos de materia (y desde luego no lo es a 2-loops, incluso sin materia). Eso hace que, salvo que se usaran para calcular la “running G” diagramas de interacción entre dos gravitones no se podría hacer nada en el sentido habitual. Y, de hecho, por lo que he visto, los cálculos usan interacción de materia con la gravedad. No he seguido los detalles, pero si está claro que no pueden seguir los pasos habituales. De hecho en ese artículo ya aclaran que es precisamente por no ser renormalizable la teoría por lo que no hay una definición universalmente válida de esa “running G”.

El caso, y esto es lo que me sorprende, si uno va a teorías de supergravedad, que son teorías de campo ordinarias. Se tiene cree que en general la teoría no es renormalizable. En los 70-80 se encontraron argumentos que así lo afirmaban, aunque en la década pasada se han revisado esos argumentos y, al menos por un tiempo, hubo esperanza de que tal vez, las mas supersimétricas, de ellas, si fuesen teorías renormalizables después de todo. ahora ya no está tan claro, y, en cualquier caso, aunque fuesen renormalizables se sabe que no podrían incorporar el modelo standard mediante mecanismo de Kaluza-Klein. En todo caso estas teorías de supergravedad, incluso con una carga supersimétrica, sí son rernormalizables a 1-loop, y creo que a mas loops, incluso interactuando con materia. Siendo así me pregunto porque no se usan esas teoris de supergravedad para calcular esa “running G”. Y, desde luego, la teoría de cuerdas da una teoría cuántica de la gravedad renormalizable ¿Por qué no usan la integral de Polyakov y demás para obtener esa “running G? Estoy revisando material, a ver si encuentro respuestas.

En cualquier caso hay muchos indicios de que una teoría perturbativa no va a incorporar todos los aspectos de la gravedad cuántica. En el cálculo de la entropía de un agujero negro en teoría de cuerdas se usaron objetos no perturbativos de esta teoría, las black branas (objetos de la supergravedad que generalizan a los agujeros negros, que son obtenibles cómo límite de las supercuerdas) formadas por apilamiento de D-branas. Más adelante se vió que, en realidad, la clave está en el cómputo de la entropía de una teoría conforme que describe la proximidad del horizonte y que no son necesarios todos esos detalles finos de la teoría de cuerdas. No obstante hasta que esos grados nuevos de libertad se vuelvan importantes yo creo que la “running G” sería válida. Estoy mirando material para precisar los límites esos, ya veré que saco.

Pese a todas estas consideraciones uno podría pensar que, después de todo, el resultado obtenido en una teoría completa de la gravedad cuántica no debería diferir mucho de lo que se obtiene por los métodos imperfectos que usa esta gente. Y como quiera que en ese artículo dan un resultado concreto (que coincide con el obtenido en otros artículos) uno podría usar, a modo de estimación, esa expresión y ver cómo afecta eso a la creación de agujeros negros en colisiones de partículas, y, por otro lado a la desintegración de agujeros negros “grandes”. Estoy ahora mismo terminando los cálculos, y pondré una entrada cuando los termine y tenga tiempo. Por supuesto que nadie se tome esto terriblemente en serio. Son cálculos relativamente sencillos, y es divertido. Anticipo ya que, con menos detalle, otra gente ha hecho algo similar y, según ellos, y cómo yo sospechaba por estimaciones groseras, con esa G renormalizada los agujeros negros empiezan a formarse con menos energía. En particular en un artículo afirman que podría ser que, incluso con 4 dimensiones (sin necesidad a recurrir a dimensiones extra mesoscópicas cómo en los modelos de braneworlds inspirados en teoría de cuerdas) a la escala de unos pocos TeV podrían formarse agujeros negros. Y, sospecho, por estimaciones groseras que he hecho, que la radiación Hawking se debilita conforme el agujero se empequeñece haciendo que estos agujeros sean mas estables de lo que se pensaba. Pero vamos, insisto, todo esto está traído por los pelos y es especulación sin una base demasiado sólida, así que recomiendo al lector que trate esta entrada, y la que debería venir después cómo algo pedagógico sobre aspectos ya conocidos en la que, además, se presenta algo ligeramente nuevo, cómo una especulación poco sería, aunque, eso espero, entretenida de considerar.

Sobre la naturaleza de la masa

febrero 3, 2014

Sin duda el que mejor nos podría aclarar este tema es el físico Bruce Banner, más conocido por su alterego Hulk, la masa en castellano, pero cómo no está localizable en estos momentos tendré que hacer mis propia exposición del asunto ;).

Tal vez, dado que el año pasado se concedió el nobel a Higgs por su trabajo teórico, corroborado por el descubrimiento del famoso bosón este año pueda parecer, según se comenta en la divulgación, que el tema está resuelto: el higgs es lo que da masa a las partículas. Pero, la verdad es que el asunto es mucho mas sutil. Voy a explicar primero porqué el mecanismo de Higgs no nos dice gran cosa, a nivel fundamental, sobre la naturaleza de la masa.

En teoría cuántica de campos la masa aparece cómo una constante en las ecuaciones o en los lagrangianos. Por ejemplo, en el caso de una partícula escalar, regida por la ecuación de Klein-Gordon, es una constante que multiplica al término cuadrático en el campo.

\frac{1}{c^2}\frac{\partial^2}{\partial t^2}\Phi - \nabla^2\Phi+ \frac{mc^2}{\hbar}\phi = 0

Algo similar ocurre en la ecuación de Dirac.

\left( i \hbar c\sum_{\nu=0}^3 \gamma^{\mu} \frac{\partial}{\partial x^{\mu}} \Psi + i m c^2 \right) \Psi = 0

Aquí he escrito las ecuaciones manteniendo todas las unidades y evitando el uso de las unidades naturales (h=c=G=1) para que se entienda mejor porque hablamos de un término de masa. En ambas ecuaciones tenemos un primer término “cinético”, que contiene las derivadas de la función de onda. El siguiente término contiene unas constantes que multiplica a la función. Escribiendo las ecuaciones es difícil ver porque surgen esas constantes concretas y habría que atender a la derivación de las ecuaciones. Es más fácil verlo desde el lagrangaino.

El Lagrangiano de K-G es:

dónde \mu=\frac{mc}{h}

Y el de Dirac:

Aquí los términos de masa aparecen multiplicando a los términos cuadráticos en las correspondientes funciones de onda. El motivo de que se interpreten como términos de masa proviene del análisis diménsional en cuyos detalles no voy a entrar, aunque no son muy complejos. La idea es que el lagrangiano debe ser adimensional y que las funciones de onda de los campos tienen unas dimensiones naturales. Los términos que multiplican a las funciones deben tener una dimensión tal que cada término sea adimensional. Y, en el caso de los términos cuadráticos eso significa que lo que los multiplica debe tener dimensión de masa (o más bien energía, nótese el factor c^2).

Bien, eso significa que podemos poner un valor arbitrario a m, y tener partículas bosónicas escalares (ecuación de Klein-Gordón) y fermiónicas (ecuación de Dirac) con un valor arbitrario de su masa. Y, desde luego, no necesitamos para nada el bosón de Higgs. Esas ecuaciones describen partículas libres, pero si acoplamos las mismas a el campo electromagnético, lo que vendría a ser la electrodinámica cuántica (QED, por sus siglas en inglés) nos valdrían los mismos términos y seguiríamos teniendo que la masa no es nada más que una constante que aparece multiplicando a un término del lagrangiano y, una vez más, no es necesario el bosón de Higgs. Cierto es que la QED no describe nuestro universo porque en ella no se incluyen las fuerzas nucleares fuertes y débiles (y mucho menos la gravedad), pero es una teoría cuántica de campos perfectamente válida.

El problema viene cuando uno quiere incluir bosones vectoriales masivos. El electromagnetismo viene descrito por los campos eléctrico y magnético. Estos pueden derivarse respectivamente de un potencial escalar y un potencial vectorial. En relatividad general estos se combinan en un cuadripotencial que es el que aparecería en el lagrangiano. Ese campo electromagnético describe fotones, bosones vectoriales, que son partículas sin masa. Y esa es la clave, la ausencia de masa. Si queremos introducir bosones vectoriales con masa podemos hacerlo de manera similar a lo que se hace con la ecuaciónde Klein Gordon y la de Dirac y llegaríamos a la ecuación de Proca y su correspondiente Lagrangiano:

El problema de esta ecuación es que si se intenta introducir una interacción entre los campos vectoriales masivos que describe esa ecuación y un campo de Klein-gordon, o uno de Dirac, siguiendo el mismo procedimiento que se hace en QED se llega a que la teoría obtenida no es renormalizable, y por tanto inválida ya que no es predictiva.

Bien, ahí es cuando ya sí aparece el mecanismo de Higgs. No he explicado, ni en esta entrada ni en ninguna anterior, cómo surgen en general los bosones vectoriales de una forma general, dentro de lo que se conoce cómo teorías de Yang mills. Quien quiera leer detalles que consulte en la wiki sobre yang mills theory La idea general es que cuando uno tiene un lagrangiano que es invariante bajo una simetría global (la misma transformación de simetría en todos los puntos del espacio-tiempo) y la hace local (el mismo tipo de simetría, pero actuando localmente en cada punto del espacio-tiempo) uno debe introducir, para que el lagrangiano siga siendo invariante bajo la simetría local, unos campos que compensan ese cambio. Esos campos van a ser los bosones vectoriales. Cuando la simetría es el grupo de Lie U(1) se obtiene que el campo asociado es el electromagnetismo. Cuando es SU(3) se obtiene que la teoría es la QCD (Quantum cromodynamics, la teoría cuántica de las interacciones nucleares fuertes). La interacción nuclear débil está asociada al grupo SU(2), combinado con el grupo U(1), pero ahí ya inerviene de manera fundamental el mecanismo de Higgs. En las teorías de Yang-Mills todos los bosones vectoriales que aparecen son de masa nula. Eso no es problema para el electromagnetismo com oya hemos dicho. pero las interacciones nucleares son de muy corto alcance y, por consiguiente, uno espera que las partículas mediadoras de esa interacción, los bosones vectoriales, tengan mucha masa, y, cómo hemos dicho, la teoría deYang-Mills, que por lo demás es muy elegante, no nos sirve de nada. La teoría de Proca, con términos de masa directos para los bosones tampoco.

Bien, el mecanismo de Higgs, en cuyos detalles no entraré aquí (ver mecanismo de higgs en la wiki) lo que hace es que partiendo de una teoría de Yang-Mills con bosones sin masa acoplados a una teoría de Klein-Gordon que describe un bosón (el bosón de Higgs), con masa y un término potencial elegido de manera apropiada, nos lleva a que cuando se produce un fenómenoo conocido como ruptura espontánea de simetría. La idea es que el grupo de simetría inicial se ve reducido cuando el bosón de Higgs toma un nuevo valor de vacío correspondiente a un valor de mínimo (se supone que inicialmente estaba en un valor de máximo inestable). Cuando uno reescribe el lagrangiano desarrollado alrededor del nuevo vacío del bosón de Higgs resulta que los campos vectoriales han obtenido un término de masa, relacionado con el potencial del bosón de Higgs, y que la teoría resultante si es renormalizable. Digamos que, si quiere verse así, la masa de los bosones vectoriales se obtiene a partir de la energía potencial del bosón de Higgs. Realmente los detalles son algo mas complejos, pero,, más o menos, esa es una parte esencial de la idea.

Eso está bien, un término de masa está originado en un término de energía potencial. Y, desde luego, nos da una teoría renormalizable que en la práctica nos permite obtener el modelo standard SU(3)xSU(2)xU(1), pero el caso es que el bosónde Higgs sigue teniendo su término de masa, de cuyo origen nada sabemos, y tampoco sabemos porque el potencial de Higgs tiene esa forma (no tenemos ninguna teoría fundamental que nos sugiera de dónde sale esa forma para el potencial, al menos hasta dónde yo sé). Por cierto, he mencionado que el Higgs da masa a los bosones vectoriales. Si uno hace los detalles de la teoría electrodébil se ve que también da términos de masa paara los fermiones. Sin embargo no toda la masa de los fermiones del modelo standard surge del mecanimso de Higgs. Hay mas mecanismos implicados en cuyos detalles no voy a entrar.

En definitiva, el mecanismo de Higgs es algo útil, pero, en mi opinión no da una idea fundamental de qué es la masa. En entradas sucesivas intentaré reflexionar más sobre el asunto, aportando algunas ideas propias al respecto que si bien no creo que vayan a ser de gran trascendencia creo que pueden resultar entretenidas y tal vez ayuden a reflexionar sobre el particular.