Ingredientes de una “cronomecánica cuántica”

marzo 13, 2014

Una amiga, a raíz de ver la película “El efecto mariposa” me preguntó como podía interpretarse la película en términos de la mecánica cuántica. La pregunta es interesante porque, al fín y a la postre, uno de los alicientes de las películas de ciencia ficción es intentar especular sobre la parte científica que normalmente sólo se suele esbozar, y generalmente de mala manera. Aparte de la película había mas alicientes para pensar en el tema del tiempo en física dónde tenemos cosas como soluciones de la relatividad general que implican trayectorias que llevan hacia atrás en el tiempo (son sus consecuentes paradojas), taquiones, que, de existir, podrían enviar señales al pasado (ver Taquiones y viajes en el tiempo, o la ecuación de Wheler-de Whitt, que resulta de poner la relatividad general en un formalismo canónico en la cuál, en cierto modo, no existe el tiempo. De hecho en un momento dado un grupo de inversores amigos de la especulación en física con tintes filosóficos, la FQXI, dedicó uno de sus premios anuales a la cuestión de la física del tiempo, sin gran éxito ya que en mi opinión ninguno de los artículos enviados era particularmente bueno. De hecho, espero, esta entrada debería ser mas interesante que cualquiera de esos artículos ;). Y eso que ni siquiera pretendo que sea del todo seria xD.

images

Bien, en la película tenemos un chaval, estudiante de psicología, que a raíz de unos experimentos con bichos adquiere una habilidad para conseguir que cada vez que hay un aspecto trágico en su vida desencadenado de manera muy clara por un acontecimiento concreto es capaz de enlazar con una realidad en la que el acontecimiento sucedió de manera diferente y vivir las consecuencias de esa versión alternativa. Supongo que los autores de la película pueden haberse inspirado en la interpretación de Everett de la mecánica cuántica en la que cada vez que se produce una medida cuántica hay una división de la realidad de tal forma que se forma un universo diferente para cada una de los posibles resultados de la medida. Claramente eso lleva a intentar enfocar el tema del tiempo desde una perspectiva cuántica, y eso es lo que hice. Desde entonces, a ratos libres, he ido perfilando un poco más el asunto, entre otras cosas porque, de tanto en tanto, alguien me lo recuerda. He intentado escribir algo sobre el tema en el pasado, pero siempre que me había planteado escribir me ponía a reanalizar el asunto y siempre se me ocurrían cosas nuevas que considerar y terminaba por no escribir nada. Ahora, ya por fín, me decido a dejar algunos detalles de cómo he ido enfocando el tema.

El punto de partida es a la vez sencillo y delicado. Recordemos la base de la mecánica cuántica no relativista elemental. Si alguien no sabe nada de cuántica puede probar a leerse mi post de introducción a la misma Introducción a la mecánica cuántica Tenemos una función de onda \phi( x,y,z,t) cuyo valor al cuadrado nos da la probabilidad de encontrar la partícula que representa esa función en el punto (x,y,z) en el instante t. Aquí t es el tiempo “newtoniano” que existe de manera universal y es igual en cualquier punto del universo. Por supuesto algo así no existe ya que la física Newtoniana debe ser sustituida por la de la relatividad general, en la cuál el tiempo forma parte de un cuadrivector. Pero por ahora ignoremos esa parte relativista. El planteamiento que hago es muy ingenuo, reinterpreto esa función de onda cómo la probabilidad de encontrar la función de onda en el punto (x,y,z) y, esta es la novedad, en el instante t. Por supuesto tras esta propuesta ingenua a nivel de lenguaje se esconde una gran dosis de sutileza ¿Cómo es eso de no poder saber en que instante se encuentra la partícula? Al fín y al cabo si estoy en un laboratorio tengo un reloj, y puedo saber en que momento he detectado la partícula. Vale, tenemos el principio de incertidumbre de Heisenberg tiempo-Energía que afirma (mas adelante entraré en las sutilezas de esta relación) que no podemos saber con total precisión a la vez el tiempo y la energía. Pero, al fin y al cabo, si tenemos suficiente energía, podemos medir con precisión arbitraria el momento de la medida.

Definitivamente en el universo newtoniano la propuesta no tiene mucho sentido, y es necesario ya meter conceptos de relatividad dónde tenemos las transformaciones de Lorentz (relatividad especial) y, mas generalmente, el efecto de la masa cómo ralentizadora del paso del tiempo (el tiempo transcurre mas lento cerca de un cuerpo pesado que en el espacio libre). En estas circunstancias no hay tiempo universal y debemos hablar de el tiempo propio relativista (asumo que todo el mundo conoce la paradoja de los gememolos y demás cosas típicas de la relatividad así que no daré explicaciones al respecto). \tau=\frac{t}{\sqrt(1-v^2/c^2)} en relatividad especial, o, mas generalmente \tau=g_{00}\dot (x^0) + \frac{g_{0i}}{\sqrt(g{00})} en relatividad general.

Bien, entonces, con el concepto de tiempo propio, ya tenemos un ingrediente para una forma posible (hay más) de interpretar eso de “probabilidad de hallar la partícula en el tiempo t”. La otra cosa que necesitamos es el concepto de reloj cuántico. Realmente es un concepto sencillo pero encontrar una forma rigurosa de exponerlo es ligeramente mas complejo. La idea es tener un dispositivo que tenga una parte con un comportamiento periódico y otra que permita construir a partir de ese comportamiento un número que represente el tiempo transcurrido desde que el dispositivo empezó a funcionar. Y, se supone, que ese chisme debe ser lo bastante pequeño para que los efectos cuánticos sean apreciables claro, que sino cualquier reloj convencional valdría. Siendo un sistema cuántico compuesto de varias partículas lo vamos a poder representar por una función de onda conjunta \phi(\vec(r_1), \vec(r_2), ..., \vec(r_n), t) Bien, aquí se supone que todas las partículas del reloj están en el mismo tiempo. Esto lo interpretamos cómo que no tenemos ningún dispositivo más pequeño que el propio reloj que nos permita medir el tiempo de manera separada para cada una de las partículas. Asumimos, además, que las partículas del reloj se mantienen siempre confinadas en un volumen concreto (el tamaño del reloj) y que dentro de ese volumen el campo gravitatorio es aproximadamente constante. En esas condiciones el reloj lo que hace es medir su propio tiempo propio, y ese t sería el \tau .

Con el tiempo propio, y el reloj cuántico para poder medirlo, ya podemos dar sentido a eso de “probabilidad de hallar la partícula (sistema cuántico) en el tiempo t). Imaginemos que hacemos un experimento de doble rendija con nuestro reloj cuántico, pero con una pequeña variante. Por una rendija el reloj viaja por un espacio-tiempo plano, por la otra pasa cerca de un miniagujero negro (o cualquier otra cosa lo bastante densa para introducir un retraso temporal que puede discernir el reloj cuántico). Obviamente si pasa por el espacio-tiempo plano el tiempo propio que le lleva al reloj llegar desde el punto de partida al final va a ser mayor que si pasa por la rendija cercana al microagujero negro. Pero, claro, cómo en cualquier experimento de doble rendija no sabemos por dónde pasó exactamente el reloj cuántico y lo que tenemos es que en el resultado final vamos a encontrar que una vez medimos un valor t1 y otra un valor t2 (en realidad, si tenemos un microagujero negro, podríamos tener muchos valores posibles si al pasar por la rendija del agujero negro el reloj pudiera pasar por diferentes distancias al mismo). Visto así, no podemos medir el tiempo propio y el tiempo no está determinado. Esta idea es un poco discutible ya que podría argumentarse que hay una cierta redundancia. Al fin y al cabo lo que tenemos es que la función de onda conjunta estaría en un estado de superposición entre dos de autovalores posibles que consideramos cómo “marca temporal”. En realidad, como veremos, el “tiempo” normalmente va a ser una información menos detallada que un autoestado así que tal vez se podría obviar ese posible criticismo. Aunque esta exposición de el concepto de reloj cuántico la he elaborado yo en su totalidad soy consciente de que hay mas gente que ha trabajado en esta idea y que incluso se ha hecho alguna implementación experimental de la idea. Recuerdo que Sabine Hossénfander mencionó en su blog ese experimento , pero no he dado con el link al post en concreto.

Para poner un ejemplo concreto podríamos considerar que nuestro reloj cuántico fuese un conjunto pequeño de átomos con algunos electrones excitados en algún estado metaestable. Con el paso del tiempo estos electrones irían decayendo al estado fundamental (el periodo de decaimiento al estado fundamental sería el ingrediente “periódico” del reloj) y podríamos usar el número de electrones medidos en el estado fundamental cómo “el tiempo transcurrido”. Aquí hay varios autoestados compatibles con un número concreto de electrones en el estado fundamental (porque no nos importa en que núcleo concreto se ha producido la caída al estado excitado). Es interesante el hecho de que aquí el tiempo es discreto, mientras que en física siempre es una variable continua. En teoría siempre podemos hacer un “reloj cuántico” mas preciso (al menos hasta llegar al tiempo de Planck, y según mucha gente incluso más allá) pero, en la práctica, podríamos argumentar que para estudiar nuestro sistema no podemos contar con mas información temporal que la que nos da el reloj cuántico mas preciso que tenemos.

La cosa se vuelve mas divertida cuando usamos estos relojes cuánticos en este tipo de casos para tomar medidas temporales de otros acontecimientos. Tomemos el caso de dos naves espaciales. Una viaja de A a B por una zona plana y otra cerca de un agujero negro. Esas naves usan relojes atómicos para medir el tiempo. Cómo esos relojes no tienen bien definido el tiempo cualquier evento lleva automáticamente indefinido el tiempo y así las funciones de onda que representen procesos cuánticos en esas naves no tendrían el tiempo bien definido. Dejo al lector que rellene los detalles de experimentos concretos que ilustren de forma rigurosa esta idea, que no voy a hacerlo todo yo :P.

Vale, asumamos que lo explicado anteriormente se sostiene (es un tema abierto a discusión, claro). En ese caso vamos a proceder a hacer un formalismo naive para añadir eso y crear nuestra “cronomecánica cuántica”. Recordemos que en mecánica cuántica tenemos dos operadores fundamentales, el operador momento \hat p \phi=-\frac{i\hbar\partial_x }{2m} \phi y el operador posición \hat x\phi=x.\phi . La justificación del operador x, básicamente, es la de obtener el valor mas probable de la posición, y eso en una variable estadística, es la media (osea, multiplicar por x y sumar/integrar x multiplicado por la distribución estadística, osea, la función de onda. Otra gente interpreta ese operador cómo trasladar en una distancia x la función de onda, pero, la verdad, yo prefiero la interpretación probabilística. Cómo quiera que se vea eso permite que, inmediatamente, el operador “posición temporal” sea multiplicar la función por t, i.e. \hat t \phi= t.\phi .

El operador análogo al operador momento es mas delicado. El operador momento se interpreta cómo el generador infinitesimal de las traslaciones (ver, por ejemplo Operadores de la mecánica cuántica. Entonces, podríamos decir que el operador “Cronos” \hat c= -\frac{i\hbar}{2m}\partial_t genera las traslaciones en el tiempo. Si admitimos eso podríamos hallar las relaciones de conmutación entre los dos operadores y comprobar que son las mismas que entre los operadores x y p i.e. [\hat x, \hat p]= \hat x \hat p - \hat p \hat x= i\hbar es decir [\hat t, \hat c]= i\hbar . Hasta aquí todo parece sencillo y sin sutilezas. El problema surge cuando uno se da cuenta que ya hay un operador casi idéntico a lo que yo he llamado operador Cronos, el “operador energía” que es igual en todo excepto en el factor de 2m dividiendo. Este “operador energía” aparece en la ecuación de Schröedinger dependiente del tiempo \hat H \phi = -i \hbar \partial_t \phi y en la ecuación de Klein-Gordon, dónde es mas evidente que juega el papel de la energía ya que ahí se coge la relación clásica entre el trimomento y la energía: E^2= p^2 + m^2 c^4 y se sustituye la E por el “operador energía” para obtener la ecuación de Klein-Gordon (para mas detalles ver en la wiki la Ecuación de Klein-Gordon.

Esto del “operador energía”, cómo digo, es algo curioso. Al fin y al cabo en mecánica cuántica la energía es el hamiltoniano. Además, resolviendo la ecuación de Schröedinger dependiente del tiempo se puede ver que el hamiltoniano es lo que genera la evolución temporal del sistema cuántico, en analogía al operador momento que general la traslación espacial. Resulta curioso también que el “operador energía” no incluya la masa. Mi “operador cronos” si incluye esa masa, y, formalmente, uno podría pensar que también debería generar las traslaciones en el tiempo. Sobre la presencia o no de la masa se puede argumentar que en un sistema general la masa si influye y no evolucionan en el tiempo de la misma manera dos partículas de distinta masa (eso sólo pasa en el campo gravitatorio, pero no en, por ejemplo, un campo magnético) por lo cuál sería mejor “operador energía” mi operador cronos que el normal. Por otro lado, si se hace eso, no se obtiene la ecuación de K-G.

Que el operador cronos se pudiera interpretar como una energía sería interesante porque aquí la incertidumbre tiempo-energía tendría la misma interpretación que en el caso de la posición y el momento. Normalmente la relación de incertidumbre tiempo-energía, se interpreta cómo que en una transición entre dos estados separados por una energía E si queremos medir esa energía con una precisión dada necesitamos al menos un tiempo de observación que cumpla esa relación de incertidumbre. Eso también lleva al concepto de partícula virtual en la que si no “miramos” durante un tiempo t se puede formar una partícula con energía E compatible mediante la relación de incertidumbre con el tiempo que estamos sin “mirar”.

Cómo, por supuesto, esta teoría no pretende ser totalmente seria no he examinado a fondo estos aspectos, tampoco he mirado otras temas de compatibilidad ¿conmutan estos operadores que he introducido con el hamiltoniano para poder ser observables?

En todo caso, asumiendo que hay una relación entre mi operador C y la energía podemos ir un poco más allá. El operador C tiene, en general, espectro continuo con valores negativos y positivos, como el operador t. Eso vendría a interpretarse cómo que tenemos partículas yendo hacia delante y hacia atrás en el tiempo, y tendríamos una visión de las antipartículas cómo los autoestados negativos del operador C. Una vez más no he analizado a fondo el asunto, y dejo en manos de alguien potencialmente interesado que lo haga si le apetece divertirse con un tema desenfadado cómo es este.

Vale, una vez expuesto el “formalismo” de la cronomecánica cuántica vamos a aplicarlo a jugar un poco más con él. Cuando tenemos algún caso de paradojas temporales, es decir, que viajamos por una curva de tiempo cerrada y partiendo de un tiempo t1 llegamos a un tiempo t2 dónde t2th a otro t1<th. Aquí ya tenemos un problema posible al intentar hacer superposiciones cuánticas ya que las partículas antes y después del th no son iguales. Por ejemplo, un bosón vectorial Z tiene masa después de th y es de masa 0 antes de th. Sí hacemos volver una partícula Z en el tiempo a través de una de esas curvas de tiempo cerrado tendríamos que considerar un estado de superposición entre una partícula sin masa y otra con masa, y con distintos grados de liberad además. En realidad en cuántica de campos el observable es el campo y podríamos decir que en t<th crea partículas sin masa y despúes partículas con masa. En cualquier caso eso de hacer superposiciones de estados que pertenecen a vacíos distintos es algo que se supone que está prohibido en cuántica por las reglas de superselección y no debería poder hacerse. Entonces, si conectamos estados temporales dónde el vacío cuántico ha cambiado nuestro formalismo de superposición cuántica de estados ya no valdría y deberíamos buscar algo más sofisticado.

descarga

Otro tema mas divertido aún en esto de las paradojas temporales y la definición del tiempo es jugar con cuerdas. Imaginemos que la teoría de cuerdas es correcta y que cogemos una cuerda elemental y la hacemos crecer hasta un cierto tamaño macroscópico (esto es algo que Witten argumentó que podría haber ocurrido en el periodo inflaccionario y tener cuerdas cósmicas que fuesen cuerdas elementales agrandadas en vez de las asociadas a rupturas de la simetría, que son el otro tipo de cuerdas cósmicas posibles). Se supone que una cuerda tiene un tiempo bien definido. Ahora bien, si extendemos una cuerda macroscópica en una curva de tiempo cerrada sus diversos puntos estarían, en general, en tiempos diferentes, y, si la hacemos girar, estaría mandando hacia atrás en el tiempo a una parte de si misma. Por supuesto esto es un ejemplo muy tramposo porque el propio campo gravitatorio de esta cuerda cósmica fundamental seguramente sería lo bastante intenso para romper la geometría que permite la existencia de esas curvas de tiempo cerradas. En realidad existe algo llamado el principio de protección cronológica, introducido por Hawking, que argumenta (pero no demuestra) que siempre va a haber efectos cuánticos que arruinan la geometría clásica con curvas de tiempo cerradas. En su libro de agujeros de gusano Matt Visser hace un cálculo de teoría cuántica de campos que demuestra (al menos en buena parte) que esos efectos cuánticos destruyen el agujero de gusano cuando este intenta usarse cómo máquina del tiempo.

Otras cosa que, por ejemplo, se podría considerar con este formalismo que he introducido es ¿que pasa con el operador de ordenación temporal en teoría cuántica de campos? Y bastantes otras cosas (he considerado unos cuantos aspectos más, pero me llevaría demasiado espacio discutirlos). En cualquier caso, la verdad, no creo que el tema merezca meterse en tantas profundidades. Considero este "formalismo" cómo una guía práctica para tratar con algo de sentido, y un criterio concreto, las paradojas temporales que le gusta analizar a la gente de CF y poco más. Pero si alguien quiere profundizar en el tema y exprimir más el formalismo libre es ;).

Teorías de Kaluza-Klein

marzo 2, 2014

Voy a exponer cómo la teoría clásica del electromagnetismo, y otras teoría gauge, puede surgir de las dimensiones adicionales. Es lo que se conoce como el modelo de Kaluza, publicado allá por el 1919, con la RG recién salidita del horno.
Antes de ello hablar un poco del electromagnetismo en si mismo. La idea es sencilla, existen en la naturaleza unos campos E y B (eléctrico y magnético respectivamente) que afectan a unos cuerpos que tiene la característica de estar cargados eléctricamente.

El campo eléctrico y magnético se describen por las ecuaciones de Maxwell

\vec{ \nabla } \cdot \vec{E} = \rho \\
\vec{ \nabla } \times \vec{E} = - \frac{\partial \vec{B}}{\partial t} \\
\vec{ \nabla } \cdot \vec{B} = 0 \\ .
\vec{ \nabla } \times \vec{B} = \vec{j} + \frac{\partial \vec{E}}{\partial t}

Dónde \rho es la densidad de carga y j la densidad de corriente (la corriente está asociada a que la carga se desplaza).
Bien, estas ecuaciones implican a los campos. Pero esos campos pueden derivarse de unos potenciales. La idea sencilla es que la variación de esos campos en el espacio de un punto a otro es lo que genera que haya una fuerza. Esa variación de un punto a oro se traduce en la derivada, claro. Así pues podemos expresar B y E en términos, respectivamente, de un potencial (tri)vector A y un potencial escalar V. Con estos podemos formar un cuadripotencial vector A4=(-V,A3).
La expresión exacta de los E y B en términos de los A y V es:

\bf{B}=\nabla \times \bf{A}

\bf{E}=\frac{\partial{\bf{A}}}{\partial t}-\nabla V

Lo interesante es que esas ecuaciones que definen E y B en términos de A y V no cambian si modificamos :

\bf{A}+\nabla G

V-\frac{\partial G}{\partial t}

Dónde aquí G es una función arbitraria de x,y,z, t. Pués bien, es esta indeterminación de los capos en términos de los potenciales lo que se conoce cómo invariancia gauge. En el caso del electromagnetismo surgió de manera ad hoc. Venia incorporada al introducir el concepto de potenciales. En otro post veremos cómo se puede relacionar esa invariancia con una invariancia bajo fases locales de una función de onda cuántica.

Lo primero es introducir el concepto de compactificar una dimensión. El primero en hacer esto fué Oscar Klein (no confundir con el célebre matemático Felix Klein). Si tenemos un campo escalar $ \Phi (x,y) $ dónde x representa el espaciotiempo normal e y una dimensión adicional de tipo espacial requerimos:

\Phi (x,y)= \Phi(x,y + 2\pi)

De esto se sigue que podemos expandir \Phi en serie de Fourier

\Phi(x,y)= \sum_{n=-\infty }^{n= \infty } \Phi_n(x)e^{iny/r}

A consecuencia de la teoría cuántica, en un estado con un n dado la componente y del momento debe ser O(|n|\hbar/r) . Así para un radio lo suficientemente pequeño, r, sólo el estado n=0 aparecerá en el mundo de la física de “bajas energías” (i.e. E\ll\hbar c/r ).

En su versión moderna las teorías de Kaluza-Klein se materializan en las dimensiones extra de las teorías de cuerdas. En las primeras versiones, previas a la “segunda string revolution”, se consideraba que el radio de compactificación debía de ser del orden de la longitud de Planck, es decir:

r \approx l_P \equiv (\hbar G_N / c^3 )^{1/2} \approx 1.6 \times 10^{-35} m

De ese modo la masa de los estados excitados ( n \not= 0) serían del orden de la masa de Planck M_P \approx 10^{19} GeV/c^2 , lo cuál sería imposible de obtener con los colisionadores actuales, o los fabricables en un futuro cercano. En la segunda “string revolution” se introdujeron objetos cómo las D-branas, se comprobaron dualidades entre diversas teorias de cuerdas, surgió la teoría M, etc. Algunos de esas ideas llevaron a que la gente considerase la posiblidad de que alguna, o algunas, de las dimensiones extra del espacio-tiempo pudiera tener una dimensión mesoscópica (a medio camino entre lo macroscópico, digamos algo submilimétrico, y la longitud de Planck). En ese caso, entre otras cosas, los modos de Kaluza-Kklein de algunas partículas (los modos con $late n \not= 0 $, podrían tener masas similares a las alcanzables en el LHC. Hasta ahora no se ha observado ningún signo de esos modos en las colisiones efectuadas a 8 TeV, así que hay límites severos para el tamaño de esas dimensiones mesoscópicas.

El modelo de Kaluza parte de considerar un espacio de 4 dimensiones espaciales y una temporal y compactificar en un círculo una de las espaciales. Denoto con M, N índices en 5 dimensiones y con \nu \mu en 4.

Tenemos por tanto una métrica en 5 dimensiones g_{MN} que vista desde 4 dimensiones se descompone del siguiente modo:

1. g_{\nu\mu} La métrica habitual en 4 dimensiones.

2.g_{\nu4}=g_{4\nu} Un campo vectorial en 4 d.

3.g_{44} Un campo escalar en 4 d.

Denotamos x4 cómo y. Kaluza impuso la siguiente condición:

4.\frac{\partial g_{MN}}{\partial y}=0

¿Por qué? Bien, esto simplemente implica que los campos no dependen de la coordenada y. Por supuesto la coordenada y esta compactificada a un círculo, es decir se identifican los puntos y e y +2.pi.r .

Cómo puede sospecharse fácilmente adónde queremos llegar es a que se puede identificar el campo vectorial de la ecuación 1 con el cuadripotencial del campo electromagnético A_\nu .

Para que la idea funciones se expande la métrica en términos de una serie de Fourier en la coordenada y:

5.g_{MN}(x,y)=\sum_n g_{MN}^n(x) .e^{iny/r}

Ahora lo que se hace es una parametrización de la métrica, digamos una descomposición en la que queda:

6. g_{44}=k. \Phi
7.g_{4\nu}=k.\Phi.A_\nu (y el antisimétrico)
8. g_{MN}=k.g_{\nu\mu} + \Phi.A_\nu

y dónde k=\Phi^{-1/3}

Escrito en forma matricial esto es

g_{MN}^{(0)} = \phi^{-1/3} \left( \begin{array}{cc}  g_{\nu\mu} + \phi.A_\nu & \phi A_{\nu}  \\  \phi A_{\nu} &  \phi   \end{array} \right)

Bien, esta es la métrica, pero la métrica es sólo parte de la historia. Lo que nos da la dinámica es la acción. Partimos de la acción para la ecuación de Einstein en 5 d que básicamente, y salvo factorcillos, es la integral de el escalar de Ricci asociado a esa métrica.

Lo interesante es que en las ecuaciones 6,7, 8 hemos descompuesto la métrica 5 d en términos de cantidades 4d.Si calculamos el escalar de Ricci manteniendo explícitamente la presencia de esos campos 4 d obtenemos que la acción queda de la forma:

S=-(2\pi.r)\int d^4xe/2G^2_5\left[ R + 1/4   \phi F_{\nu\mu}F^{\nu\mu} + 1/6\phi^2\partial^\nu\phi\partial_\nu\phi \right]

Dónde F_{\nu\mu} es cómo podría esperarse el tensor campo electromagnético asociado al cuadrivector A_\nu Y G es la constante gravitatoria en 5 dimensiones.

Así pues la invariancia bajo GCT (general coordinates transformations) de la gravedad en 5 dimensiones se traduce en que cuando una coordenada se compactifica en la aparición de un campo que cumples las mismas ecuaciones que el campo electromagnético y que por tanto tiene una invariancia gague local. Es decir, una invariancia interna aparece en este formalismo como una consecuencia de una invariancia externa al compactificar.

No he puesto todos los detalles, que llevaría mucho tiempo, pero espero que con esto se coja bien la idea.

De todos modos esta idea es sólo una pequeña parte del asunto de la compactificación. Nos hemos ocupado solamente de qué pasa cuando la métrica se compactifica, pero ¿qué pasa cuando se copactifica un campo cúantico fermionico sin masa? Más interesante aún ¿qué pasa si se compactifica un campo que ya en 5 dimensiones es un campo gauge?

En fín, muy rico el mecanismo este de la compactificación, sirva este post para coger una mínima idea de las posibilidades y complejidades que conlleva.

Running Schwarschild radio

febrero 12, 2014

El caso mas sencillo de agujero negro es el de Scharschild, que describe un agujero negro sin carga y que no rota sobre si mismo. Su horizonte de sucesos, la superficie desde la cuál no se puede salir (ignoraré aquí cualquier sutileza sobre diversos tipos de horizontes que se pueden definir o la reciente afirmación de Hawking de que el horizonte de sucesos no es bueno para describir agujeros negros en los que los efectos cuánticos son importantes). Esta superficie, para el caso de Schwarschild es esférica, y tiene un radio el radio de Schwarschild que viene dado por R_s= \frac{2GM}{c^2}.

Cuando he hablado de efectos cuánticos al referirme a Hawking me refería, por supuesto, a su famosa teoría en la que usando técnicas de cuantización en espacios curvos mostraba que un agujero negro emite radiación, conocida cómo radiación Hawking. Podéis leer algunos detalles sobre esa radiación (pero no la deducción de la misma) en la entrada inglesa de la wiki Hawking’s radiation. Unas ideas muy elementales sobre cuantización en espacios curvos la tenéis (en español, aunque la mayor parte del blog esté en inglés) en mi otro blog: Ideas básicas sobre cuantización en espacios curvos.

Cómo se puede leer en esas entradas un agujero negro que esté aislado de todo y no se “alimente” como resultado de esa emisión de radiación va perdiendo energía, y por tanto masa, y su radio de Schwarschild se va haciendo mas pequeño, es decir, el agujero negro se va evaporando. Podría pensarse que el título de la entrada haga referencia a este efecto, pero considero que a estas alturas el tema de la desintegración Hawking es algo sobradamente conocido por cualquiera interesado en estos temas así que el propósito de esta entrada es ligeramente diferente. El término “running” seguramente pueda dar una pista a la gente que conozca teoría cuántica de campos con un cierto nivel y, por tanto, haya oído hablar de las “running coupling constants”. He mantenido el término en inglés porque no se me ocurre ninguna traducción realmente buena del término running, quizás lo que más podría acercarse es “deslizante”.

Cuando empecé a escribir la entrada pensaba despachar la explicación del grupo de renormalización, la ecuación de Callan-Symanzsky y la teoría de las “constantes de acoplo deslizantes” con entradas a la wiki española (o a algún blog en español que tratase el tema), pero he visto que la wiki tiene un tratamiento muy pobre, siendo generoso, del asunto y no he visto ningún blog que lo trate. Supongo que la mayor parte de gente que me lea se manejará bien con el inglés (después de todo suelo poner vínculos a sitios en inglés casi siempre) y podrá leer la entrada de la wiki inglesa: renormalizción. En todo caso me sirve para darme cuenta que tal vez debería hacer un esfuerzo y escribir algo sobre renormalización en el futuro. En todo caso ahora daré las ideas mínimas sobre renormalización para que se pueda entender lo que pretendo exponer.

En QFT el objetivo final, normalmente, es calcular amplitudes de transición entre estados asintóticos. Es decir, uno tiene, un grupo inicial de partículas libres con unos momentos dados que interaccionan por un tiempo finito y se convierten, en general, en otras partículas con otros momentos distinto. La idea es calcular las probabilidades de esas transiciones. Los cálculos de esas probabilidades se suelen hacer usando los diagramas de Feynman. Discutí algo sobre ello en la entrada sobre el amplithuedron. Cómo explico ahí los diagramas se organizan en función del número de loops. Los que no tienen loops se denominan “tree level” y normalmente suelen reproducir las secciones eficaces clásicas (las secciones eficaces son unos objetos que sirven para expresar los procesos de colisión y están relacionados con las amplitudes de transición que comentaba antes). A nivel tree los diagramas de Feynman dan resultados finitos. Sin embargo, en cuanto nos vamos a diagramas con loops los resultados se vuelen infinitos y hay que ver si se puede lidiar con esos infinitos de algún modo para obtener respuestas finitas. Sí ello es posible se dice que la teoría es renormalizable.

Para entender un poco mejor el tema usemos el ejemplo de la wiki, el lagrangiano de la QED.

Ese lagrangiano consta de tres partes básicas. Una es el lagrangiano de Dirac que describe un fermión libre standard (no quiral). Otro término L_{em}=\frac{1}{4}F_{\nu \mu}F^{\nu \mu} (lo he escrito omitiendo las B’s) es el que describe el campo electromagnético libre. El otro término, el que, operando para dejarlo por separado, vendría a ser L_{int}=ieA^{\nu}\Phi es el que describe la interacción. La e que aparece multiplicando sería la constante de acoplo que en el caso del electromagnetismo es la constante de estructura fina, que suele escribirse con la letra alpha, pero bueno, mantengo la notación de la wikipedia. Según decía, y como comentan en la wikipedia, los diagramas con uno y mas loops suelen dar resultados divergentes cuando se calculan. Eso se debe a que en el cálculo hay que efectuar integrales indefinidas que resultan no estar acotadas. Hay diversas técnicas de regularización y renormalización (Pauli-Villards, dimensional, función z, etc). Todas ellas tienen una estrategia común. Hay un parámetro, llamémoslo u, y la integral se divide en dos partes, una hasta un valor de inferior a u, y otra desde u hasta infinito (esto es muy transparente en la técnica de Pauli-villars dónde ese u es un momento, denominado momento de corte. En la regularización dimensional se calcula la integral en el plano complejo, cambiando el momento p por p + iu, y luego se hace tender u a 0). Una de las partes de la integral dará un resultado finito, el otro un resultado infinito. La idea de la renormalización es que tenemos que añadir al lagrangiano original unos términos que den un nuevo diagrama de Feynman que anule la parte infinita de el diagrama original. Eso se va a poder hacer siempre, lo malo es que esos nuevos términos, en general, van a tener su propia constante de acoplo. Y luego, por cada nuevo loop, tendremos que añadir mas contratérminos, con mas constantes. En general una teoría con estas características va a ser inútil porque si bien término por término va a tener resultados finitos resulta que cada nuevo término añade una nueva constante que debe ser medida experimentalmente y, por consiguiente, se vuelve no predictiva.

En el caso de las teorías renormalizables los contratérminos tienen la misma forma que el término de interacción orginal. Eso hace que podamos anular los resultados infinitos mediante cambios en el valor de los campos, masas y consantes de acoplo. Se supone que el lagrangiano original “desnudo” (bare en inglés, de ahí la B que añade la wiki a los términos del lagrangiano) no puede observarse porque debido a fluctuaciones cuánticas un electrón va a estar rodeado de una nube de pares electrón/positron virtuales que apantallan la carga desnuda. Por ese motivo, la carga, la masa, la función de onda, y, lo más importante, las constantes de acoplo, van a depender de la energía a la que se mide la interacción. Por eso se habla de “running coupling constants”. Dependiendo de la energía a la que se midan van a tener un valor distingo. Esto es el proceso de renormalización, pero si uno va un poco más allá llega a una ecuación que deben cumplir en general esas constantes de acoplo, la ecuación de Callan-Szymansky. Esa ecuación, usando los resultados a un loop, se puede resolver y nos da el flujo de las constantes de acoplo según cambia la energía. Estos resultados son los que dan la idea de teorías de unificación porque se observa que las constantes de acoplo del electromagnetismo, de la nuclear débil y de la nuclear fuerte casi convergen a un valor común en el que todas las constantes valdrían lo mismo y, por tanto, habría una única interacción. Eso da la idea de teorías de gran unificación (GUT en inglés). Si uno incorpora supersimetría esa casi convergencia se convierte en convergencia, y es uno de los muchos motivos por los que se cree que la supersimetría es importante, pese a no haberse observado.

Bien, ahora ya tenemos (espero) una idea de lo que es eso de “las constantes de acoplo deslizantes”. Al hablar de las GUT he mencionado tres interacciones, pero, aparte de esas, hay otra, la gravedad. Tanto en la teoría de Newton cómo en la de Einstein la constante de acoplo de la gravedad es la G de la fórmula de Newton de la gravitación universal F=G \frac{m.m'}{R^2} . En QFT tenemos partículas “materiales” descritas por la ecuación de K-G (partículas escalares cómo el bosón de Higgs) o por la ecuación de Dirac (fermiones no quirales, cómo el electrón o los quarks) o algún tipo de ecuación (Weyl o Majorana para fermiones quirales, cómo el neutrino. Las interacciones viene medidas por partículas virtuales que van a ser partículas vectoriales. Para el electromagnetismo esa partícula es el fotón, para las nucleares fuertes son los gluones y para la nuclear débil los bosones W+, W- y Z0). En las entradas de este blog dedicadas a QFT, por ejemplo la anterior, se pueden encontrar mas detalles. Feynman, uno de los creadores de la QED, y el que desarroló la técnica de los diagramas que lleva su nombre intentó cuantizar la teoría de la gravedad de Einstein por procedimientos análogos a los de la QED. Más adelante de Witt continuó su trabajo y formuló las reglas para los diagramas de Feynman de la relatividad general.

El truco está en que la métrica de la relatividad general (una introducción desde o a relatividad especial y general la tenéis en este blog Minicurso de Relatividad General ) se divide en dos partes g_{\nu \mu} = \eta_{\nu \mu} + h_{\nu \mu} La primera parte, la \eta de esta división puede pensarse que es la métrica de minkowsky que describe la relatividad especial (aunque, en realidad, puede ser cualquier otra métrica que cumpla las ecuaciones de Einstein que se considera una métrica de fondo que no se cuantiza) y la parte con la h es la que describe las fluctuaciones cuánticas. Se supone que esas fluctuaciones corresponden al intercambio de gravitones. El problema es que la teoría cuántica que se obtiene al hacer eso es no renormalizable y uno debe buscar una teoría cuántica de la gravedad de otra manera. La respuesta mas desarrollada de la gravedad cuántica es la teoría de cuerdas. Esta describe la propagación de gravitones y es una teoría renormalizable.

Bien, ya vamos llegando a la idea de la entrada. Sí tenemos una teoría cuántica de la gravedad deberíamos tener que, de forma análoga al resto de constantes, la contante gravitatoria G va a depender de la energía a la que se mide y que es una “running coupling constant”. Lo cierto es que no es un tema que haya visto (al menos que recuerde) tratado en ningún libro standard, ni de QFT, ni de cuerdas, ni tampoco en artículos de introducción a la gravedad cuántica y su problemática. De hecho ha sido mientras pensaba en otros asuntos cuando he caído en que esto podría pasar. Las consecuencias de una “running G” serían varias, pero inicialmente se me ocurrió relacionarlo con los agujeros negros. El planetamiento es muy simple: si el radio de Schwarschild depende de G, y esta varía con la energía, el radio de Schwarschild debería depender de la energía. Esto hay que concretarlo un poco, claro. Una idea sería que cuando hago chocar dos partículas a alta energía estas ven una G renormalizada y, por consiguiente, su radio de Schwarschild debería calcularse con esa Gren y no con la G de bajas energías. Otra idea sería que un agujero negro astrofísico (o uno primordial, formado en los momentos inmediatamente posteriores al big bang) cuando se estuviese terminando de evaporar llegaría a un tamaño en el que “probaría” tamaños muy pequeños, y por tanto energías muy grandes (recordemos, por causa de la relación de incertidumbre de Heisenberg para probar tamaños pequeños necesitamos energías muy grandes). Por tanto, una vez más, ahí podría jugar su papel la Gren.

Bien, una vez que se me ocurrió la idea me puse a buscar si alguien la había considerado ya, y sí, algo he encontrado. Está, por ejemplo, éste artículo On the running of the gravitational constant. Es del 2011 y analiza trabajos previos sobre el asunto. Afirma que no se puede dar una definición universalmente válida para esa “running G”. Ahora bien, sí uno mira los cálculos observa que están hechos con la gravedad cuántica mas sencilla, la cuantización directa de la gravedad de Einstein, que sabemos que no es renormalizable. Todos los demás artículos que he visto sobre el tema también hacen algo similar. Eso, por supuesto, es muy chocante. ‘t Hoof demostró que si bien la gravedad pura (sin términos de materia) es renormalizable a 1 loop no lo es si se introducen términos de materia (y desde luego no lo es a 2-loops, incluso sin materia). Eso hace que, salvo que se usaran para calcular la “running G” diagramas de interacción entre dos gravitones no se podría hacer nada en el sentido habitual. Y, de hecho, por lo que he visto, los cálculos usan interacción de materia con la gravedad. No he seguido los detalles, pero si está claro que no pueden seguir los pasos habituales. De hecho en ese artículo ya aclaran que es precisamente por no ser renormalizable la teoría por lo que no hay una definición universalmente válida de esa “running G”.

El caso, y esto es lo que me sorprende, si uno va a teorías de supergravedad, que son teorías de campo ordinarias. Se tiene cree que en general la teoría no es renormalizable. En los 70-80 se encontraron argumentos que así lo afirmaban, aunque en la década pasada se han revisado esos argumentos y, al menos por un tiempo, hubo esperanza de que tal vez, las mas supersimétricas, de ellas, si fuesen teorías renormalizables después de todo. ahora ya no está tan claro, y, en cualquier caso, aunque fuesen renormalizables se sabe que no podrían incorporar el modelo standard mediante mecanismo de Kaluza-Klein. En todo caso estas teorías de supergravedad, incluso con una carga supersimétrica, sí son rernormalizables a 1-loop, y creo que a mas loops, incluso interactuando con materia. Siendo así me pregunto porque no se usan esas teoris de supergravedad para calcular esa “running G”. Y, desde luego, la teoría de cuerdas da una teoría cuántica de la gravedad renormalizable ¿Por qué no usan la integral de Polyakov y demás para obtener esa “running G? Estoy revisando material, a ver si encuentro respuestas.

En cualquier caso hay muchos indicios de que una teoría perturbativa no va a incorporar todos los aspectos de la gravedad cuántica. En el cálculo de la entropía de un agujero negro en teoría de cuerdas se usaron objetos no perturbativos de esta teoría, las black branas (objetos de la supergravedad que generalizan a los agujeros negros, que son obtenibles cómo límite de las supercuerdas) formadas por apilamiento de D-branas. Más adelante se vió que, en realidad, la clave está en el cómputo de la entropía de una teoría conforme que describe la proximidad del horizonte y que no son necesarios todos esos detalles finos de la teoría de cuerdas. No obstante hasta que esos grados nuevos de libertad se vuelvan importantes yo creo que la “running G” sería válida. Estoy mirando material para precisar los límites esos, ya veré que saco.

Pese a todas estas consideraciones uno podría pensar que, después de todo, el resultado obtenido en una teoría completa de la gravedad cuántica no debería diferir mucho de lo que se obtiene por los métodos imperfectos que usa esta gente. Y como quiera que en ese artículo dan un resultado concreto (que coincide con el obtenido en otros artículos) uno podría usar, a modo de estimación, esa expresión y ver cómo afecta eso a la creación de agujeros negros en colisiones de partículas, y, por otro lado a la desintegración de agujeros negros “grandes”. Estoy ahora mismo terminando los cálculos, y pondré una entrada cuando los termine y tenga tiempo. Por supuesto que nadie se tome esto terriblemente en serio. Son cálculos relativamente sencillos, y es divertido. Anticipo ya que, con menos detalle, otra gente ha hecho algo similar y, según ellos, y cómo yo sospechaba por estimaciones groseras, con esa G renormalizada los agujeros negros empiezan a formarse con menos energía. En particular en un artículo afirman que podría ser que, incluso con 4 dimensiones (sin necesidad a recurrir a dimensiones extra mesoscópicas cómo en los modelos de braneworlds inspirados en teoría de cuerdas) a la escala de unos pocos TeV podrían formarse agujeros negros. Y, sospecho, por estimaciones groseras que he hecho, que la radiación Hawking se debilita conforme el agujero se empequeñece haciendo que estos agujeros sean mas estables de lo que se pensaba. Pero vamos, insisto, todo esto está traído por los pelos y es especulación sin una base demasiado sólida, así que recomiendo al lector que trate esta entrada, y la que debería venir después cómo algo pedagógico sobre aspectos ya conocidos en la que, además, se presenta algo ligeramente nuevo, cómo una especulación poco sería, aunque, eso espero, entretenida de considerar.

Sobre la naturaleza de la masa

febrero 3, 2014

Sin duda el que mejor nos podría aclarar este tema es el físico Bruce Banner, más conocido por su alterego Hulk, la masa en castellano, pero cómo no está localizable en estos momentos tendré que hacer mis propia exposición del asunto ;).

Tal vez, dado que el año pasado se concedió el nobel a Higgs por su trabajo teórico, corroborado por el descubrimiento del famoso bosón este año pueda parecer, según se comenta en la divulgación, que el tema está resuelto: el higgs es lo que da masa a las partículas. Pero, la verdad es que el asunto es mucho mas sutil. Voy a explicar primero porqué el mecanismo de Higgs no nos dice gran cosa, a nivel fundamental, sobre la naturaleza de la masa.

En teoría cuántica de campos la masa aparece cómo una constante en las ecuaciones o en los lagrangianos. Por ejemplo, en el caso de una partícula escalar, regida por la ecuación de Klein-Gordon, es una constante que multiplica al término cuadrático en el campo.

\frac{1}{c^2}\frac{\partial^2}{\partial t^2}\Phi - \nabla^2\Phi+ \frac{mc^2}{\hbar}\phi = 0

Algo similar ocurre en la ecuación de Dirac.

\left( i \hbar c\sum_{\nu=0}^3 \gamma^{\mu} \frac{\partial}{\partial x^{\mu}} \Psi + i m c^2 \right) \Psi = 0

Aquí he escrito las ecuaciones manteniendo todas las unidades y evitando el uso de las unidades naturales (h=c=G=1) para que se entienda mejor porque hablamos de un término de masa. En ambas ecuaciones tenemos un primer término “cinético”, que contiene las derivadas de la función de onda. El siguiente término contiene unas constantes que multiplica a la función. Escribiendo las ecuaciones es difícil ver porque surgen esas constantes concretas y habría que atender a la derivación de las ecuaciones. Es más fácil verlo desde el lagrangaino.

El Lagrangiano de K-G es:

dónde \mu=\frac{mc}{h}

Y el de Dirac:

Aquí los términos de masa aparecen multiplicando a los términos cuadráticos en las correspondientes funciones de onda. El motivo de que se interpreten como términos de masa proviene del análisis diménsional en cuyos detalles no voy a entrar, aunque no son muy complejos. La idea es que el lagrangiano debe ser adimensional y que las funciones de onda de los campos tienen unas dimensiones naturales. Los términos que multiplican a las funciones deben tener una dimensión tal que cada término sea adimensional. Y, en el caso de los términos cuadráticos eso significa que lo que los multiplica debe tener dimensión de masa (o más bien energía, nótese el factor c^2).

Bien, eso significa que podemos poner un valor arbitrario a m, y tener partículas bosónicas escalares (ecuación de Klein-Gordón) y fermiónicas (ecuación de Dirac) con un valor arbitrario de su masa. Y, desde luego, no necesitamos para nada el bosón de Higgs. Esas ecuaciones describen partículas libres, pero si acoplamos las mismas a el campo electromagnético, lo que vendría a ser la electrodinámica cuántica (QED, por sus siglas en inglés) nos valdrían los mismos términos y seguiríamos teniendo que la masa no es nada más que una constante que aparece multiplicando a un término del lagrangiano y, una vez más, no es necesario el bosón de Higgs. Cierto es que la QED no describe nuestro universo porque en ella no se incluyen las fuerzas nucleares fuertes y débiles (y mucho menos la gravedad), pero es una teoría cuántica de campos perfectamente válida.

El problema viene cuando uno quiere incluir bosones vectoriales masivos. El electromagnetismo viene descrito por los campos eléctrico y magnético. Estos pueden derivarse respectivamente de un potencial escalar y un potencial vectorial. En relatividad general estos se combinan en un cuadripotencial que es el que aparecería en el lagrangiano. Ese campo electromagnético describe fotones, bosones vectoriales, que son partículas sin masa. Y esa es la clave, la ausencia de masa. Si queremos introducir bosones vectoriales con masa podemos hacerlo de manera similar a lo que se hace con la ecuaciónde Klein Gordon y la de Dirac y llegaríamos a la ecuación de Proca y su correspondiente Lagrangiano:

El problema de esta ecuación es que si se intenta introducir una interacción entre los campos vectoriales masivos que describe esa ecuación y un campo de Klein-gordon, o uno de Dirac, siguiendo el mismo procedimiento que se hace en QED se llega a que la teoría obtenida no es renormalizable, y por tanto inválida ya que no es predictiva.

Bien, ahí es cuando ya sí aparece el mecanismo de Higgs. No he explicado, ni en esta entrada ni en ninguna anterior, cómo surgen en general los bosones vectoriales de una forma general, dentro de lo que se conoce cómo teorías de Yang mills. Quien quiera leer detalles que consulte en la wiki sobre yang mills theory La idea general es que cuando uno tiene un lagrangiano que es invariante bajo una simetría global (la misma transformación de simetría en todos los puntos del espacio-tiempo) y la hace local (el mismo tipo de simetría, pero actuando localmente en cada punto del espacio-tiempo) uno debe introducir, para que el lagrangiano siga siendo invariante bajo la simetría local, unos campos que compensan ese cambio. Esos campos van a ser los bosones vectoriales. Cuando la simetría es el grupo de Lie U(1) se obtiene que el campo asociado es el electromagnetismo. Cuando es SU(3) se obtiene que la teoría es la QCD (Quantum cromodynamics, la teoría cuántica de las interacciones nucleares fuertes). La interacción nuclear débil está asociada al grupo SU(2), combinado con el grupo U(1), pero ahí ya inerviene de manera fundamental el mecanismo de Higgs. En las teorías de Yang-Mills todos los bosones vectoriales que aparecen son de masa nula. Eso no es problema para el electromagnetismo com oya hemos dicho. pero las interacciones nucleares son de muy corto alcance y, por consiguiente, uno espera que las partículas mediadoras de esa interacción, los bosones vectoriales, tengan mucha masa, y, cómo hemos dicho, la teoría deYang-Mills, que por lo demás es muy elegante, no nos sirve de nada. La teoría de Proca, con términos de masa directos para los bosones tampoco.

Bien, el mecanismo de Higgs, en cuyos detalles no entraré aquí (ver mecanismo de higgs en la wiki) lo que hace es que partiendo de una teoría de Yang-Mills con bosones sin masa acoplados a una teoría de Klein-Gordon que describe un bosón (el bosón de Higgs), con masa y un término potencial elegido de manera apropiada, nos lleva a que cuando se produce un fenómenoo conocido como ruptura espontánea de simetría. La idea es que el grupo de simetría inicial se ve reducido cuando el bosón de Higgs toma un nuevo valor de vacío correspondiente a un valor de mínimo (se supone que inicialmente estaba en un valor de máximo inestable). Cuando uno reescribe el lagrangiano desarrollado alrededor del nuevo vacío del bosón de Higgs resulta que los campos vectoriales han obtenido un término de masa, relacionado con el potencial del bosón de Higgs, y que la teoría resultante si es renormalizable. Digamos que, si quiere verse así, la masa de los bosones vectoriales se obtiene a partir de la energía potencial del bosón de Higgs. Realmente los detalles son algo mas complejos, pero,, más o menos, esa es una parte esencial de la idea.

Eso está bien, un término de masa está originado en un término de energía potencial. Y, desde luego, nos da una teoría renormalizable que en la práctica nos permite obtener el modelo standard SU(3)xSU(2)xU(1), pero el caso es que el bosónde Higgs sigue teniendo su término de masa, de cuyo origen nada sabemos, y tampoco sabemos porque el potencial de Higgs tiene esa forma (no tenemos ninguna teoría fundamental que nos sugiera de dónde sale esa forma para el potencial, al menos hasta dónde yo sé). Por cierto, he mencionado que el Higgs da masa a los bosones vectoriales. Si uno hace los detalles de la teoría electrodébil se ve que también da términos de masa paara los fermiones. Sin embargo no toda la masa de los fermiones del modelo standard surge del mecanimso de Higgs. Hay mas mecanismos implicados en cuyos detalles no voy a entrar.

En definitiva, el mecanismo de Higgs es algo útil, pero, en mi opinión no da una idea fundamental de qué es la masa. En entradas sucesivas intentaré reflexionar más sobre el asunto, aportando algunas ideas propias al respecto que si bien no creo que vayan a ser de gran trascendencia creo que pueden resultar entretenidas y tal vez ayuden a reflexionar sobre el particular.

La energía Oscura I: Introducción

diciembre 30, 2013

El día de los inocentes, Francis publicaba una entrada dónde se anunciaba una señal a tres sigmas de un fotón oscuro. BaBar observa a 3 sigmas la primera señal de un fotón oscuro con 8,93 GeV. Siendo el día que es la primera respuesta se toma la entrada cómo una broma, pero el caso es que si uno va al pdf que vincula francis Search for low-mass Higgs and dark boson @BaBar,” High Energy Physics in the LHC Era, 5° International Workshop, Dec. 2013 . Leer diapositivas de una charla de experimentales es una pequeña tortura para un teórico nato cómo yo, pero me parece entender que ahí dicen que no han encontrado nada a un nivel significativo. Claro que Francis dice que han encontrado algo a 3 sigmas, lo cuál es no significativo.

En todo caso me viene de perlas esa entrada porque quería escribir hace un tiempo una entrada propia sobre el tema de la energía oscura. Para la exposición del tema voy a seguir el libro de Wang, Dark Energy.

Lo primero, por si a estas alturas hay algún despistado que lo desconozca, es aclarar que es esto de la energía oscura. A finales de los 90 en un estudio sobre la expansión del universo se comprobó que en vez de expandirse de manera cada vez mas lenta, según predecía el modelo de FRW (Friedman-Robertson-Walker), resulta que la expansión era cada vez mas rápida. Como genérico para referirse a lo que quiere que provoque esa expansión se puede usar el término de “energía oscura”, aunque otra gente prefiere reservar esa denominación para cierto tipo concreto de explicaciones.

Para explicar la energía oscura hay diversas aproximaciones. Unas pasan por suponer la presencia de algún tipo de campo cuántico, de tipo bosón escalar, cuya dinámica es la responsable de la expansión, estos son los que, estrictamente, se conocen como modelos de energía oscura. Los mas conocidos son la quintaesencia, el campo fantasma (phantom field) y el gas de Chaplyigin (todos ellos con inspiracióin en teoria de cuerdas).

Otras consisten en modificaciones de la gravedad, entre estas tenemos las gravedades f(R), en las que al término básico del lagrangiano de Einstein se le añaden potencias del tensor de Ricci R, términos que surgen de manera natural en teoria de cuerdas cómo perturbaciones al término sencillo. Luego tenemos el modelo de DGP (Dvalli, Gabadanze y Porrati), que parte de un escenario de cuerdas tipo Braneworld. Otra opción es el modelo de Cardassian, que modifica las ecuaciones de Friedman. Estos son los modelos que aparecen mencionados en el libro de Wang, aparte tenemos los modelos de f(T) dónde se modifica la gravedad añadiendo términos que dependen de la torsión.

Y luego, por supuesto, el modelo mas aceptado, el de la constante cosmológica, la energía del vacío. Voy a hacer una breve exposición que no sigue las líneas del texto de Wang sino que está sacada de algunos artículos de review sobre el tema. Es el mas aceptado por varios motivos. Uno de ellos es que ese es un problema que ya existía antes del descubrimiento experimental de la expansión acelerada del universo. Sí uno calcula la energía del vacío de una teoría cuántica se encuentra con que el valor que sale es muy alto, cincuenta y tantas veces mayor que el que tendría la constante cosmológica si lo usamos para explicar esta expansión. Antes de la observación del universo acelerado la idea mas habitual al respecto es que debería haber algo que ajustase a 0 esa constante, algún tipo de simetría. Las teorías supersimeétricas, por ejemplo, tienen constante cosmológica 0 pues los modos fermiónicos se cancelan con los bosónicos. El problema es que cuando se rompe la supersimetría se genera una constante cosmológica. Si la supersimetria es local (e incluye la gravedad, es decir, tenemos una teoria de supergravedad) la consante cosmológica puede tomar un valor negativo aparte de uno positivo. En todo caso, lo normal, es que tome un valor grande. Para evitar eso Weinberg ideó un mecanismo que permitía, vía la existencia de multiples universos, cada uno saliendo del otro por saltos cuánticos en la energía de vacío, una constante cosmológica pequeña. Nosotros vivíríamos en uno de esos universos porque sólo en esos universos puede haber vida. Ese es el principio antrópico y la teoría del multiverso (bueno, parte de ella). La verdad es que antes del descubrimiento experimental de la expansión del universo no había una preocupación muy seria (o al menos urgente) sobre el tema de esta energía del vacío y si bien chocaba bastante el tema se pensaba que sencillamente no se entendía bien el asunto de la energía del vacío, o que había una simetría rara que dejaba el valor en 0. Sólo a raíz de esta “dark energy” se tomó el asunto en serio, y de ahí surgieron diversos trabajos que llevaron al landscape de la teoria de cuerdas.

Según vaya teniendo tiempo iré poniendo detalles matemáticos de estas diversas teorías, pero por ahora lo dejo aquí.

Teoría cuántica de campos II: el formalismo lagrangiano.

octubre 18, 2013

Hace ya bastante tiempo puse una entrada dónde empezaba a explicar la teoría cuántica de campos, teoría cuántica de campos I. Hoy, aprovechando coyunturas varias, escribo una continuación que versará sobre como extender los métodos lagrangianos a teorías de campos. Tal vez al lector que no sepa, o no tenga reciente, el tema de los lagrangianos, le puede venir bien repasar la materia en esta otra entrada, Dinámica Lagrangiana. Aclaro, para evitar posibles confesiones, que en esta entrada me limito a la parte clásica y no a la formulación de integrales de camino de la mecánica cuántica y la QFT.

Empiezo por explicar cómo obtenemos un lagrangiano en mecánica clásica no relativista para objetos continuos, cómo puede ser una cuerda. Aproximamos la cuerda por un conjunto de partículas en la posición xi unidas entre sí por un muelle, con lo cuál la energía potencial entre ellos sería un potencial de oscilador armónico sobre la diferencia de distancias.

Spring

1. L1

Si asumimos que la separación entre dos posiciones consecutivas es \epsilon y hacemos \epsilon \rightarrow 0 nos queda el lagrangiano:

2. L2

dónde hemos tomado los límites:

limites

y dónde \Phi(x,t) es el desplazamiento de la partícula en x en el instante t. Si usamos las ecuaciones de Euler-Lagrange para el lagrangiano de partículas , primera parte de la ecuación 2, y tomamos los límites correspondientes llegamos a la ecuación de ondas para la cuerda:

3. EcOndas

Aparte de partiendo de la primera parte de la ecuación 2 y tomando límites podemos llegar a la ecuación de otro modo. Podemos partir de la segunda parte, el lagrangiano en el campo \Phi(x,t) , hacer una variación de ese campo y encontrar el valor del capo que minimiza esa variación. Enseguida vamos con los detalles porque éste punto de vista es el que nos interesa para el caso general. Ahí partiremos de un lagrangiano, en general relativista, que dependerá no sólo de un campo sino también, opcionalmente, de sus derivadas.

4. L=(\Phi(x),\partial_{\nu}\Phi(x)

dónde

5. \partial_{\nu}=(\partial_t,\partial_x)

En general el lagrangiano de campos será la integral espacial de una densidad lagrangiana y la acción la integral en el tiempo de esa densidad:

6. DensidadLagrangiana

La variación de la lagrangiana viene dada por la expresión:

7. variacion1

Si integramos por partes y revertimos la acción de la derivada llegamos a:

8. Variacion2

Cómo, de manera análoga al caso de la partícula puntual, el último término (llamado de frontera) se anula en los extremos de la integración llegamos a las ecuaciones de Euler-Lagrange para campos.

9. EulerLagrange

El caso mas simple, y que enlaza con la anterior entrada, es el lagrangiano de Klein-Gordon.

10. \mathcal{L} = - \frac{1}{2} \partial^{\mu} \varphi \partial_{\mu} \varphi - \frac{1}{2} m^2 \varphi^2

El amplituhedron: cálculo de diagramas de Feynman mediante geometría algebraica I

septiembre 24, 2013

En la entrada anterior mencioné que el tema más candente (abrasador en realidad xD) de este verano en física teórica ha sido el de la posibilidad de que haya un muro de fuego en el interior del horizonte de sucesos de agujeros negros “viejos”. Aparte de eso hubo otro trabajo que ha causado un cierto impacto, la conjetura ER/EPR en la que Maldacena y Suskind que equiparan los agujeros de gusano con el entrelazamiento cuántico. Bien, la semana pasada se ha anunciado un nuevo (o no tanto) resultado que ha recibido bastante atención de los medios especializados, cómo por ejemplo en éste artículo: A Jewel at the Heart of Quantum Physics. El tema ha aparecido en los blogs de Lubos y Peter Woit, pero sorprendentemente aún no en el de Francis, así que esta vez le voy a tomar la delantera ;).

En realidad el tema viene de hace tiempo, y ya había sido tratado hace un tiempo en la “blogosfera” dentro de lo que se conoció cómo la “minirevolución twistor”. El motivo de que ahora haya vuelto a promocionarse es una conferencia de el famoso Nima Arkani-Hammed en la que he anunciado que pronto habría un nuevo artículo, con algunas novedades se supone, y que, aparte de los avances técnicos lo plantea cómo el posible germen para una nueva revolución en la física teórica que de lugar a una nueva teoría cuántica de la gravedad en la que el espacio-tiempo perderá un papel privilegiado e incluso asuntos cómo la unitariedad cuántica se enfocan desde una nueva perspectiva. Bien, eso es el futuro, pero voy a intentar explicar un poco lo que hay hasta ahora.

El inicio de esto surge, según se cuenta en el artículo de la fundación Simons, en los 80, cuando se estaban calculando amplitudes de transición para los procesos de colisión que se iban a hacer en el LEP (light electron positron collider, el colisionador que estaba en el CERN antes del LHC) para luego comparar los resultados experimentales con las predicciones teóricas. El problema es que para calcular las amplitudes requeridas era necesario evaluar 200 diagramas de Feynman, algo que era imposible hacer incluso con los ordenadores de la época. Usando unos pocos trucos matemáticos consiguieron demostrar que muchos diagramas se anulaban unos con otros y consiguieron reducir el cálculo a una expresión que ocupaba “solamente” unos 20 hojas de papel escrito.

Para entender el motivo de esta complicación voy a comentar los detalles relevantes de los diagramas de Feynman (la entrada de la wiki que enlacé antes no da detalles suficientes) para éste particular. Estos diagramas son una representación simbólica del cálculo perturbativo de las amplitudes de transición de los procesos de física de partículas. Por proceso entendemos un experimento en el que partimos de unas partículas iniciales en unas condiciones determinadas (por ejemplo un e-,electrón y un e+, positrón -antipartícula del electrón- con momentos incidentes p1 y p2) que tras la interacción se transforman en otras partículas, que llamaré P1, P2, P3, etc, con momentos p’1, p’2, p’3, etc. Tal vez alguien se sorprenda de que haya procesos de éste estilo pues se ha popularizado la idea de que una partícula se aniquila con una antipartícula. Es bastante cierto, pero con matices, y eso sirve para entender la idea detrás de los diagramas de Feynman. Un e- y un e+ pueden, y es lo que harán normalmente, aniquilarse el uno con el otro y formar un fotón. Este fotón va a tener cómo mínimo una energía que va a ser igual a la suma de la masa del e+ y el e-. Esto se debe a la famosa relación E=m.c^2 que una partícula tiene una energía que es igual a su masa en reposo multiplicada por el cuadrado de la velocidad de la luz. Ese fotón tiene una energía que cumple E=h \nu dónde \nu es la frecuencia del fotón. Así cuanta mas energía tenga el fotón mayor será su frecuencia, y mas corta su longitud de onda. Cuando los electrones colisionan a una cierta velocidad v llevan un momento que se corresponde con una energía Es decir, cuanto mas rápido vayan mas energía van a tener esos e+/e- incidentes y, en consecuencia, mas energía va a tener el fotón. Cuando la velocidad de las partículas es muy cercana a la de la luz (partículas ultrarrelativistas) la mayor parte de la energía proviene de su momento, y su masa en reposo se hace despreciable. Quien esté interesado en los detalles de la dinámica relativista puede leer, por ejemplo, la web de la que he sacado las imágenes hyperfphysics.

La clave del proceso es que ese fotón no es el final de la historia. Si los electrones llevan mucha velocidad el fotón va a tener mucha energía. Podría suceder que el fotón se volviese a desintegrar en otro par e+/e-, cuyo momento combinado va a ser (por conservación del momento) igual al del par indicente (p1+ p2=p’1 + p’2). Se conserva la suma, pero no los valores individuales. Es decir, aunque inicialmente ambas partículas llegasen a la colisión con el mismo momento (y dado que tiene igual masa a la misma velocidad), no tienen porque salir igual, cada uno puede llevar una diferente, mientras la suma se conserve. Esto va a ser muy importante mas adelante, cuando explique lo que es un loop, pero antes debo explicar alguna cosa más. Si la energía del fotón es muy alta puede desintegrarse en otro tipo de partículas que no sea un par e+/e-. Podría, por ejemplo, desintegrarse en un par m+/m-, muón/antimuón, (el muón es igual que el electrón, pero con una masa unos centenares de veces mayor). El momento también se conserva, con lo cuál la velocidad combinada de los muones será menor que la de los electrones incidentes. Según aumenta la energía del fotón el numero de partículas en las que se va a poder desintegrar irá creciendo. Aparte de la restricciones impuestas por la conservación de la energía y la del momento hay otras, las conservaciones de las diversas cargas, por ejemplo. Así como el e+ tiene carga positiva y el e- negativa el resultado debe tener, en promedio carga neutra. Por eso puede formarse un par m+/m- pero no, por ejemplo, dos m+ o dos m-. Y, desde luego en principio, el número de partículas inicial no tiene porque ser igual al final.

Cómo hemos visto hay varios procesos posibles como resultado de la colisión de el par e+/e-. Cada uno de esos sucesos, siguiendo las leyes de la mecánica cuántica, va a tener una probabilidad. Y la teoría cuántica de campos nos va a permitir calcularla. La probabilidad total para un proceso determinado es imposible de evaluar exactamente y debemos evaluarla de manera perturbativa, es decir, cómo suma de varios términos (normalmente infinitos términos, es decir, lo que matemáticamente se conoce cómo una serie) en los que, si la interacción entre las partículas es débil, cada término va a ser menor que el anterior. Antes he dicho que puedo tener un proceso, el mas sencillo posible, en el que el e+/e- se desintegran en un fotón, que, a su vez, se desintegra de nuevo en otro par e+/-. Eso lo puedo representar mediante el siguiente diagrama de Feynman.

Ese diagrama nos da la primera contribución, el primer término de la serie, que es el mas importante. Los siguientes términos nos van a dar correcciones al primer resultado. Para entender de dónde salen esos términos voy a explicar el concepto de loop. La idea es simple, el fotón, antes de desintegrarse en el par e+/e- final puede desintegrarse entre medias en otro par e+/e- (o uno m+/m- si lleva bastante energía) que luego se desintegran en un fotón que ya, por fín, se desintegra en el par e+/e- final. Es importante notar que esos dos e+/e- intermedios tienen fijada la suma de su momento, pero no el momento individual, es decir, que queda un momento interno sin fijar. Para calcular la amplitud tenemos que sumar (integrar) a todos los valores posibles de ese momento interno. En los procesos sin loop, en los que todas las partículas intermedias (virtuales) tienen su momento fijado se les llama procesos tree (árbol) y son sencillos de calcular. Los procesos con loops contienen integrales, y el valor de esas integrales van a ser infinitos. Afortunadamente, para cierto tipo de teorías, denominadas renormalizables, pueden redefinirse ciertos valores y obtener cantidades finitas correspondientes los procesos que están relacionados con esos loops. Un detalle interesante es que si la interacción está caracterizada por un valor, llamémosle \lambda , los procesos tree parecerán multiplicados por la constante, los procesos a un loop por la constante al cuadrado y así sucesivamente. Es decir, tenemos una serie en función de la constante. Si la constante es pequeña (mucho mas pequeña que uno, cómo es el caso de la electrodinámica dónde vale 1/127, la constante de estructura fina) se va a obtener que los términos con muchos loops van a contribuir muy poco. Sin embargo si la constante es del orden de la unidad, cómo ocurre con la QCD (quantum cromodynamics, la teoría de las interacciones nucleares fuertes) no está garantizado que esto pase y puede suceder que los términos a orden 2 sean mayores que el término árbol. Ese es uno de los muchos motivos por los que la QCD es muy compleja d estudiar usando diagramas de Feynman y por los que esta teoría del amplithuedron podría llegar a ser muy relevante para el campo si al final se consigue una versión de la teoría adaptada a la QCD, cosa que de momento no se tiene pués, por ahora, esta nueva teoría sólo se aplica a cierto tipo de teorías con muchas simetrías (las teorías de Yang-Mills con máxima supersimetría, no voy a intentar explicar ahora lo que son, sólo decir que no se corresponden con ninguna teoría física realizada en la naturaleza y sólo juegan un papel de “laboratorio” teórico).

Bien, el caso es que para cada proceso de estos podemos dibujar un diagrama de Feynman, el diagrama de Feynman a un loop para el proceso e+/e- ->e+/e- a un loop sería el de la derecha de la imagen siguiente:

A cada diagrama se le asocian, mediante una serie de reglas, una expresión, que es la expresión del correspondiente término perturbativo. Como ya indiqué para cierto tipo de procesos es necesario hacer cálculos a varios loops, y el número de diagramas correspondientes al proceso crece muy rápido con el número de loops. Eso hace, que, en la práctica, para procesos a dos o más loops se recurra a ordenadores, y para procesos a, digamos 5 o más loops, sencillamente sea, en algunas teorías, sencillamente imposible, incluso con ordenadores. Pues bien, la idea de éste amplithuedron lo que va a hacer es reducir el cálculo de el valor del diagrama al cálculo del volumen de el volumen de un objeto geométrico que va a ser un subconjunto de un tipo de variedades denominadas grassmanianas. Y, de hecho, va a permitir decidir de manera sencilla que diagramas se cancelan unos con otros, y así tener que hacer muchos menos cálculos. En alguna entrada daré mas detalles, pero esta ya es bastante larga, así que la concluyo poniendo algunos enlaces más al tema de los diagramas de Feynman, por si alguien quiere profundizar, y tener otros puntos de vista.

Diagramas de Feynman para todos 1

Las partículas virtuales y el gran bulo de la divulgación
Feynman diagram

Leonard Susskind: Black holes y teoría de cuerdas (libro)

septiembre 23, 2013

An Introduction to Black Holes, Information And The String Theory Revolution: The Holographic Universe

El tema caliente -literalmente un muro de fuego- de este verano ha sido la propuesta de Polchinsky, Sully y dos autores más en las que se planteaban si en el interior de los agujeros negros antiguos (de edad superior al tiempo de Page, definido cómo aquel en el que se ha emitido la mitad de la masa en radiación Hawking, había un firewall en el que cualquier objeto que cayese en el agujero negro sería inmediatamente vaporizado. Eso iría en contra del principio de complementariedad que afirma, dicho de un modo intuitivo, que un observado no percibirá nada especial cuando atraviese el horizonte de sucesos de un agujero negro lo suficientemente grande, hasta que sea aniquilado en la singularidad central, claro. El artículo en cuestión es Black Holes: Complementarity or Firewalls?. La wikipedia se ha hecho eco rápidamente de la controversia firewalls en la wiki. El tema ha generado bastante polémica, con gente a favor y en contra. Lubos ha tratado el tema varias veces en su blog, y es de los que está en contra. Susskind, autor junto a ‘t Hoof del principio de complementariedad ha intervenido activamente en la polémica y hasta le ha llevado, a afirmar hace unos pocos días en un congreso, que la teoría de cuerdas, tal cuál está actualmente, no ofrece respuestas a todas las cuestiones sobre la gravedad cuántica. Polchinsky, el autor principal del artículo de los firewalls, ha expresado una opinión similar. Esto implica, entre otras cosas, que se pone en duda la validez absoluta de la correspondencia AdS/CFT de Maldacena. Todo esto, como cabría esperar, ha exasperado a Lubos, que considera que la comunidad de teóricos de cuerdas en la última década han perdido integridad moral, rigor (ya no respaldan las intuiciones con cálculos) y si le apuran hasta el mojo (Austin Powers dixit xD).

Sin duda cualquiera que este metido en la física teórica actual estará familiarizado con los términos que he usado en la descripción de la polémica de los firewalls. Ahora bien, también es posible que si no trabajan en ello (o incluso si trabajan en temas muy cercanos, pero no exactamente en ello) no hayan leído una introducción formal y dedicada a esos temas. Sin duda habrán leído sobre el cálculo de entropia en agujeros negros mediante teoría de cuerdas y sobre la conjetura de Maldacena en los libros/cursos generales sobre teoría de cuerdas. Y habrán leído algún review de tal o cuál tema implicado en algún artículo, y habrán leído debates sobre aspectos concretos en los blogs. Pero tal vez no hayan leído una presentación dedicada sobre el asunto en la que se de una introducción a todos los temas de una manera mas o menos autocontenida. Pues bien, justo eso hace el libro de Susskind (y Lindesay).

Se puede leer el índice, y alguna página, en google books

Por comodidad de referencia, y para que la gente sepa los detalles, hago un copy & paste del índice.

The Schwarzschild Black Hole
3
Scalar Wave Equation in a Schwarzschild Background
25
Quantum Fields in Rindler Space
31
Entropy of the Free Quantum Field in Rindler Space
43
Thermodynamics of Black Holes
51
The Stretched Horizon
61
The Laws of Nature
69
The Puzzle of Information Conservation in Black Hole
81
Horizons and the UVIR Connection
95
Entropy Bounds
101
The Holographic Principle and Anti de Sitter Space
127
Black Holes in a Box
141
Entropy of Strings and Black Holes
165
Bibliography
179
Página de créditos

Podemos decir que el libro se divide en dos grandes partes, la primera, que ocupa hasta el tema “entropy bounds” discute los aspectos clásicos y semiclásicos de la teoría de agujeros negros. Empieza discutiendo el agujero negro de Schwarschild, en varios sistemas de coordenadas. Enseguida pasa a sistemas que describen el agujero en el entorno del horizonte. Luego empieza a tratar los campos cuánticos en el entorno de un agujero negro la cuál lleva al famosísimo resultado de Hawking de que los agujeros negros emiten radiación. El tratamiento que hace del tema es muy, muy diferente al del artículo original de Hawking. No se mencionan en ningún momento las transformaciones de Bogoluivob que son clave en el trabajo de Hawking. Elige usar el formalismo de la matriz de densidad, a la cuál hace una introducción (conviene leerla porque los detalles de la exposición que da son ligeramente diferentes de otros libros, por ejemplo del de mecánica cuántica de Yndurain).

Luego va haciendo un paseo sobre diversas propuestas que se han ido haciendo, como el “stretched horizont” que es una zona de entorno a la longitud de Planck alrededor del horizonte de sucesos en la que habría una gran temperatura y tendría naturaleza cuántica. Esta idea (que suena similar a los firewalls, pero no lo es en absoluto) ha sido descartada hace tiempo y su interés es histórico. Luego ya se mete en consideraciones generales sobre el destino final del agujero negro (discutiendo diversas opciones), explica porque esa evaporación Hawking pone en problemas la evolución unitaria de la mecánica cuántica, etc. La exposición es clara y da bastantes detalles interesantes sobre diversos aspectos.

Luego, en la segunda parte, hace una introducción a diversos temas relacionados con la teoría de cuerdas. Por supuesto no hace una introducción a la teoría de cuerdas en sí (algo imposible en un libro de poco más de 100 páginas) y asume que el lector está familiarizado con ella. Empieza hablando del principio holográfico (del cuál es coautor junto a ‘t hooft, lo mismo que sucedía con el principio de correspondencia). Este principio afirma que la física del interior del agujero negro está codificada en su horizonte de sucesos, lo mismo que pasa con los hologramas, que almacenan en dos dimensiones información sobre 3. Ahí, cómo en otros puntos, es relevante la mecánica estadística y los conceptos de entropía e información, que son cuidadosamente analizados por Suskind en diversos puntos del libro.

El tema estrella es la conjetura AdS/CFT, o conjetura de Maldacena. Este es un tema muy amplio, y un tanto difuso en mi opinión. He leído sobre él en los libros de texto de cuerdas habituales, y había leído un review. Éste verano he leído algún review más (ninguno por debajo de 40 páginas) y aunque coinciden en unos cuantos aspectos varían en otros, y cada uno cuenta una cosa. Pues bien, el capítulo correspondiente de éste libro es una introducción más, que está muy orientada a el objetivo general del libro. Está bastante bien hecha y lidia con amenidad (al menos tanta como se puede hacer con el tema xD) con la definición de la frontera conforme del espacio de anti de Sitter. Antes, por supuesto, ha hecho una introducción general a dicho espacio, y en capítulos anteriores ya había dado una idea de porque ese espacio es útil para analizar el tema de los agujeros negros. En el capítulo de black holes in a box, dónde explica que un agujero negro nunca puede estar en equilibrio termodinámico estable con su radiación de Hawking y que hay una relación matemática con ese “agujero negro en una caja” y el espacio de anti de Sitter.

Explicar que es la conjetura de Maldacena en pocas palabras es casi imposible. Generaliza un poco el principio holográfico y viene a identificar una teoría de gravedad cuántica (teoría de cuerdas en última instancia) en el espacio de anti de Sitter (multiplicado por una 5 esfera en el paper original de maldacena y con un espacio de Einstein, uno en el que el tensor de Ricci es proporcional a la métrica) en caso mas generales) con una teoría gauge en la frontera conforme del espacio de de anti de Sitter (que es una teoria de campos conforme por consecuencia) La conexión conecta el comportamiento a altas energías de una con el infrarrojo de otra.

Luego, ya para ir terminando, recopila lo visto y hace consideraciones y conclusiones. Una idea clave es que la información de la materia que cae parece estar codificada, de manera no local, en la radiación Hawking emitida, y así la conservación de la unitariedad cuántica implica una cierta no localidad. También, cómo aparece de manifiesto en la conjetura de maldacena, hay una conexión entre comportamientos a altas energías con el comportamiento a bajas energías de otras. Eso es importante porque inicialmente se pensaba que los efectos cuánticos sólo eran relevantes cuando el radio de curvatura del espacio se acercaba a la longitud de Planck. Esa conexión indica que, por contra, hay situaciones en las que los efectos cuánticos serán relevantes incluso para campos gravitatorios relativamente débiles.

Hay que decir que éste asunto de los agujeros negros y la evaporación cuántica es, en principio, muy importante, por aquello de que supone un desafío a la unitariedad de la cuántica, y se supone que la conjetura de Maldacena ha dado una respuesta que salva la unitariedad. Aún así no todos los físicos teóricos están terriblemente entusiasmados con éste tema en concreto, al menos no lo bastante cómo para dedicarse a ello. Yo me incluyo en ese grupo y debo decir que si he leído el libro ha sido un poco por casualidad, por aquello de que no a todos lados puedo ir con el tablet, y éste libro es ligero para llevar y así, poco a poco, me lo he ido leyendo éste verano. La verdad es que, a posteriori, si recomiendo el libro, porque aparte de el tema central del que he hablado se tratan muchos detalles interesantes y curiosos de diversos temas de física que no viene mal saber. Y, desde luego, viene perfecto para situar a cualquiera que esté interesado en meterse en los detalles de la discusión de los firewalls y cómo referencia para entender algunas motivaciones del trabajo de Maldacena.

El CSIC al borde del colapso

julio 11, 2013

Ha aparecido en varios medios de comunicación escritos la terrible situación económicos del CSIC, dejo cómo ejemplo la primera entrada al respecto que me da google al buscar: “La situación es un cataclismo” .

Uno pensaría que la blogosfera y la “forosfera” científica española se haría eco del asunto, presa de indignación. Pero no, he hecho una búsqueda, siguiendo los enlaces en mi blog, y los enlaces en los blogs enlazados, y no he visto ni un sólo autor que trate el tema. No es que absolutamente ningún blog no haya tratado en algún momento aspectos diversos sobre la crisis de la ciencia en España, pero el porcentaje de blogs y entradas es demasiado escaso para la dramática situación.

El blog más reivindicativo, así en general, que he encontrado ha sido Por la boca muere el pez. Una entrada muy interesante sobre si la ciencia española es eficiente o no puede leerse en Auditorías, perversiones e idioteces dónde recoge los problemas burocráticos de la ciencia. Sin duda la burocracia es un problema, pero si frente a eso se plantea cómo alternativa los sistemas de gestión privada entonces la fastidiamos del todo porque eso es mucho peor, la ciencia tiene sus propia idiosincrasia y en algún momento deberá independizarse de lo público y lo privado y funcionar por su cuenta, pero esa es otra historia. Otra entrada, en el blog de Francis, recogía datos en los que demostraba que, a pesar de estos problemas burocráticos el nivel de producción científica vs el dinero invertido es muy eficiente en España, sobre todo en universidades, en comparación con otros países.

Sobre el CSIC debo decir que no lo conozco muy a fondo y que hay cosas, que así, a priori, me resultan chocantes. Suelo ir casi todos los años a la feria del libro, y siempre visito las casetas de librerías científicas (y las de ciencia ficción y comics, y realmente poco más, no me interesa casi nada de la literatura mainstream). El caso es que en la caseta del CSIC, recordemos, consejo superior de investigaciones científicas, hay muchos libros, la mayoría de los de la caseta, que tratan sobre historia, arqueología, sociología y costumbres, etc. Es decir, sobre temas humanísticos cuya ubicación en un centro de investigaciones científicas es bastante inexplicable. Pero bueno, si uno se va a los edificios del CSIC en la calle serrano y aledaños ahí si parece que se tratan temas realmente científicos (al menos en las bibliotecas de allí los libros sí son de ciencia). En todo caso que de cara al público se exponga tanta producción no científica, refleje o no el porcentaje real de producción, me parece una muy mala imagen: la ciencia no es eso, señores.

Pero, independientemente de si funciona mejor o peor, lo importante es que no puede, bajo ningún concepto, permitirse que quiebre. Sí se consiente la ciencia española, ya prácticamente hundida por los dos últimos años de recortes, quedará huérfana de un centro oficial que debería ser su alma mater.

La web de change.org ha organizado una campaña de recogida de firmas para intentar ayudar. Hay quien dice que ésta web tiene mas sombras que luces, y, después de todo, ya ha habido cartas de científicos españoles (y extranjeros) en science y nature denunciando el desaguisado que se está cometiendo con la ciencia patria. Aún así cualquier acción es bienvenida y firmar no cuesta nada. Este es el enlace: firma para salvar al CSIC .

Y cierro la entrada con una reflexión. En su momento Galileo estuvo a punto de ser quemado por reivindicar la ciencia frente a la religión, y aunque se retractó -que morir quemado es doloroso, y si se sigue vivo se va a poder seguir peleando- no lo hizo sin dejar el célebre “epure se muove” (y sin embargo se mueve). Si ahora mismo alguien resucitase a Galileo éste se volvería a morir del susto al ver lo dócil que se ha vuelto la comunidad científica actual. Posiblemente si siempre se hubiese tenido esta actitud la ciencia moderna no habría llegado a nacer.

Física teórica: guía de lectura I

mayo 28, 2013

Hace poco me solicitaron una recomendación de libros para empezar con la física teórica partiendo de la base de haber estudiado otra especialidad de física. No es la primera vez que me piden algo similar así que voy a dar algunas recomendaciones.

Lo primero que debe hacer cualquiera que se plantee estudiar física teórica es tener una buena base en mecánica cuántica no relativista. Sé que hay gente que sólo ha estudiado una asignatura anual de cuántica en tercero, y que, según donde lo haya estudiado, el nivel es muy bajo. Por poner algunos ejemplos significativos comentaré que hay gente que en el primer cuatrimestre ven toda la pre-mecánica cuántica, una elaboración de lo que se explica en la parte de “física moderna” de secundaria, osea, todo lo que se hizo antes de que se empezase a usar la ecuación de Schröedinger. En mi opinión eso está bien cómo curiosidad histórica, pero poco más. Lo suyo es dedicar a ese asunto una o dos semanas introductorias y luego pasar a la verdadera cuántica. Fruto de dedicar tanto tiempo a esa parte prescindible es que luego, en el segundo cuatrimestre, se quedan muy cortos. Hablo de gente que sólo ve una introducción al formalismo cuántico, problemas típicos en una dimensión (pozos, barreras, efecto túnel) y el oscilador armónico por el método funcional, sin llegar a ver el método de operadores creación/aniquilación que es básico en un montón de aspectos mas avanzados de cuántica.

Para hacernos una idea del nivel que se debería tener en cuántica no relativista comentaré lo que se suele ver (al menos lo que se veía en la licenciatura, ahora con bolonia cualquiera sabe el desastre que han podido hacer xD) en la UAM. En el primer año, tercero, se ve en el primer cuatrimestre lo que esa gente de la que hablé antes ve en el segundo, pero incluyendo alguna cosa más: por supuesto el método de operadores creación/aniquilación para el oscilador armónico y también algo del limite clásico y semiclasico. En el segundo cuatrimestre (la distribución exacta varía según los años) se suele ver el formalismo abstracto de Dirac, una introducción al momento angular, algo de spin, algo de teoría de perturbaciones (los casos mas sencillos), partículas idénticas y, desde luego, el átomo de hidrógeno. Según quien lo de se puede ver alguna cosa más, pero eso, así a grosso modo, sería lo imprescindible.

Luego en cuarto hay dos asignaturas. En el primer cuatrimestre se ven mas a fondo el momento angular, la teoría de perturbaciones, las partículas idénticas, el spin, etc. En general es un temario similar al segundo cuatrimestre de tercero, pero entrando en muchos mas detalles. En el segundo cuatrimestre es casi obligatorio ver teoría de colisiones, con bastante extensión, y luego ya hay otras posibilidades que dependen un poco del año. Se suele ver una introducción a la cuantización del campo electromagnético, y puede que también algo de mecánica relativista (ecuación de Klein-Gordon sobre todo).

Cómo dije antes todo esto es básico e imprescindible. Yo he estudiado esto básicamente por dos libros, el de Yndurain y los dos volúmenes del Galindo Pascual, usando el Landau cómo referencia ocasional en algunos temas. Hay gente que prefieren el Cohen-Tanuhdji. A mi nunca me gustó, entre otras cosas porque es un libro enorme, en dos tomos, y es muy poco práctico usar algo así. Quizás ahora con los tablets me lo pensaría, pero, la verdad, yo si tuviese que estudiar ahora creo que posiblemente usaría un libro mas moderno, el Ballentines (Quantum mechanics, a modern development), que usa el formalismo de espacios de Hilbert equipados (como hace el galindo-pascual, pero de modo mas asequible para quien no tenga una base muy fuerte en análisis funcional).

Bien, eso es para empezar. Pero, por supuesto, hay más, mucho más.

Hay gente que me ha preguntado si es necesario saber a fondo mecánica clásica. En mi opinión, si se ha visto un buen curso de mecánica clásica en segundo, dónde se haya visto con detalle el formalismo lagrangiano, las bases del hamiltoniano, y algo -sin entrar a fondo- de Hamilton-Jacobi, corchetes de poisson, transformaciones canónicas y variables acción-ángulo va servido. En la carrera, en cuarto, hay otra asignatura de física clásica dónde según quien la de se puede profundizar en esos temas, y posiblemente ver algo de fluidos, o de caos. Yo tuve la suerte de que esa asignatura me la dió Enrique Álvarez y vimos sistemas lagrangianos degenerados (o “gauge”). Es decir, aquellos en los que no se pueden despejar de manera unívoca los momentos canónicos en términos de las velocidades. Estos sistemas aparecen en relatividad especial, teorías gauge, teoría de cuerdas, etc. Se tratan o bien por el formalismo de ligaduras de Dirac o por el de BRST. Para un físico teórico es mucho mas útil eso que lo otro, pero, la verdad, es díficil encontrar bibliografía al respecto. Hay otra gente que considera muy importante ver el formalismo de la mecánica clásica mediante geometría simpléctica en variedades. Yo lo conozco, y la verdad, excepto para gente que vaya a trabajar en temas de cuantización geométrica (algo que, por ejemplo, hacen algunos de la LQG) no me parece en absoluto prioritario. En todo caso si alguien quiere verlo las referencias standard son el Arnold y el Tromba (éste con mucho mas detalle matemático)

Otro aspecto que es interesante es ver teoría clásica de campos, en particular electrodinámica clásica. Para esto las referencias suelen ser libros de electrodinámica cuántica que se extiendan en la parte clásica. Yo en particular usé uno de la editorial Mir, que saqué de la biblioteca y no llegué a comprar, y no recuerdo mas detalles respecto a quien era el autor y cuál era el título exacto, pero vamos, hay más. Quizás los primeros capítulos del volumen 2-teoría clásica del campo- del curso teórico de Landau-lipshitz, podría servir sí no se encuentra otra cosa para tener los detalles imprescindibles.

Estas dos asignaturas últimas (mecánica clásica y electrodinámica clásica) si bien son necesarias son algo tangenciales. El core de la física teórica es la teoría cuántica de campos, la física de partículas y la relatividad general (y luego ya la teoría de cuerdas). Vamos con ello.

Empiezo por la mas fácil de cara a hacer recomendaciones, la relatividad general. Un aspecto clave con esta asignatura es la base matemática. Lo mínimo imprescindible sería saber cálculo tensorial a lo Levi-civvitta. Los tensores se solían ver muy por encima en segundo, dentro de métodos matemáticos, pero con los nuevos planes de estudios dejó de verse. De todos modos lo que se veía no era suficiente. Yo, cuando estudiaba segundo de físicas, estudié también dos asignaturas de matemáticas, topología y geometría de curvas y superficies. Luego, en el verano, miré el Sokolnikof de cálculo tensorial, que al final trae una introducción a la relatividad general. Aparte me leí el libro de Einstein en el que explicaba, con algo de detalle matemático, la relatividad general. Luego en tercero estudié por mi cuenta lo que vendría a ser geometría III de la UAM, dónde se ve geometría en variedades, y en cuarto estudié geometría Riemaniana (lo que vendría a ser geometría IV). También ví algo de espacios fibrados y mas topología algebraica, y otras asignaturas de matemáticas, cómo muy por encima teoría de la medida y algo de análisis funcional (de alguna me matriculé incluso). Cuando llegué a quinto la asignatura de relatividad general del primer cuatrimestre tuve a Enrique Álvarez. Empezó con una introducción, desde cero, a variedades, geometría riemaniana (y semiriemaniana, claro xD) y luego, cuando introdujo las conexiones usó el método de Cartan, que no es el que yo había visto en los dos libros que usé para esos temas (el boothby: “Differential geomtry and manifolds an riemanian geometry”, y uno de Bishop & Golberg, “tensor analisys on manifolds”).

Bien, esa fué mi historia. Pero aquí se trata de hacer recomendaciones. Yo recomendaría estudiar el último libro que mencioné, el Bishop & Goldberg, y luego pasarse a los libros de RG. Estos libros suelen traer una buena introducción a la matemática requerida, pero sigo recomendando que previamente se estudie este libro.

Sobre los libros a usar para RG yo haría dos recomendaciones muy claras, y dejaría otro de consulta. El libro por autonomasia es el Wald: “general relativity”. Es muy extenso, y quizás, siendo de los 80, se pueda pensar que es algo antiguo, pero cómo quiera que a partir de los 80 ha habido una escisión en el estudio de la relatividad y lo que unos estudian otros lo ignoran, y viceversa, creo que lo que en ese libro se enseña es lo último sobre lo que hay un consenso unánime. Otro libro, mucho mas corto, que también me gusta bastante el el Strauman: “general relativity and relativistic astrophysic”. El tercer libro que recomiendo es el de Weinberg (no recuerdo el título exacto).

En un primer cuatrimestre se suele ver lo básico, el formalismo matemático, las ideas físicas, las ecuaciones de Einsteins, y la solución de Schwarschild. En un segundo cuatrimestre se veía (creo que ya no se da) cosmología básica, con los modelos de FRW y sus implicaciones en física de partículas. Para eso recomendaría el libro de Weinberg (el de gravitación y cosmología, no el mas moderno que es exclusivo de cosmología, que está muy bien cómo libro de referencia en cosmología, pero es demasiado avanzado para empezar, en mi opinión al menos). Por supuesto el Wald también trae una introducción a FRW, así que se puede estudiar también por ahí. En general el Wald trae mucho más de lo que se explica en licenciatura y mi recomendación es clara, hay que leérselo entero ;).

Cómo ya me va quedando muy larga la entrada dejo para otro día las otras asignaturas, teoría cuántica de campos y física de partículas, y para teoría de cuerdas posiblemente lo suyo sería hacer otra entrada dedicada. Quien me conozca sabe que me da mucha pereza hacer las segundas partes de las entradas, así que paciencia ;).


Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 26 seguidores