Posts Tagged ‘supercuerdas’

Una guía compacta a la compactificación

diciembre 30, 2016

En su momento escribí una entrada sobre la forma mas básica de compactificación, la teoría de Kaluz-Klein. Sí se quieren mas detalles (en especial cómo aparece, y que papel juega el dilatón) de los que vienen en esa entrada se puede consultar, por ejemplo, la correspondiente entrada de la wikipedia inglesa Kaluza–Klein theory.

Bien, voy a intentar avanzar un poco más respecto a lo que ahí viene y dar una idea un poco global de cómo es el proceso de compactificación. Al intentar dar una idea global dejaré de lado bastantes detalles técnicos, pero tampoco va a ser a nivel de un libro de divulgación para legos sino mas bien en la línea de la entrada anterior.

El siguiente paso, una vez tenemos una teoría guague abeliana U(1), es intentar obtener una teoría no abeliana, para lo cuál vamos a necesitar mas de una dimensión adicional, usando la notación de la entrada anterior descomponemos la métrica en la forma:

g_{MN}= \begin{pmatrix} \eta_{\mu \nu } & \\ & g_{\alpha \beta (y))} \end{pmatrix}

Recordemos que M y N son índices que recorren todas las dimensiones, mu y nu recorren sólo las 4 dimensiones usuales, eta es la métrica de Minkowsky e y denota las coordenadas en las dimensiones extra.

Asumimos que esta métrica es una solución a las ecuaciones de Einstein para el vacío R{MN}=0 o bien, sí permitimos una contaste cosmológica
R_{MN} - \frac{1}{2}Rg_{MN} + \Lambda g_{MN}=0

En el caso de una sóla dimensión adicional la compactificación era única, convertir el eje y en un círculo, ahora tenemos mucha mas libertad. Sí tenemos D dimensiones extra y plegamos cada uno de los ejes coordenados en un círculo tendremos un D-toro (recordemos que el 2-toro tiene forma de “donut” hueco, o de neumático) y, en ése caso, la gravedad de las dimensiones extra se verá cómo una teoría gauge [U(1)]^D. Mas adelante explicaré cómo se obtiene ese D-toro, pero de momento entendamos bien lo que hemos hecho. Cuando las dimensiones extra están descompactificadas ahí opera la simetría del grupo de difeormorfismos de esas dimensiones extra, que es muy grande. Al reducir esas dimensiones a la forma de un D-toro esa simetría de difeomorfismos se ha visto muy reducida, a ese [U(1)]^D. Digamos que el grupo de isommetrías de la dimensión compactificada se ve cómo una teoría gauge con esa misma simetría en las 4 dimensiones.

Cuando las dimensiones extra se compactifican a una geometría mas compleja que un D-toro y no es nada sencillo ver las isometrías de ese espacio. Voy a entrar un poco en algunos detalles matemáticos, elementales, pero que no siempre se comentan en los libros de física sobre el proceso de compactificación (sobre los detalles de las isomerías hablaré en otra entrada). Lo primero es el origen del término “compactificar”. Hace referencia al concepto topológico de espacio compacto. Lo escribí en la entrada que dediqué a un libro sobre la conjetura de Poincaré pero lo reescribiré aquí, para hacer ésto mas autocontenido.

Las nociones de continuidad en cálculo se suelen dar en términos de epsilones y deltas, pero eso en esencia es hablar de entornos abiertos de la recta real, y el caso es que si uno lo analiza uno usa sólo 3 propiedades básicas de los abiertos.

Una topología es recoger esas tres propiedades y convertirlas en axiomas.

Sea X un conjunto y sea Y={Xn} una colección finita o infinita de subconjuntos de X, X e Y forman un espacio topológico si
i. el conjunto vacío e Y pertenecen a Y
ii. Cualquier subcolección finita o infinita {Zn} de Xn tiene la propiedad de que la unión de todos los Zn pertenece a Y
iii. Cualquier subcolección finita {Zm} de los Xn tiene la propiedad de que su intersección pertenece a Y.

Los Xn son los abiertos de esa topología. Conviene hacer una pequeña distinción, que no siempre se explica en los libros de topologia/geometría para físicos. Los intervalos epsilón y deltas del cálculo de una varible, y sus generalizaciones elmentales, los discos abiertos de radio epsilon/delta en el plano, las bolas abiertas en tres dimensiones, etc, son un tipo especial de abiertos, pero, ciertamente, hay conjuntos que son abiertos y no son de esa forma. Esos subconjuntos especiales de la topología forman una base de la misma.

Bien, una vez que tenemos definidos los abiertos cualquier definición que hagamos en términos de esos conjuntos va a ser una definición topológica. Por ejemplo se dice que un conjunto es cerrado cuando su complementario es abierto. Otra noción topologica de interés es la de compacidad. Intuitivamente en \mathbb{R} un compacto va a ser un conjunto cerrado y acotado (la distancia entre dos cualesquiera de sus puntos es finita).

Pero como dije una noción topológica debe darse en términos de los abiertos. Vamos a ello.

Primero debo explicar la idea de recubrimiento. Dado un subconjunto, S, de un espacio topológico, X un recubrimiento de S es una colección de conjuntos abiertos Rn tal que S esta incluido en la unión de todos los Rn. Se dirá que un conjunto es compacto cuando todo recubrimiento del mismo admite un subrecubrimiento (un cubrimiento con un un subconjunto de la colección recubridora)finito. La noción de compacidad es útil por muy diversos motivos. Una es que, por el teorema de Heine-Borel, podemos caracterizar los cerrados y acotados, un tipo de conjuntos interesante, mediante esta propiedad.Oto aspecto útil es que si queremos demostrar algo sobre un compacto nos basta demostrarlo sobre cualquier elemento del conjunto recubridor y asegurarnos de que la propiedad demostrada no se pierde cuando tenemos una unión finita de esos elementos. Es importante hacer notar que como en un compacto todos los recubrimientos admiten subrecubrimiento finito podemos elegir los Rn de la forma que mas nos convenga.

Tan importante es la noción de compacidad que la mayoría de resultados toopológicos van a estar referidos a espacios compactos. Los no compactos son mucho mas difíciles de estudiar.

Entonces la idea de la compactificación es coger un conjunto que no es compacto, por ejemplo la recta real, que no es acotada, y por tanto, según el teorema de Heine-Borel no es compacta, y convertirla en un conjunto compacto por un procedimiento bien definido, en este caso identificar los dos puntos del infinito a la “izquierda” y “derecha”. Sí cogemos un folio e identificamos dos lados opuestos obtenemos la superficie de un cilindro (sin las tapas). Sí en ese cilindro resultante identificamos los dos círculos opuestos obtenemos un 2-toro.

ES interesante que, en el caso anterior, tanto el folio (un rectángulo con sus lados incluidos) cómo el toro son compactos así que aquí no estaría del todo justificado el término “compactificación”. Pero sí nos imaginamos que el rectángulo es infinito, es decir, es el plano real, entonces sí estamos convirtiendo ese plano, que no es compacto, en un toro, que es compacto. Realmente el proceso de compactificación de un rectángulo aunque no cambia la compacidad del rectángulo si cambia otras propiedades topológicas del mismo, por ejemplo la conectividad por arcos (la explico en la entrada sobre la conjetura de Poincaré). El rectángulo es contractible (cualquier círculo que dibuje dentro del mismo se puede contraer a un punto sin salirse del rectángulo) mientras que en el toro no es así (de hecho hay dos familias de círculos que no pueden contreaerse a un punto). No daré mas detalles sobre ésto ahora (en el post sobre la conjetura de Poincaré comento más al respecto) pero no deja de ser un hecho interesante, que tiene muchas implicaciones en topología y en física.

Uno, bastante conocido, es que, en teoría de cuerdas, en particular para la cuerda heterótica compactificada en un Calabi-Yau, el número de generaciones de partículas es igual a la mitad de la característica de Euler-Poincaré de el espacio de compactificación M &latex\frac{1}{2}\chi (M))$. Esta constante apareció por primera vez en el trabajo sobre teoría grafos que hizo Euler para, entre otras cosas, resolver el problema de los puentes de Königsberg. Para un grafo la expresión de la característica de Euler es \chi= C - A +V donde C, A y V son los números de caras, de aristas y de vértices respectivamente.

Cómo una superficie puede ser triangulada se puede definir esa constante en términos de la constante de Euler de la triangulación de la misma. No obstante, para una superficie, o una variedad n-dimensional, es mejor definir la constante en términos de los grupos de homología o cohomología. Primero se define el n-ésimo número de Betti &latex b_n$ cómo el rango del n-ésimo grupo de homología. En términos de esos números la característica de ÇEuler es la suma alternada de los números de Betti, es decir, tiene la expresión \chi =\sum_{i=0}^{n} (-1)^{i}b_i. También, mediante la dualidad de Poincaré, se podría escribir en términos de grupos de cohomología, así cómo en otras formas mas sofisticadas, pero éso ya sería irnos demasiado del propósito de la entrada.

Otro ejemplo es el uso de “Wilson loops” (o Wilson lines), osea, holonomías sobre círculos, que cuando el espacio no es conexo por arcos pueden usarse para reducir la simetría de un grupo gauge de una manera diferente al mecanismo de Higgs. Este procedimiento se usa de manera habitual en la fenomenología de la cuerda heterótica.

Por cierto, el plano real puede ser compactificado de manera natural de más de una forma. Un proceso muy típico sería la compactificación por un punto, el punto del infinito, es decir, cogemos todos las regiones del plano que “están en el infinito” y las convertimos en un punto. El espacio resultante sería una esfera. Es un proceso algo mas complejo de visualizar, y para ayudar a entenderlo vendría bien que explicase la proyección estereográfica, pero espero que con esta imagen os hagáis una idea aproximada.

Al inicio de la entrada mencioné que iba a explicar cómo surgía el D-toro al compactificar cada una de las dimensiones extra a un círculo. Hasta ahora he explicado cómo obtener el toro identificando los lados opuestos de un cuadrado, pero ahí no se ve cómo surge a partir de círculos.

Bien, éso requiere el concepto de producto cartesiano de dos espacios topológicos. Sí tenemos dos espacios topológicos X1 y X2 su producto cartesiano es el conjunto X1xX2={x1,x2}, es decir, el conjunto de pares dónde el primer par, x1, es un elemento de el conjunto X1 y el segundo, x2, es un elemento del conjunto X”. A partir de una base de las topología de X1 y X2 se puede formar una base de la topologia producto tomando el conjunto de todos los pares ordenados posibles formados con los elementos base. En caso de que no se haya entendido muy bien este párrafo tampoco pasa nada, que es bastante fácil de visualizar la explicación que daré ahora.

Si tenemos dos círculos S^1 y S^2, el toro es el producto cartesiano de esos dos círculos T^2=S^1xS^2. Intuitivamente podemos pensar que cogemos uno de los círculos y cada uno de los puntos de ese círculo lo hacemos girar 360 grados alrededor de otro círculo perpendicular. Se puede visualizar en el siguiente dibujo bastante bien la idea.

Obviamente un D-toro es la generalización de esa idea, osea, un producto cartesiano de D círculos, cada uno de los cuales se obtiene al compactificar cada uno de los ejes coordenados.

Una definición mas precisa de la topología de identificación requeriría una entrada de un blog por si misma, pero al menos espero que con ésto quede mas claro el origen del término y los ejemplos den una idea de cómo se visualiza.

Introducción a la supersimetría II: El modelo de Wess-Zumino

julio 14, 2014

Continúo con el tema de los posts de supersimetría traídos del otro blog. En realidad este se ve correctamente allí porque ya había añadido matajax, que por ahora sigue funcionando, a mi plantilla de blogspot, pero por completitud, y en previsión de que termine fallando el plugin, lo dejo por aquí también.

Continuo el tema introduciendo una realización de dicha supersimetría en términos de un lagrangiano sencillo, lo que se conoce como el modelo de Wess-Zumino. Quien no tenga muy recientes sus conocimientos de teoría cuántica de campos, y en particular los tipos posibles de spinores, puede leer sobre ello en esta entrada.

Este va a constar de dos campos, un campo escalar complejo \phi formado por dos campos reales A y B, \phi=(A+iB/\sqrt{2}) y un campo spinorial de Majorana \psi . Ambos campos van a carecer de masa. El motivo para ello es que en la naturaleza no se ha observado la supersimetría, lo cuál indica que caso de existir, la supersimetría debe estar rota. Se supone que las partículas supersimétricas de las partículas conocidas habrán adquirido masa a través de un proceso de ruptura de esta supersimetría. Con estos ingredientes el término cinético de nuestro lagrangiano será.

1.L= \partial^{\mu} \phi^*\partial_{\mu}\phi ~ + ~ 1/2i\bar\Psi\displaystyle{\not} \partial \Psi

Ese lagrangiano es invariante bajo una transformación SUSY global:

2. \delta A=\bar\epsilon\psi \delta B=i\bar \epsilon\gamma_5 \psi

\delta \psi=-i\gamma^\mu[\partial_\mu (A + i \gamma_5B)]\epsilon

Donde \epsilon es el generador infinitesimal (asumo que el lector esta familiarizado con como surgen los generadores infinitesimales de simetrías en mecánica cuántica y su relación con las simetrías globales a través de la exponenciación) de la supersimetría, un spinor infinitesimal de Majorana.

Puede verse que, como se espera de una supersimetría, esta transformación nos cambia campos bosónicos en campos fermiónicos. Para ser supersimétrica el lagrangiano debe ser invariante bajo esta transformación. Se puede verificar que bajo ese cambio la variación del lagrangiano es:

3. \delta L=\partial_\mu[1/2\bar\epsilon\gamma^\nu(\displaystyle{\not}\partial(A + i\gamma_5 B))\psi]

Este delta L es una derivada total y por tanto no contribuye a la variación total de la acción y , como anunciaba, hace que 1 sea un lagrangiano supersimétrico. En general los lagrangianos supersimétricos no pueden ser invariantes bajo supersimetría, salvo que sean constantes, y siempre debe entenderse la invarianza en el sentido de que su variación es una derivada total.

Este lagrangiano es adecuado para partículas libres. Si añadimos interacciones se encuentra que le conmutador de dos transformaciones no es cerrado fuera de la capa de masas, y por tanto no es adecuado. Para paliar eso deben añadirse dos campos bosónicos extra, normalmente designados F y G, cuyo lagrangiano es:

4. L= 1/2F^2 + 1/2 G^2

La solución de la ecuación de Euler Lagrange asociada al lagrangiano 4 es F=G=0 y por tanto estos campos no tiene estados en la capa de masas, intervienen en la teoría sólo como partículas virtuales intermedias.

Se ha descrito hasta ahora como sería el lagrangiano para partículas sin masa. Nada impide construir el lagrangiano para partículas con masa. El término de masa tendría la forma:

5. L _m= m(FA + GB -1/2\bar\psi \psi)

La forma mas general de un término de interacción -renormalizable sería.

6. L_i= g/\sqrt{2}[FA^2 - FB^2 + 2GAB - \bar\psi(A - i\gamma_5B)\psi]

Este sería el modelo elemental de Wess-Zumino. Si uno pretende hacer teorías de campos supersimétricas realistas debería trabajar con fermiones quirales zurdos. No es especialmente complicado hacerlo, y repitiendo los pasos uno llegaría a una expresión de los lagrangianos anteriores en términos de esos fermiones quirales. El aspecto más interesante de ese desarrollo es que uno termina con un lagrangiano que puede expresarse de la forma:

7.L = L_K - |\partial W/\partial \phi|^2 ~ - ~ 1/2(\partial^2 W/\partial \phi^2\psi^T_L C \psi_L + herm.conj)

Aquí L_k sería el término cinético para los campos correspondientes y W sería lo que se conoce como el superpotencial. Este juega un papel importante en muchas discusiones sobre supersimetría y será tratado con mas detalle en ulteriores entradas. Por ahora decir que para el modelo sencillo que estamos considerando aquí su expresión más general sería:

8.W= 1/2m\phi^2 ~ + ~ 1/3 g\phi^3

En esta entrada se ha presentado el que posiblemente sea el tratamiento mas sencillo posible de la supersimetría. Actualmente es muy común usar el formalismo de supercampos. Este se basa en la noción de superespacio. El superespacio es el resultado de añadir a las componentes geométricas normales unas componentes “fermiónicas” representadas como variables de Grassman. Un supercampo dependería de ambos tipos de variables. Dadas las peculiares propiedades de las variables de grassman es muy sencillo ver que un desarrollo en serie en términos de las mismas es finito y que, por tanto, se puede dar una expresión general para un supercampo. Cuando se hace eso para campos que solamente tengan spin 1/2 y y 0 se puede ver que el modelo de supercampos obtenido es equivalente a el modelo de Wess-Zumino presentado aquí. Si además se impone que los campos fermiónicos sean quirales se obtiene la versión quiral del modelo de Wess-Zumino. El supercampo que cumple esas características es conocido cómo “supercampo quiral”. Por supuesto se pueden hacer construcciones supersimétricas para campos gauge y, de ese modo, teorías gauge supersimétricas y análogos supersimétricos del modelo standard. La extensión supersimétrica mas sencilla de el modelo standard se conoce como MSSSM (minimal supersymetric stadard modell).

Aquí hemos tratado la supersimetría global. Cuando esta se hace local aparece de manera natural la gravitación y tendríamos teorías de supergravedad. Dado que la supersimétria no esta realizada en el modelo standard se asume que si el universo presenta supersimetría debe hacerlo en una versión con supersimetría rota. La ruptura de supersimetría es un tópico complejo, y juega un papel fundamental en la mayoría de modelos fenomenológicos que se postulan para extender el modelo standard de partículas. Indirectamente eso significa que también juegan un papel en las teorías de cuerdas, en sus diversas variantes. Por ejemplo la teoría F, la mas desarrollada a nivel fenomenológico utiliza una variante del mecanismo de supersimetría conocido como modelo de guidicce-massiero.

Se irán tratando esos tópicos en posteriores entradas.

Finalizo diciendo que estos posts siguen principalmente el libro de texto de P.D. B. Collins, A.D. Martin y E.J Squires “Particle physics and cosmology”. A eso he añadido información adicional de los libros de M. Dine “Supersymmetry and superstrings” y el volumen III de el libro de teoría cuántica de campos de Steven Weinberg.

Introducción a la supersimetría

julio 14, 2014

Continúo con la tarea de rescate de entradas del otro blog que han quedado inoperantes por aquello de que en blogspot no hay soporte nativo para latex, ahora toca un par de entradas sobre supersimetría.

Mucho se ha hablado de supercuerdas. Esta palabra consta de dos partes. La parte de “cuerdas” más o menos es algo que todo el mundo puede entender en el sentido de que todo el mundo tiene la idea intuitiva de lo que es una cuerda. La parte “rara” es la de super.

El prefijo “super” se usó mucho en física en una época. Los casos más destacados probablemente sean los superconductores y la supersimetría. Pese a la coincidencia en el nombre no tiene nada que ver uno con otro. Vamos a ver, inevitablemente muy por encima, cómo avanza el tópico, qué es la supersimetría, SUSY para los amigos.

La motivación inicial para esta teoría provino del problema de la jerarquía. ¿Cuál es este problema? En el marco de las teorías de gran unificación, hay una gran diferencia de energía entre la escala de la ruptura de la simetría electrodébil y la de la de la ruptura de la teoría unificada(SU(5) o la que fuera). Si uno se mete en los tecnicismos del mecanismo de Highs esto requiere un ajuste muy fino de parámetros. Y esto es algo que siempre desagrada.

Una forma de solventarlo es la existencia de cierto tipo de campos escalares de masa 0. Pero no hay ninguna buena razón para esto. Lo que si hay es una buena razón para la existencia de fermiones quirales (o quasiquirales), el hecho de que se hayan observado (son los neutrinos). Estos fermiones quirales tiene masa 0. Si hubiera de algún modo una partícula de spin 0 ligada a ellos tendríamos resuelto el problema pués esa partícula debería tener masa 0.

Para esto uno busca que pueda existir una simetría que transforme bosones en fermiones, y viceversa. denotémosla por Q, i.e.

1.  Q|F>=|B>  Q|B>=|F>

Para ilustrar algunas propiedades clave de la supersimetría cojamos un ejemplo muy sencillo basado en un oscilador armónico cuántico que incluya bosones a y fermiones b, que satisfacen las relaciones de conmutación (y anticonmutación):

2.  [a, a^+]=1, [a,a]=[a^+,a^+]=0

\{b, b^+\}=1, \{b,b\}=\{b^+,b^+\}=0

Dónde, por si alguien no lo conoce {x,y}=x.y +y.x.

El hamiltoniano para este sistema es:

3. H=1/2w_B\{a^+,a\} + 1/2w_F[b^+,b]

Siendo un oscilador armónico sabemos cuál va a ser su energía:

4. E=w_B(n_B + 1/2) + w_F(n_F - 1/2)= w(n_F + n_F)

Dónde en el último paso hemos asumido que las w fermiónica y bosónica sean iguales.

Se puede ver fácilmente que que cada estado tiene una degeneración con el mismo número de grados de libertad bosónicos y fermiónicos.

Edto indica que debe haber algún tipo de (super)simetría en el hamiltoniano. Y en efecto, uno puede comprobar que los operadores:

5. Q=\sqrt{2w}a^+b,   Q^+=\sqrt{2w}b^+a

conmutan con el hamiltoniano, es decir:

6. [Q,H]=[Q+,H]=0

Obviamente los operadores Q y Q+ claramente intercambian un fermión por un bosón y viceversa.

Además tenemos que:

7. {Q,Q+}=2H

Pués bien, esta es la esencia de los operadores de SUSY expresados para un caso sencillo de mecánica cuántica no relativista. Pero claramente estamos interesados en mecánica cuántica relativista, i.e. teoría de campos.

Dejaré para otra ocasión cómo se realiza el álgebra SUSY en teoria de campos. Señalar solamente una característica específica de la SUSY no mencionada hasta ahora que tiene un cierto interés.

Desde que empezó a surgir el interés por las teorías gauge, puede que incluso antes, se planteó la cuestión de si había alguna forma de tener un grupo que mezclara las simetrías internas con la simetría del grupo de Poincaré. Coleman y Mandula en 1967 demostraron que bajo supuestos muy generales esto era imposible.

Pués bien, la superismetría escapa este teorema “no-go” pués aparte del los generadores P_{\nu} (momento lineal) y M_{\mu\nu} (momento angular) y Ta (generadores del grupo gauge) incluye los generadores de la supersimetría.

De hecho estos estarán relacionados con el operador momento por la relación:

8. 

Por cierto, para los posibles lectores de exactas decir que en términos matemáticos la supersimetría tiene la estructura de una álgebra de Lie graduada.

Bien, este ha sido un primer contacto con la supersimetría. En la siguiente entrada hablaré del modelo supersimétrico más sencillo, el de Wess-Zumino.

Algunas vueltas de tuerca a la teoría de cuerdas

julio 4, 2014

Una de las cosas mas deprimentes del estado actual de la física de altas energías es la tremenda cantidad de posibilidades a estudiar. En los 80 había el sueño de una teoría unificada, en la que unos principios básicos, grupos de simetría gauge mas amplios cómo el SU(5) y supersimetría nos dieran una teoría única de la que se pudiera sacar todo. Posteriormente la teoría de cuerdas se vió cómo un paso extra hacia la unificación porque en un sólo objeto, la cuerda relativista cuantizada, con aderezo de supersimetría, se tenía que un único objeto (bueno, casi, que había 5 teorias de cuerdas, type I A y B, type II A y B y la heterótica) daba el espectro de todas las partículas. En los 90, con el descubrimiento de las dualidades, que venían a demostrar que esas diversas teorías de cuerdas eran (con matices) equivalentes pareció surgir un nuevo nivel de unificación. Al principio se pensó que la teoría M sería esa gran teoría unificada.

Pero las cosas no fueron por dónde se suponía. Las teorías Gauge de gran unificación empezaron a encontrarse con problemas, la más sencilla, el SU(5), predecía que el protón era inestable y los experimentos que buscan esa inestabilidad han invalidado el modelo. Se han construido variantes, flipped SU(5), SO(10), etc, que producen valores compatibles con la no observación de la desintegración del protón. Luego está el tema de los monopolos (distintos a los de Dirac, aquí son cuasipartículas asociadas a temas de naturaleza topológica-solitones-) que también predicen esa teorías y no se observan. Ahí la solución viene de la mano de la inflación, que habría diluido la densidad de solitones hasta un número de alrededor de uno por unidad observable del universo. Ahora, a raíz de el descubrimiento de modos tensoriales en el fondo de microondas por el experimento BICEP2, parece que hay una evidencia experimental sólida -aún sinconfirmar totalmente- y bastante directa de la inflación, así que ese punto quedaría más o menos zanjado.

En el terreno de la teoría de cuerdas la cosa se fué complicando mucho. En los 80 el paradigma era que se daría con una compactificación de las dimensiones extra de la cuerda heterótica que permitirían obtener el modelo standard, y que, además, nos darían pistas, o incluso todos los detalles, sobre cómo iría todo hasta energías superiores. Pero aunque se ha llegado muy cerca de tener un modelo standard a partir de la heterótica, con bastantes de los detalles, resulta que la forma de obtenerlo no es única, y cada variante predice a altas energías cosas diferentes. También, usando nuevos objetos aparecidos en los 90, las D-branas, y generalizaciones (M-branas de la teoría M, la 7-brana de la teoría F- otra variante de la teoría de cuerdas introducida por Cunrum Vafa) dieron nuevas maneras de obtener el modelo standard, con similar detalle, pero con un comportamiento más allá del modelo standard totalmente distinto entre ellas (aunque todas podrían agruparse en el paradigma de “mundos brana” dónde, simplificando, las partículas del modelo standard viven en 4 dimensiones y el gravitón en más) y completamente diferente al heterótico. Vale, hay dualidades, pero eso no significa que se pueda decir que son “moralmente iguales” esos escenarios, la física según sube la energía cambia totalmente, en algunos de ellos hacia un SU(5).

Y el descubrimiento de la constante cosmológica ya lo lía aún más, y terminamos con un montón de opciones tremendo. Por ejemplo, en el 2008 Vafa y colaboradores hicieron un auténtico tour de force con la teoría F, con bastantes artículos, algunos de más de 100 páginas, que hacían predicciones para el LHC que, lástima, predecían una masa del Higgs en unos márgenes que son incompatibles, por poco eso sí, con lo observado. Y, claro, si estás con un trabajo fijo (una tenure) en una universidad te puedes permitir embarcarte en esa odisea y que luego no salga nada. Pero sí eres un doctorando que intenta hacer algo que te de una plaza, es posiblemente deprimente.

Total, no daré mas detalles, que hay tantas posibilidades, para una teoría general, o incluso para relativamente pequeños campos (cuál es el modelo concreto de inflación, o no digamos ya que partículas forman la materia oscura), que uno se puede perder de mil maneras, sin ningún tipo de guía unificador. Hemos pasado de la gran unificación a la gran diversificación.

Envista de eso, aparte de mantenerse al día en lo que se va haciendo, yo, personalmente, intento pensar si hay algo que, sin renegar porque sí de lo que ya está hecho, si puede todavía haber alguna clave que guíe entre tantas posibilidades, por supuesto sin un éxito remarcable hasta ahora.

Voy a indicar ahora algunas de las ideas que he venido considerando, en particular las centradas en la teoría de cuerdas.

La idea más arriesgada es plantearse la misma teoría, pero con un cambio de paradigma. En vez de considerar que hay un espacio-tiempo y dentro de el unos objetos, las cuerdas, me planteo una opción diferente, pero que lleva a similar matemática.

En las ecuaciones de Einstein R_{\nu\mu} - g_{\nu\mu}R=T_{\nu\mu} tenemos dos elementos, a la izquierda un elemento puramente geométrico, la curvatura, y a la derecha uno asociado totalmente a la materia, el tensor energía momento, asociado a las partículas. Entre esas partículas estaría el gravitón, que sería una fluctuación de la métrica. Digamos que el gravitón da la reacción del espacio-tiempo a si mismo. En la gravedad cuántica inicial, con partículas puntuales, se parte de una descomposición de una descomposición de la métrica en dos partes g_{\nu\mu}= \eta_{\nu\mu} + h_{\nu\mu}. Aquí \eta_{\nu\mu} sería el término de background (en el caso sencillo la métrica minkowsky), y h una fluctuación que, convenientemente cuantizada, sería el gravitón. Antes de seguir una reflexión algo tonta. Esa perturbación de la métrica tiene los mismos grados de libertad que una partícula de spin 2, y por eso se identifica una métrica, la característica de la gravedad con una partícula de spin 2. Lo curioso es que una métrica en geometría es una forma bilineal (o cuadrática, según se mire). Digamos que uno podría plantearse sí no debería pensarse que el observable básico de la gravedad cuántica, que es la métrica, no debería tal vez ser un objeto bilineal en vez de uno lineal. Pero claro, en cuántica los operadores deben ser lineales, y los intentos de hacer una teoría con operadores no lineales tiene muchos problemas, tanto prácticos como conceptuales. Por eso es más sencillo dejarlo correr y quedarse tranquilo con la identificación de la métrica con una partícula de spin 2, que es algo que tiene mas respaldos (teoría de Fierz-Pauli, en la que, recursivamente, a partir de gravitones se llega, más o menos a la relatividad general). La teoria para un gravitón inspirado en una partícula puntual es no renormalizable, pero en su variante en la que el gravitón aparece cómo uno de los modos de vibración de la cuerda da lugar a una teoría consistente, y eso es algo de agradecer.

En todo caso, seguimos teniendo dos objetos, el espacio-tiempo y la cuerda, y, en última instancia, el objeto mas interesante -para justificar la teoría cuanto menos- de la cuerda, el gravitón, es geométrico. Mi idea es ponerlo todo en el terreno del espacio-tiempo. La idea sería darle una cualidad extra, probablemente de naturaleza geométrica, a ese espaciotiempo para dotarlo de una naturaleza dinámica. Si pensamos en esa propiedad extra cómo una especie de “tensión” (con las adecuadas propiedades buenas de transformación) lo que tendríamos es que en el espacio-tiempo habría líneas de tensión. Y, cómo deberían tener propiedades buenas de covarianza esas líneas de tensión serían equivalentes matemáticamente a las cuerdas bosónicas. Digamos que matemáticamente serían el mismo objeto, pero conceptualmente cambiarían. en vez de ser unos entes que están ahí no se sabe porque, y que son extensos, y no se disgregan, por arte de magia, aparecerían de manera natural por resultado de una dinámica del propio espacio-tiempo. Por supuesto ahí habría un punto extra, una dinámica mas fundamental del espacio-tiempo que da lugar a que en este aparezcan líneas de tensión que podemos describir mediante las cuerdas. En este sentido las cuerdas serían sólo una descripción aproximada y habría algo más fundamental.

Por supuesto esa idea tiene muchos problemas. Para empezar porque ese paradigma funciona bien para la cuerda bosónica, pero se complica para la supercuerda. En realidad, si uno parte de un superespacio (añadir coordenadas de Grassman, que están asociadas a fermiones, al espacio-tiempo ordinario) uno podría obtener la supercuerda, aunque, desde luego, la matemática es complicada. Normalmente las supercuerdas se obtienen mediante la imposición de supersimetría en el worldsheet y luego imponiendo condiciones varias, se llega a que hay supersimetría en el espacio target. Pero vamos, en principio se puede obtener un lagrangiano supersimétrico desde el superespacio, y lo mismo para una supercuerda. Si partimos de una teoría gravitatoria en el superespacio podríamos jugar al juego anterior, de líneas de tensión en el superespacio, que serían las cuerdas. Pero, claro, en realidad se puede demostrar que la teoria de cuerdas en su formulación habitual, tiene cómo limites de baja energía las teorías de supergravedad. En ese sentido la cuerda es mas fundamental que la supergravedad. En el paradigma que propongo sería mas rebuscado. Hay una dinámica, que no sabemos, que se asemeja a la supergravedad (da un superespacio al menos), pero que en principio es distinta, y mas complicada. Esa teoría permite hablar de “tensiones” en el superespacio, que, identidificadas cómo cuerdas, dan lugar a una teoría cuyo límite a bajas energías es la supergravedad. Eso nos daría una condición complicada de consistencia.

En fín, realmente no sé si, con lo que he contado hasta ahora, este punto de vista aporta algo, salvo, tal vez que sea mas “natural” y unificado. Ya no hay dos cosas, espacio-tiempo y cuerdas, sólo una, el espacio-tiempo, ergo es más unificado. Y es mas “natural” porque no hay que postular algo tan exótico cómo una cuerda que no se disgrega ¿por qúe no?.

Por supuesto, lo divertido, es que en esa teoría surgen generalizaciones “naturales” que no lo son tanto en la teoría de cuerdas. Para empezar ya no hay motivo natural para imponer que la tensión sea la misma en todos los puntos y, por tanto, en el lagrangiano de la cuerda la T dependería de x T(x). Puesto que la tensión es el único parámetro (en última instancia, no en la práctica) libre de la cuerda, y aquí es simplemente algo que varía de punto a punto, al menos en principio, se pierde la idea de que si supiéramos T, y la suficiente matemática, podríamos deducir todo lo demás, las constantes de la física de bajas energías, correspondientes a compactificaciones/braneworlds concretas. Pero es de suponer que en la teoría geométrica que da lugar a esa tensión habría una constante, y se recuperaría el status quo.

Más divertido aún es pensar en que no hay que pensar que la T deba ser positiva. Habría que plantearse las T’s negativas. Si interpretamos la T cómo densidad de energía, es lo habitual, tendríamos que las cuerdas con T negativa tendrían energía negativa y, por tanto, podrían ser “materia exótica” en el sentido del término usado habitualmente en la literatura de agujeros de gusano.

Y, para cerrar esta entrada, dejo un link a un artículo publicado hoy en arxiv que trata precisamente de la posibilidad de tratar la tensión cómo algo dinámico en la teoría de cuerdas Dynamical String Tension in String Theory with Spacetime Weyl Invariance. Por supuesto en ese enlace el planteamiento y los detalles no están en nada relacionados con lo que yo planteo. Dos de los autores Steindard y Turok, son bien conocidos, aunque no necesariamente bien considerados por todo el mundo (están en la lista negra de Lubos, por ejemplo xD). Digamos que la publicación de ese artículo, que he empezado a leer, y seguiré leyendo ahora, me ha animado a escribir esta entrada, centrándome en las ideas relacionadas con lo que se plantea. Hay mas cosas que me gustaría comentar sobre la teoría de cuerdas, pero ya será cuando se presente la ocasión propicia.

Teorías de Kaluza-Klein

marzo 2, 2014

Voy a exponer cómo la teoría clásica del electromagnetismo, y otras teoría gauge, puede surgir de las dimensiones adicionales. Es lo que se conoce como el modelo de Kaluza, publicado allá por el 1919, con la RG recién salidita del horno.
Antes de ello hablar un poco del electromagnetismo en si mismo. La idea es sencilla, existen en la naturaleza unos campos E y B (eléctrico y magnético respectivamente) que afectan a unos cuerpos que tiene la característica de estar cargados eléctricamente.

El campo eléctrico y magnético se describen por las ecuaciones de Maxwell

\vec{ \nabla } \cdot \vec{E} = \rho \\
\vec{ \nabla } \times \vec{E} = - \frac{\partial \vec{B}}{\partial t} \\
\vec{ \nabla } \cdot \vec{B} = 0 \\ .
\vec{ \nabla } \times \vec{B} = \vec{j} + \frac{\partial \vec{E}}{\partial t}

Dónde \rho es la densidad de carga y j la densidad de corriente (la corriente está asociada a que la carga se desplaza).
Bien, estas ecuaciones implican a los campos. Pero esos campos pueden derivarse de unos potenciales. La idea sencilla es que la variación de esos campos en el espacio de un punto a otro es lo que genera que haya una fuerza. Esa variación de un punto a oro se traduce en la derivada, claro. Así pues podemos expresar B y E en términos, respectivamente, de un potencial (tri)vector A y un potencial escalar V. Con estos podemos formar un cuadripotencial vector A4=(-V,A3).
La expresión exacta de los E y B en términos de los A y V es:

\bf{B}=\nabla \times \bf{A}

\bf{E}=\frac{\partial{\bf{A}}}{\partial t}-\nabla V

Lo interesante es que esas ecuaciones que definen E y B en términos de A y V no cambian si modificamos :

\bf{A}+\nabla G

V-\frac{\partial G}{\partial t}

Dónde aquí G es una función arbitraria de x,y,z, t. Pués bien, es esta indeterminación de los capos en términos de los potenciales lo que se conoce cómo invariancia gauge. En el caso del electromagnetismo surgió de manera ad hoc. Venia incorporada al introducir el concepto de potenciales. En otro post veremos cómo se puede relacionar esa invariancia con una invariancia bajo fases locales de una función de onda cuántica.

Lo primero es introducir el concepto de compactificar una dimensión. El primero en hacer esto fué Oscar Klein (no confundir con el célebre matemático Felix Klein). Si tenemos un campo escalar $ \Phi (x,y) $ dónde x representa el espaciotiempo normal e y una dimensión adicional de tipo espacial requerimos:

\Phi (x,y)= \Phi(x,y + 2\pi)

De esto se sigue que podemos expandir \Phi en serie de Fourier

\Phi(x,y)= \sum_{n=-\infty }^{n= \infty } \Phi_n(x)e^{iny/r}

A consecuencia de la teoría cuántica, en un estado con un n dado la componente y del momento debe ser O(|n|\hbar/r) . Así para un radio lo suficientemente pequeño, r, sólo el estado n=0 aparecerá en el mundo de la física de “bajas energías” (i.e. E\ll\hbar c/r ).

En su versión moderna las teorías de Kaluza-Klein se materializan en las dimensiones extra de las teorías de cuerdas. En las primeras versiones, previas a la “segunda string revolution”, se consideraba que el radio de compactificación debía de ser del orden de la longitud de Planck, es decir:

r \approx l_P \equiv (\hbar G_N / c^3 )^{1/2} \approx 1.6 \times 10^{-35} m

De ese modo la masa de los estados excitados ( n \not= 0) serían del orden de la masa de Planck M_P \approx 10^{19} GeV/c^2 , lo cuál sería imposible de obtener con los colisionadores actuales, o los fabricables en un futuro cercano. En la segunda “string revolution” se introdujeron objetos cómo las D-branas, se comprobaron dualidades entre diversas teorias de cuerdas, surgió la teoría M, etc. Algunos de esas ideas llevaron a que la gente considerase la posiblidad de que alguna, o algunas, de las dimensiones extra del espacio-tiempo pudiera tener una dimensión mesoscópica (a medio camino entre lo macroscópico, digamos algo submilimétrico, y la longitud de Planck). En ese caso, entre otras cosas, los modos de Kaluza-Kklein de algunas partículas (los modos con $late n \not= 0 $, podrían tener masas similares a las alcanzables en el LHC. Hasta ahora no se ha observado ningún signo de esos modos en las colisiones efectuadas a 8 TeV, así que hay límites severos para el tamaño de esas dimensiones mesoscópicas.

El modelo de Kaluza parte de considerar un espacio de 4 dimensiones espaciales y una temporal y compactificar en un círculo una de las espaciales. Denoto con M, N índices en 5 dimensiones y con \nu \mu en 4.

Tenemos por tanto una métrica en 5 dimensiones g_{MN} que vista desde 4 dimensiones se descompone del siguiente modo:

1. g_{\nu\mu} La métrica habitual en 4 dimensiones.

2.g_{\nu4}=g_{4\nu} Un campo vectorial en 4 d.

3.g_{44} Un campo escalar en 4 d.

Denotamos x4 cómo y. Kaluza impuso la siguiente condición:

4.\frac{\partial g_{MN}}{\partial y}=0

¿Por qué? Bien, esto simplemente implica que los campos no dependen de la coordenada y. Por supuesto la coordenada y esta compactificada a un círculo, es decir se identifican los puntos y e y +2.pi.r .

Cómo puede sospecharse fácilmente adónde queremos llegar es a que se puede identificar el campo vectorial de la ecuación 1 con el cuadripotencial del campo electromagnético A_\nu .

Para que la idea funciones se expande la métrica en términos de una serie de Fourier en la coordenada y:

5.g_{MN}(x,y)=\sum_n g_{MN}^n(x) .e^{iny/r}

Ahora lo que se hace es una parametrización de la métrica, digamos una descomposición en la que queda:

6. g_{44}=k. \Phi
7.g_{4\nu}=k.\Phi.A_\nu (y el antisimétrico)
8. g_{MN}=k.g_{\nu\mu} + \Phi.A_\nu

y dónde k=\Phi^{-1/3}

Escrito en forma matricial esto es

g_{MN}^{(0)} = \phi^{-1/3} \left( \begin{array}{cc}  g_{\nu\mu} + \phi.A_\nu & \phi A_{\nu}  \\  \phi A_{\nu} &  \phi   \end{array} \right)

Bien, esta es la métrica, pero la métrica es sólo parte de la historia. Lo que nos da la dinámica es la acción. Partimos de la acción para la ecuación de Einstein en 5 d que básicamente, y salvo factorcillos, es la integral de el escalar de Ricci asociado a esa métrica.

Lo interesante es que en las ecuaciones 6,7, 8 hemos descompuesto la métrica 5 d en términos de cantidades 4d.Si calculamos el escalar de Ricci manteniendo explícitamente la presencia de esos campos 4 d obtenemos que la acción queda de la forma:

S=-(2\pi.r)\int d^4xe/2G^2_5\left[ R + 1/4   \phi F_{\nu\mu}F^{\nu\mu} + 1/6\phi^2\partial^\nu\phi\partial_\nu\phi \right]

Dónde F_{\nu\mu} es cómo podría esperarse el tensor campo electromagnético asociado al cuadrivector A_\nu Y G es la constante gravitatoria en 5 dimensiones.

Así pues la invariancia bajo GCT (general coordinates transformations) de la gravedad en 5 dimensiones se traduce en que cuando una coordenada se compactifica en la aparición de un campo que cumples las mismas ecuaciones que el campo electromagnético y que por tanto tiene una invariancia gague local. Es decir, una invariancia interna aparece en este formalismo como una consecuencia de una invariancia externa al compactificar.

No he puesto todos los detalles, que llevaría mucho tiempo, pero espero que con esto se coja bien la idea.

De todos modos esta idea es sólo una pequeña parte del asunto de la compactificación. Nos hemos ocupado solamente de qué pasa cuando la métrica se compactifica, pero ¿qué pasa cuando se copactifica un campo cúantico fermionico sin masa? Más interesante aún ¿qué pasa si se compactifica un campo que ya en 5 dimensiones es un campo gauge?

En fín, muy rico el mecanismo este de la compactificación, sirva este post para coger una mínima idea de las posibilidades y complejidades que conlleva.

Leonard Susskind: Black holes y teoría de cuerdas (libro)

septiembre 23, 2013

An Introduction to Black Holes, Information And The String Theory Revolution: The Holographic Universe

El tema caliente -literalmente un muro de fuego- de este verano ha sido la propuesta de Polchinsky, Sully y dos autores más en las que se planteaban si en el interior de los agujeros negros antiguos (de edad superior al tiempo de Page, definido cómo aquel en el que se ha emitido la mitad de la masa en radiación Hawking, había un firewall en el que cualquier objeto que cayese en el agujero negro sería inmediatamente vaporizado. Eso iría en contra del principio de complementariedad que afirma, dicho de un modo intuitivo, que un observado no percibirá nada especial cuando atraviese el horizonte de sucesos de un agujero negro lo suficientemente grande, hasta que sea aniquilado en la singularidad central, claro. El artículo en cuestión es Black Holes: Complementarity or Firewalls?. La wikipedia se ha hecho eco rápidamente de la controversia firewalls en la wiki. El tema ha generado bastante polémica, con gente a favor y en contra. Lubos ha tratado el tema varias veces en su blog, y es de los que está en contra. Susskind, autor junto a ‘t Hoof del principio de complementariedad ha intervenido activamente en la polémica y hasta le ha llevado, a afirmar hace unos pocos días en un congreso, que la teoría de cuerdas, tal cuál está actualmente, no ofrece respuestas a todas las cuestiones sobre la gravedad cuántica. Polchinsky, el autor principal del artículo de los firewalls, ha expresado una opinión similar. Esto implica, entre otras cosas, que se pone en duda la validez absoluta de la correspondencia AdS/CFT de Maldacena. Todo esto, como cabría esperar, ha exasperado a Lubos, que considera que la comunidad de teóricos de cuerdas en la última década han perdido integridad moral, rigor (ya no respaldan las intuiciones con cálculos) y si le apuran hasta el mojo (Austin Powers dixit xD).

Sin duda cualquiera que este metido en la física teórica actual estará familiarizado con los términos que he usado en la descripción de la polémica de los firewalls. Ahora bien, también es posible que si no trabajan en ello (o incluso si trabajan en temas muy cercanos, pero no exactamente en ello) no hayan leído una introducción formal y dedicada a esos temas. Sin duda habrán leído sobre el cálculo de entropia en agujeros negros mediante teoría de cuerdas y sobre la conjetura de Maldacena en los libros/cursos generales sobre teoría de cuerdas. Y habrán leído algún review de tal o cuál tema implicado en algún artículo, y habrán leído debates sobre aspectos concretos en los blogs. Pero tal vez no hayan leído una presentación dedicada sobre el asunto en la que se de una introducción a todos los temas de una manera mas o menos autocontenida. Pues bien, justo eso hace el libro de Susskind (y Lindesay).

Se puede leer el índice, y alguna página, en google books

Por comodidad de referencia, y para que la gente sepa los detalles, hago un copy & paste del índice.

The Schwarzschild Black Hole
3
Scalar Wave Equation in a Schwarzschild Background
25
Quantum Fields in Rindler Space
31
Entropy of the Free Quantum Field in Rindler Space
43
Thermodynamics of Black Holes
51
The Stretched Horizon
61
The Laws of Nature
69
The Puzzle of Information Conservation in Black Hole
81
Horizons and the UVIR Connection
95
Entropy Bounds
101
The Holographic Principle and Anti de Sitter Space
127
Black Holes in a Box
141
Entropy of Strings and Black Holes
165
Bibliography
179
Página de créditos

Podemos decir que el libro se divide en dos grandes partes, la primera, que ocupa hasta el tema “entropy bounds” discute los aspectos clásicos y semiclásicos de la teoría de agujeros negros. Empieza discutiendo el agujero negro de Schwarschild, en varios sistemas de coordenadas. Enseguida pasa a sistemas que describen el agujero en el entorno del horizonte. Luego empieza a tratar los campos cuánticos en el entorno de un agujero negro la cuál lleva al famosísimo resultado de Hawking de que los agujeros negros emiten radiación. El tratamiento que hace del tema es muy, muy diferente al del artículo original de Hawking. No se mencionan en ningún momento las transformaciones de Bogoluivob que son clave en el trabajo de Hawking. Elige usar el formalismo de la matriz de densidad, a la cuál hace una introducción (conviene leerla porque los detalles de la exposición que da son ligeramente diferentes de otros libros, por ejemplo del de mecánica cuántica de Yndurain).

Luego va haciendo un paseo sobre diversas propuestas que se han ido haciendo, como el “stretched horizont” que es una zona de entorno a la longitud de Planck alrededor del horizonte de sucesos en la que habría una gran temperatura y tendría naturaleza cuántica. Esta idea (que suena similar a los firewalls, pero no lo es en absoluto) ha sido descartada hace tiempo y su interés es histórico. Luego ya se mete en consideraciones generales sobre el destino final del agujero negro (discutiendo diversas opciones), explica porque esa evaporación Hawking pone en problemas la evolución unitaria de la mecánica cuántica, etc. La exposición es clara y da bastantes detalles interesantes sobre diversos aspectos.

Luego, en la segunda parte, hace una introducción a diversos temas relacionados con la teoría de cuerdas. Por supuesto no hace una introducción a la teoría de cuerdas en sí (algo imposible en un libro de poco más de 100 páginas) y asume que el lector está familiarizado con ella. Empieza hablando del principio holográfico (del cuál es coautor junto a ‘t hooft, lo mismo que sucedía con el principio de correspondencia). Este principio afirma que la física del interior del agujero negro está codificada en su horizonte de sucesos, lo mismo que pasa con los hologramas, que almacenan en dos dimensiones información sobre 3. Ahí, cómo en otros puntos, es relevante la mecánica estadística y los conceptos de entropía e información, que son cuidadosamente analizados por Suskind en diversos puntos del libro.

El tema estrella es la conjetura AdS/CFT, o conjetura de Maldacena. Este es un tema muy amplio, y un tanto difuso en mi opinión. He leído sobre él en los libros de texto de cuerdas habituales, y había leído un review. Éste verano he leído algún review más (ninguno por debajo de 40 páginas) y aunque coinciden en unos cuantos aspectos varían en otros, y cada uno cuenta una cosa. Pues bien, el capítulo correspondiente de éste libro es una introducción más, que está muy orientada a el objetivo general del libro. Está bastante bien hecha y lidia con amenidad (al menos tanta como se puede hacer con el tema xD) con la definición de la frontera conforme del espacio de anti de Sitter. Antes, por supuesto, ha hecho una introducción general a dicho espacio, y en capítulos anteriores ya había dado una idea de porque ese espacio es útil para analizar el tema de los agujeros negros. En el capítulo de black holes in a box, dónde explica que un agujero negro nunca puede estar en equilibrio termodinámico estable con su radiación de Hawking y que hay una relación matemática con ese “agujero negro en una caja” y el espacio de anti de Sitter.

Explicar que es la conjetura de Maldacena en pocas palabras es casi imposible. Generaliza un poco el principio holográfico y viene a identificar una teoría de gravedad cuántica (teoría de cuerdas en última instancia) en el espacio de anti de Sitter (multiplicado por una 5 esfera en el paper original de maldacena y con un espacio de Einstein, uno en el que el tensor de Ricci es proporcional a la métrica) en caso mas generales) con una teoría gauge en la frontera conforme del espacio de de anti de Sitter (que es una teoria de campos conforme por consecuencia) La conexión conecta el comportamiento a altas energías de una con el infrarrojo de otra.

Luego, ya para ir terminando, recopila lo visto y hace consideraciones y conclusiones. Una idea clave es que la información de la materia que cae parece estar codificada, de manera no local, en la radiación Hawking emitida, y así la conservación de la unitariedad cuántica implica una cierta no localidad. También, cómo aparece de manifiesto en la conjetura de maldacena, hay una conexión entre comportamientos a altas energías con el comportamiento a bajas energías de otras. Eso es importante porque inicialmente se pensaba que los efectos cuánticos sólo eran relevantes cuando el radio de curvatura del espacio se acercaba a la longitud de Planck. Esa conexión indica que, por contra, hay situaciones en las que los efectos cuánticos serán relevantes incluso para campos gravitatorios relativamente débiles.

Hay que decir que éste asunto de los agujeros negros y la evaporación cuántica es, en principio, muy importante, por aquello de que supone un desafío a la unitariedad de la cuántica, y se supone que la conjetura de Maldacena ha dado una respuesta que salva la unitariedad. Aún así no todos los físicos teóricos están terriblemente entusiasmados con éste tema en concreto, al menos no lo bastante cómo para dedicarse a ello. Yo me incluyo en ese grupo y debo decir que si he leído el libro ha sido un poco por casualidad, por aquello de que no a todos lados puedo ir con el tablet, y éste libro es ligero para llevar y así, poco a poco, me lo he ido leyendo éste verano. La verdad es que, a posteriori, si recomiendo el libro, porque aparte de el tema central del que he hablado se tratan muchos detalles interesantes y curiosos de diversos temas de física que no viene mal saber. Y, desde luego, viene perfecto para situar a cualquiera que esté interesado en meterse en los detalles de la discusión de los firewalls y cómo referencia para entender algunas motivaciones del trabajo de Maldacena.

Strings 2011

junio 28, 2011

Escribo un post “de urgencia” para señalar que se está actualmente celebrando en la universidad de Uppsala (Suiza) la conferencia anual de la teoría de cuerdas que, lógicamente, este año se denomina strings 2011.

Ha comenzado hoy. La charla de apertura ha corrido a cargo de David Gross. La charla está disponible en video aquí. En general esta previsto que todas las charlas estén disponible en vídeo. Al momento de escribir esta entrada los videos disponible pueden consultarse en esta página.

Aún no he tenido tiempo de verlos (me pondré a ello cuando termine de escribir aquí). Si queréis saber de que habla cada conferenciante antes de lanzaros a ver los vídeos podéis consultar los horarios aquí. Aparte de los horarios en esa página podéis encontrar el título de la charla de cada conferenciante. Así puede verificarse que, para hoy, hemos tenido:

David Gross (KITP, Santa Barbara) opening talk
Michael Green (Cambridge University) “Multiloop systematics in pure spinor field theory”
Thomas Klose (Uppsala University) “Recent Results for Holographic Three-Point Functions”
Henrik Johansson (Saclay) “Lie Algebra Structures in Yang-Mills and Gravity Amplitudes”
Fabio Zwirner (University of Padua) review talk “LHC results and prospects from a theorist’s viewpoint”
Niklas Beisert (AEI Potsdam) “Counterterms and E7 Symmetry in N=8 Supergravity”

Posiblemente la que mas llame rápidamente la atención sea la de Fabio Zwiner, por aquello de que en el título está escrito “LHC results”. Al fin y al cabo la física necesita experimentos, y hoy día el 90% de la fenomenología de la física más allá del modelo standard que se está buscando en el LHC proviene de consideraciones de la teoría de cuerdas (y su hermana pequeña, la supersimetría).

Así, sin haber visto las conferencias, veo que Michael Green habla de las spinor strings. Realmente no he leído ningún paper sobre ese tema y todo lo que conozco viene de los blogs de Lubos y el ahora pragmáticamente inactivo Jacket Distler. De hecho el último post de Distler en su blog sobre spinor strings llevó a una disputa dialéctica entre el y Lubos que erivó en que Distler banear a Lubos de su blog. En too caso las “spinor strings” serían una forma alternativa de formular el lagrangiano base de la teoria de cuerdas que se supone que al menos en algunos casos proporcionaría algunas ventajas. Ese tema está ligeramente relacionado, aunque ni mucho menos es lo mismo, con los mas famosos twistor y su uso en teoría de cuerdas y en supergravedad (con N máximal, es decir, en principio teorías no físicas). Este año estuve una temporada mirando el tema de los twistors y la “twistor minirevolution” com la vendió Lubos. Realmente el tema ha causado mucho interés y revuelo (incluso entre gente “rarita” como Matti Pitkannen y MArni Dee Shepphard, de los que hablé en el post anterior. A mi la verdad es que me ha parecido un tema “bonito”, que permite encontrar relaciones entre diagramas de Feynman a un orden dado, sumarlos “todos en uno”, o también entre diagramas a un orden y al orden siguiente. Todo muy interesante, y en algunos casos muy particulares de interés físico hasta permite explicar relaciones previamente obtenidas por otros métodos de una manera mas elegante y generalizable. Con todo aún falta mucho por hacer antes de que eso conecte con algo de interés inmediato y por ese motivo (bueno, eso y mi pereza natural para publicar) no escribí una entrada dedicada sobre el tema. Precisamente por eso he aprovechado que estaba íntimamente relacionado con las spinor strings y he contado ahora por encima de que iba, enmendando un poco mi omisión anterior.

Thomas Klose habla de holographic three point vertex. Debo ser el físico interesado en la teoría de cuerdas al que menos impresiona la holografía y la conjetura de Maldacena. A riesgo de que alguien me de cuatro bufidos me atrevería a decir que ese tema es un caso de “burbuja académica” y que en algún momento debería pinchar.

La charla de Henrik Johansson parece de carácter muy matemático, y de un tema bastante trillado, las álgebras de Lie. Tampoco me entusiasma, la verdad.

La de Niklas Beisert parece ir sobre la hipótesis de que después de todo la supergravedad N=8 si es renormalizable (en contra de lo que se pensaba hace mucho tiempo). Es un tema interesante en el que es imprescindible que se siga trabajando para verificarlo definitivamente. Pero también es un tema muy técnico y muy concreto que difícilmente va a atraer al grueso de la comunidad.

Total, que de hoy recomiendo la charla sobre el LHC y la de las spinor strings.

Si alguien quiere ir ojeando los pdfs de las charlas (las ya dadas y las que están por venir) puede encontrarlos en esta otra página. O al menos eso he creído entender, que la web de esa universidad- como la de la mayoría de las universidades es bastante caótica.

En fin, lo suyo sería que pusiese entradas diarias informando de como transcurre la conferencia. Pero no sé yo si será posible. En principio, aún sin confirmar, me iré unos días de vacaciones a partir del miércoles o el jueves, y no veré los vídeos posteriores hasta la vuelta. En todo caso los blogs de los sospechosos habituales (Woitt para criticar, vixra blog de manera más o menos imparcial, y Lubos -si sus pasiones políticas le dejan- para “sentar cátedra”-dicho sea de manera cariñosa.).

P.S. Es un poco cutre que ni siquiera tengan un logo, que me hubiese podido servir para poner una imagen en la entrada, ya les vale.

Update: Acabo de ver la conferencia de Michael Green en “spinors strings”. Como cabría esperar no he entendido todo, pero me ha servido para hacerme una ligera idea del tipo de cosas que tratan (que al fin y al cabo ese es el propósito de la conferencias). Por lo que he entendido empiezan con un lagrangiano de cuerdas al que le añaden variables spinoriales. La utilidad de eso es que luego pueden hacer una teoría de perturbaciones que sea explicitamente covariante y supersimétrica en el espacio target. Actualmente la mayoria de artículo tratan con teorías de campo efectivas, estudiar compactificaciones, branas y etc, etc. El caso es que normalmente uno no tiene que hacer muchos cálculos con loops (si acaso para estudiar la interacción entre dos branas) y es posible que tenga poco reciente las bases de la teoría de cuerdas perturbativas. La idea es que uno debe sumar sobre todas las superficies (en particular superficies de riemann) que se generan como resultado de evolucionar la cuerda en el tiempo. Los “loops” de teoría de campos se traducen en genus de la superficie (para entendernos, el número de agujeros de la superficie). Eso es a nivel de la worldsheet, claro. Bueno, el caso es que en algún punto, para hacer los cálculos explícitos uno debe elegir un gauge (hacer un gauge fixing). Si no recuerdo mal normalmente se elegía el conocido como “light cone gauge” (gauge del cono de luz). En ese gauge se obtenían las partículas que actualmente forman el espectro de la teoría de cuerdas. También sirven para obtener los “vertex propagators”. Un propagador de vértice es un operador que se representa como un punto en la superficie de Rieman y representa los estados asintóticos (lo que serían las líneas externas en un diagrama de Feynman).

Bien, eso es a grandes rasgos (y si memoria no me ha jugado una mala pasada en los detalles) el proceder habitual en teoría de cuerdas.Evidentemente los cálculos son muy complicados. Uno tiene que eliminar redundancias y ahí aparece el moduli de la superficie de Riemman, el espacio de Teichmuler y todas esas bonitas matemáticas de la base de teoría de cuerdas perturbativas(posiblemente el libro dónde mejor viene explicada esa matemática el de “Quantum field theory of point particles and strings” de Brian Hatfield). Bien, en la formulación spinorial esos diagramas en que aparecen superficies se sustituyen por diagramas en que aparecen líneas. Eso si, sigue habiendo puntos de inserción, que representan vértices. Debo, no obstante, decir que ahí me he perdido un poco ya que en algún momento de la conferencia se pasa de analizar teoría de cuerdas a analizar supersimetría (es decir, teoria de campos para partículas puntuales).

Bien, una vez que está trabajando con supergravedad (maximal) empieza a estudiar en detalle la estructura de loops de esa(s) teoría(s) usando las técnics spinoriales. Y según comenta los cálculos explícitos están hechos hasta 4 loops para todos los grafos posibles y sólo a 5 loops faltan datos Obviamente eso es un auténtico “tour de force”. No comenta nada de los twistors, pero se intuye bastante fácil que si en algún momento hace supergravedad + teorías gauge para la parte gauge los twistors y sus técnicas deben ser de gran ayuuda.

En definitiva, muy interesante, pero desde luego no es algo en lo que yo particularmente quiera profundizar. O, para ser exactos, si dispusiera de mucho mas tiempo si que profundizaría, pero me temo que salvo que algún motivo me obligue a ello tendré que dejarlo estar. Por cierto, si en algún momento encuentro un enlace a las diapositivas (slides) de las conferencias lo pondré por aquí.

Update 2: Ya he visto aproximadamente la mitad de la conferencia de Fabio Zwirner. Es muy, muy diferente a la de Michael Green. Para empezar eta el tema del acento. Por el nombre deduzco que el ponente es Italiano. Par un español resulta mucho mas sencillo hacerse con el acento de este señor que con el de M. Green. Y luego está el punto del nivel de la conferencia. La primera parte de la misma es prácticamente divulgativa. Cualquier que haya leído un libro de divulgación sobre física de partículas (y lo haya asimilado de manera decente) podrá seguirla sin problemas. Nos cuenta los detalles básicos del LHC, de sus dos detectores principales, ATLAS y CMS, y de los secundarios LHC b y Alice y que tipo de cosas buscan cada uno nos explica los conceptos de luminosidad energía de colisión en el centro de masas, etc, etc. Luego analiza los diversos canales por los que se puede explorar nueva física, y algunas comparativias entre el tevatron y el LHC Esto ya es un poco, sólo un poco, mas lioso par el público que venga de divulgación (no sé si los libros de divulgación mencionan cosas como el concepto de partón, que no es que sea especialmente complejo, al contrario, un partón es un nombre genérico para cualquier partícula que haya en el interior de un protón o un neutrón, i.e. un partón puede ser un quark, un antiquark o un gluón). En cualquier caso una conferencia recomendable para casi cualquiera con un mínimo de base en física de partículas por su sencillez y claridad.

¿Está la comprobación experimental de la teoría de cuerdas a la vuelta de la esquina?

junio 1, 2011

Pudiera ser. De las varias evidencias experimentales a 3 sigmas que estaban por ahí pululando una de ellas ha dado un salto a casi 5 sigmas. Podéis leer un análisis del tema en varios blogs. El primero en reportar la noticia fué el de Jester, resonances, en la entrada CDF Wjj anomalie goes 5 sigmas!!!!. El gráfico clave que corresponde a la anomalía de impacto (una traducción posible de la palabra bump) a 150 GeV es este:

Ese factor de certeza suele tomarse como descubrimiento, pero aún conviene guardar un poco de cautela ya que la fenomenología en los colisionadores hadrónicos es compleja, según comenté en una entrada reciente Los problemas de fondo de la física experimental y la fenomenología. La anomalía podría deberse a un mal modelado del fondo de colisiones QCD, pero leyendo en varios blogs parece ser que se ha hecho un trabajo muy cuidadoso en ese aspecto y está casi descartado. También podría ser algún error sistemático del Tevatron, o más concretamente del detector CDF. En cualquier caso el otro detector del Tevatron, D0 podría confirmar o refutar el descubrimiento. También el detector ATLAS del LHC podría confirmar el descubrimiento mediante el análisis de los datos que ya ha tomado.

Sea como sea con los datos actuales hay motivos mas que suficientes para considerar que el descubrimiento muy probablemente es genuino y que, por consiguiente, toca buscarle explicaciones. Y al tratar de buscarlas tenemos un factor extra que da credibilidad a la noticia. Resulta que hay un tipo de partícula que es de modo natural candidata a corresponderse con ese “impacto” es un vector Z’ leptofóbico. Voy a explicar un poco que es eso. En la teoría electrodébil (la que explica la interacción nuclear débil, la responsable de las desintegraciones del núcleo) tenemos tres bosones de intercambio (los mediadores de la interacción). Estos se denotan como W+, W-, que tiene carga eléctrica positiva y negativa respectivamente, y un bosón Z, que tiene carga eléctrica nula. En teoría de cuerdas, cuando uno hace compactificaciones de las dimensiones adicionales que generen el modelo standard de partículas es muy habitual encontrarse que aparte del modelo standard hay una simetría U(1) extra, que se corresponde con bosones con características muy similares al Z, pero con una mayor masa. Estos son los bosones Z’. Digamos que una de las predicciones mas genéricas de la teoría de cuerdas, en la mayoría de su sus aproximaciones fenomenológicas son este tipo de bosones. Por tanto hallar uno de ellos es un punto a favor de la teoría de cuerdas.

Hay una cosa que no he mencionado del Z’, su carácter “leptofóbico”. Esto viene a decir que se acopla más a los hadrones (partículas que interactúan mediante la interacción nuclear fuerte, la responsable de que los quarks formen protones y neutrones y estos, a su vez los núcleos del átomo) que a los leptones (que sólo interactúan por interacción nuclear débil y electromagnética). El motivo por el que el Z’ debe ser leptofóbico es que antes del tevatrón y el LHC se habían hechó búsquedas de este tipo de bosones y no se habían hallado, con lo cuál había cotas experimentales. Eso sí, las búsquedas previas habían hecho uso de interacciones débiles así que simplemente aduciendo que el bosón Z’ tenga una sección eficaz pequeña bajo ese tipo de fuerzas se salta uno las cotas experimentales.

Ya antes de la confirmación a 5 sigmas llevan haciéndose varios modelos de este evento. Algunas usando modelos de teoría de campos inspirados en teoría de cuerdas del bosón Z’. Otros usando opciones diferentes al Z’ (principalmente modelos con squarks, compañeros supersimétricos de los quarks, o con modelos de technicolor, en los que los quarks a su vez son partículas compuestas). Pero, sin duda, lo más natural es buscar modelos puramente “cuerdísticos” de ese evento. Lubos ha puesto hoy una entrada al respecto: Seeing D-branes at the Tevatron and the LHC.

Uno podría preguntarse por el motivo por el que habla de D-Branas en el título en vez de bosones Z’. La causa es sencilla. Los modelos fenomenológicos de teoría de cuerdas que mas consecuencias pueden tener para la física en el LHC son los basados en lo que se conoce como “braneworlds”. Estos son modelos en los que, dicho de manera muy simplificada, las partículas observadas viven en una D3-Brana y sólo la gravedad puede explorar una o varias dimensiones extra que tiene un tamaño que, sin ser macroscópico, son mucho mas grandes que la longitud de Planck. Este tipo de modelos son los que permiten, entre otras cosas, la posibilidad de agujeros negros en el LHC. Para analizar las características generales de estos modelos, al nivel del tipo de partículas que pueden esperarse, hay un artículo genérico: The LHC String Hunter’s Companion que leí en su momento (antes que Lubos, esta vez me he adelantado a él 😉 ). Basándose en ese tipo de modelos ha aparecido un artículo muy reciente que explicaría este bosón LHC en un formato puramente cuerdístico: Stringy Origin of Tevatron Wjj anomaly.

Aparte de esta anomalía hay por ahí pendiente otra, la de la asimetría “adelante-atrás” (es decir, que el número de eventos de un cierto tipo no es el mismo en las dos direcciones de un choque entre un protón y un antiprotón, el tipo de choques que usa el tevatrón). Hay también algún tipo de modelos que pueden explicar esa anomalía en términos de braneworlds. En general hay varios indicios experimentales separados que favorecen este tipo de modelos. Entre otras cosas esos modelos pueden explicar (en los escenarios tipo Randall-Sundrum) la jerarquía (es decir, a causa de que la masa de las partículas, generada por el higgs, sea mucho menor que la masa de Planck). Para eso las dimensiones extra deberían tener un tamaño que sería observable a las energías del LHC y eso es lo que parece estar sucediendo. Eso sí, no todos los aspectos, ni mucho menos, de esos escenarios serían accesibles al LHC. Dependiendo de los detalles el LHC podría ver sólo algunos de los más sencillos y otros serían observables sólo si se incrementa un poco la energía. Con todo, si la interpretación de este Bump Wjj como un vector Z’ leptofóbico se consolida la teoría de cuerdas tendrá un respaldo experimental muy fuerte, y el LHC podría consolidarla aún más. Y en ese caso todo apunta a que con algo mas de energía (un nuevo colisionador) podríamos explorar muchos detalles de esta.

Aún es pronto para lanzar las campanas al vuelo y abrir las botellas de champagne (o, para otros, de gastarse una paga extra en antidepresivos por haber estado atacando durante años a la teoría de cuerdas). En cualquier caso, sea un efecto cuerdístico o no este Wjj Bump parece ser el primer indicador totalmente serio de física mas allá del modelo standard encontrada en un acelerador. Y, por consiguiente, el descubrimiento mas importante en física de partículas en varias décadas. Todavía es tiempo de ser algo prudentes, pero, por primera vez, es mucho mas probable la nueva física que el hecho de estar ante un error.

Multiverso y mecánica cuántica

mayo 20, 2011

Hoy ha aparecido en arxiv un artículo de dos “pesos pesados”, Leonard Suskind y Raphael Bousso sobre la relación entre las bases de la mecánica cuántica y el multiverso: The Multiverse Interpretation of Quantum Mechanics.

El abstract del artíclo es bastante auto-explicativo:

We argue that the many-worlds of quantum mechanics and the many worlds of the multiverse are the same thing, and that the multiverse is necessary to give exact operational meaning to probabilistic predictions from quantum mechanics.
Decoherence – the modern version of wave-function collapse – is subjective in that it depends on the choice of a set of unmonitored degrees of freedom, the “environment”. In fact decoherence is absent in the complete description of any region larger than the future light-cone of a measurement event. However, if one restricts to the causal diamond – the largest region that can be causally probed – then the boundary of the diamond acts as a one-way membrane and thus provides a preferred choice of environment. We argue that the global multiverse is a representation of the many-worlds (all possible decoherent causal diamond histories) in a single geometry.
We propose that it must be possible in principle to verify quantum-mechanical predictions exactly. This requires not only the existence of exact observables but two additional postulates: a single observer within the universe can access infinitely many identical experiments; and the outcome of each experiment must be completely definite. In causal diamonds with finite surface area, holographic entropy bounds imply that no exact observables exist, and both postulates fail: experiments cannot be repeated infinitely many times; and decoherence is not completely irreversible, so outcomes are not definite. We argue that our postulates can be satisfied in “hats” (supersymmetric multiverse regions with vanishing cosmological constant). We propose a complementarity principle that relates the approximate observables associated with finite causal diamonds to exact observables in the hat.
.

No es la primera vez que se ha intentado hacer algo en esta línea. Peter Woit, el autor del blog contrario a la teoría de cuerdas “not even wrong” ha puesto una entrada sobre este artículo Cosmological Interpretations of Quantum Mechanics dónde da un enlace a un artículo del año pasado. En el libro Universe o multiverse del 2003 ya se trataba este tema.

Digamos que lo importante no es que se haya tratado el asunto sino que lo hayan hecho dos físicos tan famosos como Susskind y Bousso.

La idea de este tipo de artículos es más o menos sencilla de entender. En mecánica cuántica la función de onda evoluciona de manera determinista. Sin embargo cuando “colapsa”, es decir, cuando se hace una “observación” el resultado de la medida es incierto y esta distribuido probabilisticamente entre una serie de valores posibles. Una interpretación famosa de ese hecho, distinta a la interpretación escolástica de cophenage es la interpretación de los “muchos mundos” de Everett. En esa interpretación cada vez que se hace una medida se produce un universo nuevo, uno por cada resultado posible de la medida. En las teorías modernas de inflación (la inflacion es una etapa de expansión muy acelerada del universo, requerida para conciliar algunas observaciones cosmológicas del universo en sus primeros instantes) es requerido que no haya una sino muchas, en la práctica infinitas, inflacciones Cada una de estas crearía su propio universo, y el conjunto de todos esos universos el multiverso. La tentación es obvia, unir la interpretación de Everett de la mecánica cuántica y estos modelos de “inflación eterna” o “inflación caótica” de tal modo que cada universo opcional de Everet es un universo real creado por el mecanismo de inflación.

En eete artículo usan, como paso intermedio, la interpretación de decoherencia de la mecánica cuántica. Esta consiste en eliminar los “observadores” y simplemente hablar de dos sistemas cuánticos: uno muy pequeño, con pocos grados de libertad (la partícula o átomo a estudiar) y otro grande con muchos grados de libertad (el sistema de laboratorio y el observador que lo manipula). Ahí el “colapso” de la función de onda es una mezcla (entrelazamiento) de los estados del sistema pequeño con los del sistema grande. La interpretación de decoherencia, en mi opinión es la mas “razonable”, en el sentido de menos metafísica, de las disponibles, pero tiene algunos problemas (que son expuestos en el artículo de Suskind-Bousso. Argumentan que, aparte de los problemas habituales, la deocherencia no funciona en el multiverso. No he leído aún el artículo entero, pero veo que .hacen una llamda al principio de complementariedad de agujeros negros (que dice que la interpretación cuántica del interior de un agujero negro y debe ser la misma, es decir, debe tener los mismos estados cuánticos, para observadores fuera y dentro del agujero negro).

Imagino que Lubos estará a punto de publicar algo sobre este artículo, y sabiendo su poco cario al multiverso no creo que sea una muy favorable (aunque Susskind sea uno de los físicos que mas respeta). A mi particularmente no me atraen tampoco nada este tipo de especulaciones. Leeré el artículo porque sospecho que es de lectura casi obligada y que en el futuro se citará bastante, pero a priori soy bastante escéptico sobre la idea de mezclar la inflación eterna y el multiverso (que me parecen una hipótesis razonablemente fundada, lo cuál no significa que tenga que ser cierta, por supuesto) y los problemas de la interpretación de la mecánica cuántica. En fin, dejo el link porque sé que es importante y posiblemente algunos lectores querrán explorarlo por su cuenta (es un artículo relativamente “asequible”) pero ciertamente no es el tipo de cosas que me entusiasman.

Actualización: Cómo imaginaba Lubos analiza el artículo. Y acerté, no le gusta. Eso sí, me quedé algo algo corto en mis estimaciones sobre el desagrado que le produciría porque su post empieza fuerte, compara el artículo de Susskind-Bousso con uno similar de Smolin. Para quienes no estén al tanto indicar que Lubos considera que Smolin (poseedor de un doctorado en física por Harward y profesor de física en el instituo perímeter) es un chalado incurable y con muy pocas luces. El link concreto a la entrada es este: The Bousso-Susskind hypermultiverse.

Conferencia en la U.A.M. : Gerard t’Hooft- Black Hole Complementarity and the Hierarchy Problem

febrero 15, 2011

En el marco de los coloquios “Paco Yndurain” que organiza regularmente la universidad autónoma de Madrid mañana tendrá lugar un conferencia del premio nobel de física, en el año 1999, Gerard t’Hooft titulada “Complementariedad agujeros negros y el problema de la jerarquía”. LA charla será a las 3 de la tarde en la Sala de Conferencias, Modulo 00 (C-0), Facultad de Ciencias.

Para quienes no le conozcan indica que t’Hooft obtuvo su premio nobel por la demostración de que las teorías cuánticas de campo gauge con simetría rota son renormalizables. Este tipo de teorías son la base del modelo standard de partículas actuales así que su trabajo vino a dar forma definitiva a lo que es el mejor modelo de física de partículas elementales, testado experimentalmente, del que disponemos en este momento. En el momento en que hizo el trabajo por el que recibió el nobel, allá por los primeros 70, había dudas -al menos entre un buen número de gente- de que las teorías gauge, aunque elegantes y bonitas, pudieran representar al mundo real. El problema es que esas teorías no permitían incrporar bosones vectoriales (las partículas que median las interacciones) masivos y era bien sabido que estos eran necesarios para explicar las fuerzas nucleares débiles. Por la misma época Higgs (y otros) habían introducido el mecanismo de ruptura de simetría y Weinberg, Salany Glassgow lo habían aplicado para obtener un modelo de las fuerzas nucleares débiles que se unificaba con el electromagnetismo, la teoría electrodébil con grupo gauge SU(2)xU(1). Pero aún faltaba demostrar que esas teorías eran consistentes matemáticamente y realmente predictivas, osea, renormalizables. Y esa fué la labor de Gerard t’Hooft. Cuenta la leyenda que recién licenciado t’hooft fué a visitar a un profesor suyo, Veltman, para pedirle un trabajo para su tesis doctoral. Veltman le comentó el problema que había con las teorías gauge, pero no le recomendó que se dedicara a ello ya que estaba considerado uno de los problemas más difíciles del momento, sino el que m´s. Según esa misma leyenda t’Hooft no volvió a ver a Veltman hasta dos años después cuando se presento en su despacho para informarle de que había resuelto el problema Sea como sea el resultado era correcto y ese artículo cambió el rumbo de la física teórica de ese momento, que estaba decantándose hacia la teoría formal de la matriz S y dejando un poco de lados las teorías cuánticas de campos, y en particular las teorías gauge.

Posteriormente t’ Hooft y Veltman aplicaron las técnicas que habían desarrollado a la teoría de gravedad cuántica perturbativa, y demostraron que pese a que la gravedad libre (sin materia) es renormalizable a primer orden de perturbaciones (lo que se conoce normalmente como “a un loop”) el resultado no podía extenderse a órdenes superiores y que, por consiguiente, la relatividad cuántica perturbativa basada en partículas puntuales no era consistente según los esquemas ordinarios de la teoría cuántica de campos.

Esos trabajos, y otros posteriores en su trayectoria, han convertido a Gerard t’hooft en uno de los mejores físicos de las últimas décadas. Crear un escalafón de los mejores siempre es algo que tiene un margen de subjetividad, pero en mi criterio los dos mejores físicos actuales serían Ed Witten el “cappo” de la teoría de cuerdas, medalla fields de matemáticas y el propio t’Hooft. Casi a la misma altura pondría al anteriormente mencionado Steven Weinberg y ya después irían algunos físicos de cuerdas como Cunrrum Vafa o Joseph Polchinsky, seguidos de cerca por el famoso Stephen Hawkings.

Preferencias particulares aparte t’Hooft es uno de los grandes del momento, y de hecho uno de los grandes del siglo XX, a la altura de gente cómo Paul Dirac, Pauli, Schröedinger, Heissenberg, Feynman y el resto de los que dieron forma a la teoría cuántica y su generalización, la teoría cuántica de campos. Sin duda una conferencia suya es todo un acontecimiento en si mismo, independientemente del tema que trate, pero para los interesados en asistir voy a dar unas explicaciones previas para que se hagan una idea de por dónde podría ir su conferencia.

Por el título sabemos que trata dos tópicos, y es de suponer que debe haber algún nexo entre ellos, que posiblemente sea un tema en el que él este trabajando ahora.

El primer tópico es el principio de complementariedad en agujeros negros. Este principio creo que es debido al físico de cuerdas Leonnard Suskind, o al menos Susskind es uno de sus máximos defensores. Dicho de una manera sencilla viene a decir que es imposible distinguir el interior de un agujero negro de su exterior mediante cualquier medida local. De todos modos supongo que t’Hooft hablará de un asunto en particular, relacionado con un artículo suyo de Septiembre de 2009: Quantum gravity without space-time singularities or horizons. Ese artículo fué discutido en su momento en el blog de arxiv: Black Holes Cannot Exist in Latest Theory of Quantum Gravity. y para los que no hablen inglés pueden leer una traducción de esa entrada del blog en: Última propuesta teórica: Los agujeros negros no existen.

Bien, esa es posiblemente una parte del tema de la charla. La otra es el problema de la jerarquía. Este problema consiste en lo siguiente. Había mencionado que en las teorías gauge los bosones vectoriales no podían tener masa a menos que hubiera un mecanismo de ruptura de simetría, ocasionado por el famoso bosón de Higgs. Este era el encargado de dar masa a estos bosones. Un primer problema es que la teoría no dicta la masa del bosón de Higgs, ni tampoco los detalles de la masa que este da a las partículas tras romper la siemetría. Estos detalles dependen de una serie de parámetros (por ejemplo el ángulo de Weinberg). Ese es el motivo de que aunque hemos observados los bosones vectoriales asociados a la simetría electrodébil, el W+, el W- y el Z0 no sabemos exactamente que masa debe tener el Higgs, lo cuál dificulta su actual búsqueda en el LHC.

Pero no terminan ahí los problemas. Independientemente de la masa que adquiera el Higgs tras la rotura de la simetría, calculada a primer orden de teoria de perturbacioines, resulta que cuando se hacen cálculos a órdenes superiores se encuentra que la masa del Higgs debería aumentar por efectos cuánticos en la interacción del Higgs consigo mismo. Y esto debería hacer que rápidamente llegara a tener una masa enorme, del orden de la masa de Planck. Y junto con el Higgs deberían ir el resto de las partículas. Realmente en el modelo standard hay un rango de valores de los parámetros en lo que esto no sucede así. Lo malo es que esos valores son “antinaturales” (en un sentido que no entraré aquí a explicar). Y ese es precisamente el problema de la jerarquía. Salvo ese ajuste fino de parámetros sería de esperar que laspartículas del modelo standar tuvieran una masa semejante a la masa de Planck, y no una masa tan “pequeña” como la masa típica de la unificación electrodébil.

Por supuesto ese problema ha sido tratado. Una de las soluciones al mismo, la mas sencilla, y la que todo el mundo considera la mas probable, es la supersimetría. En las teorías supersimétricas a cada partícula del modelo standard se le asigna un compañero supersimétrico, con las mismas propiedades (núeros cuánticos) pero con distinto spin. a los bosones se le asignan fermiones, y viceversa. Por supuesto la naturaleza n es supersimétrica en su fase actual ya que no se han observado los compañeros supersimétricos de ls partículas actuales. Eso significa que debe estar rota. Lo interesante, de cara al tema de la jerarquía, es que si la energía a la que se rompe la supersimetría es similar a la energía de la rotura de la simetría electrodébil entonces, debido a sus muy agradables propiedades como teoría cuántica, la supersimetría estabilizaría el valor del Higgs, impidiéndole irse hasta la masa de Planck sin necesidad de tener que hacer ajustes “antinaturales” en las teorías. Eso sí, la supersimetria requiere, en su forma mas sencilla, que en vez de haber un Higgs haya cinco Higgs (incluyendo sus compañeros supersimétricos). no entraré en detalles de esto, que no merecen la pena para el propósito presente. Sólo decir que muy recientemente se ha creado otro modelo supersimétrico que no requiere la necesidad de 5 bosones Higgs, aunque es un modelo del que aún no se han investigado todos los factores típicos dignos de ser investigados.

Una consecuencia importante de la supersimetría, que tal vez sea mencionada por t’hooft, es que nos proporcina partículas candidatas a ser el constituyente fundamental de la materia oscura, la cuál aún no ha sido observada. De hecho la materia oscura, la supersimetría y el bosón de Higgs son los tres temas candentes de la física teórica actual, objeto de todas las búsquedas, tanto en el LHC cómo en detectores especializados en búsqueda de materia oscura.

Con esto concluyo una presentación somera de los dos tópicos de los que está anunciado que hable t’Hooft. imagino que en su charla él mismo hará un repaso de estos tópicos (sin duda mucho mejor que el mío). Por supuesto la parte mas interesante debería venir después, cuando nos explique porque esos dos tópicos aparecen unidos en la misma charla. Supongo que se debe a que habrá encontrado alguna relación entre ambos. De ser así suena muy prometedor, al menos como “plan de emergencia” si el LHC no encuentra partículas supersimétricas. Digamos que no andamos sobrados de medios de solventar el problema de la jerarquía. Aparte de la supersimetría están los modelos de “mundos brana”, o modelos de Randall-Sundrum, con dimensiones extra de un cierto tamaño que estabilizarían la masa del Higgs mediante el mecanismo de Kaluza Klein. Estos modelos, al igual que la supersimetría, son objeto actual de estudio en el LHC y un resultado negativo en su búsqueda, nos dejaría sin soluciones decentes al tema. Digo “decentes” porque el grupo de teóricos de cuerdas que defienden el principio antrópico dentro del “landscape” de vacíos de la teoría de cuerdas siempre podrán decir que si bien es “antinatural” ese conjunto particlar de valores resulta que, por otro lado, esos valores permiten la existencia de vida, y la existencia de vida inteligente que se plantee esas cuestiones. En los otros tropecientos mil universos (mucho mas probables) dónde hay valores “naturales” de la masa del Higgs no habría vida y no habría gente preguntándose esas cuestiones. Ciertamente si por lo que fuera no se hallasen la supersimetría o los braneworlds en el LHC y sí se hallase el Higgs una alternativa sensata al modelo antrópico tendría buena acogida y aparentemente eso podría ser de lo que nos va a hablar Gerard t’Hooft en la conferencia. Osea, que suena muy, muy interesante y justifica la asistencia a la conferencia (si es que la mera presencia de uno de los mejores físicos del momento no es justificación suficiente).

Para finalizar un apunte curioso. Uno podría esperar que ante un evento tan importante el salón de conferencias este lleno hasta arriba y que la plana mayor de físicos teóricos españoles asistan, para preguntarle a t’hooft sobre posibles fallas en el modelo que nos vaya a exponer. Curiosamente hoy ha comenzado en valencia el congreso “Iberian Strings” en el que estará un buen número de los físicos de cuerdas españoles, con lo cuál se perderán la conferencia de mañana. Ciertamente me parece una mala elección de fechas el hacer coincidir ambos eventos. Sea como sea yo espero asistir a la conferencia de t’hooft, habiéndome leído el artículo sobre agujeros negros que enlacé antes (confieso que en su momento se me pasó leerlo) y comentaré por aquí lo que haya sacado en claro de la misma.

Y nada, todo al que le venga bien la fecha y lugar, que no lo dude, debe intentar asistir, pocas ocasiones (o tal vez nínguna) tendrá de asistir en España a una conferencia con tan potencialmente interesante hecha por un ponente de tanta talla intelectual. Si, siendo de físicas y pudiendo asistir alguien se la pierde, sinceramente, no tiene excusa posible ;).

Update: En vez de hacer un resumén de la conferencia remito a la discusión sobre la misma que se ha producido en el blog de Migui, a raiz de copiar y pegar esta entrada en el foro: Conferencia de t’hoof en la UAM.

Por mi parte comentar que ya leí el artículo sobre agujeros negros y el pricipio de complementariedad que enlacé en el texto (si tengo tiempo haré un post sobre el tema dónde entre en mas detalles de los que dí aquí). Lo primero decir que el principio de complementariedad es una idea del propio t’hooft y no de Susskind (si bien Susskind hizo algunas aportaciones a la idea). Lo segundo dejar claro que no he hecho en absoluto una lista exaustiva de las aportaciones de t’Hoof a la física, sólo las mas pertinente a la charla. Por poner sólo otro ejemplo otra contribución famosa de t’hoof es el principio holográfico para agujeros negros, que se ha materializado, en cierto modo, en la correspondencia de Maldacena en teoría de cuerdas.

Lo tercero, ya que acabo de mencionar a Maldacena hago notar que recientemente han creado un “Einstein test” para intentar buscar mediante algoritmos los mejore físicos del momento. En ese test Maldacena ha salido elegido como el ganador. Ciertamente Maldacena es muy famoso, el artículo dónde establece su correspondencia es el mas citado de todos los tiempos y la correspondencia sin duda es importante. Sin embargo a mi, particularmente, no me parece ni mucho menos un resultado tan fascinante. Y aunque Maldacena ha seguido publicnado cosas interesantes a mi me parece que hay físicos de cuerdas haciendo cosas mas intersantes que él, por eso no lo he citado entre los grandes. Lo digo porque imaginio que alguien le habrá podido echar de menos en mi pequeño ranking de grandes de la física teórica actual.