Posts Tagged ‘supercuerdas’

Compactificaciones inhomogéneas y sus implicaciones físicas

julio 23, 2017

Este año académico he estado leyendo mucho sobre compactificaciones, tanto a nivel de matemática pura (holonomía a fondo, espacios de moduli bastante a fondo y otras cosas bastante recientes de geometría analítica de las que creo que no hay aún nada o casi nada aplicado a la teoría de cuerdas) cómo a nivel de fenomenología, con la idea de trabajar en dos temas bastante concretos, uno puramente matemático y otro muy fenomenológico.

En el proceso, aparte de aprender sobre compactificaciones, he podido entender mucho mejor diversos aspectos de la teoría de cuerdas en general, y, en particular, todo lo de los móduli, que es un asunto bastante clave. También me ha influenciado un aspecto del LHC, el de las fluctuaciones estadísticas. En principio se supone que son sólo éso, pero entendiendo un poco la física de compactificaciones uno podría plantearse que a lo mejor las fluctuaciones tienen que ver con sucesos reales de nueva física, pero que desaparecen con el tiempo porque la física mas allá del modelo standard pueda no ser constante. Por supuesto a muy altas energías la física no variaría, y estaría dictada por la teoría de cuerdas. Sin embargo en regiones intermedias, entre el modelo standard y la energía de Planck, la teoría de cuerdas se manifiesta por, entre otras cosas, las compactificaciones y, tal vez, estas podrían no ser constantes en el espacio o en el tiempo, y, de esa manera, la física efectiva a esas energías intermedias podría no ser constante.

En esta entrada voy a exponer aspectos serios, al menos eso espero, sobre el asunto, y, al final, otros un poco mas exóticos, con consideraciones de un carácter mas anecdótico, aunque tal vez no del todo irrelevantes.

La idea parte de lo más elemental, la idea de Kaluza-Klein es relativamente sencilla de entender una vez se sabe relatividad general. La idea básica es añadir una dimensión espacial extra a las 3+1 del espacio-tiempo y hacer que esta sea un círculo. Sí en vez de 3+1 tomáramos 2+1 tendríamos un plano y a cada punto del plano le añadiríamos un pequeño círculo cuyo radio sería del orden de la longitud de Planck, o algo muy pequeño en cualquier caso. Matemáticamente podemos expresar éso cómo que tenemos un producto cartesiano de espacios topológicos M^4 X S^1 (dónde M^4 es el espacio de Minkowsky en 3+1 dimensiones y S^1 es el círculo). Sí congelamos el tiempo, o aceptamos que la compactificación no varía con el mismo (que es lo que se suele hacer) tendríamos que el espacio es R^3 X S^1

Los círculos de los diversos puntos se agrupan y dan lugar a un cilindro y la métrica de ese círculo, vista desde el espacio de 3 (2 sí estamos en el plano) dimensiones es la del electromagnetismo de Kaluza. Sí consideramos una partícula cuántica que pueda tener momento en la dirección de ese círculo ése estará cuantizado. Desde 4 dimensiones el momento en esa quinta dimensión se verá cómo una masa y una partícula, inicialmente sin masa,va a tener “copias” de diversas masas, múltiplos enteros unas de otras. Siendo relatividad general estamos trabajando con geometría diferencial intrínseca, y, por consiguiente, nos despreocupamos de cómo ese círculo, y el correspondiente cilindro, se pueden “encajar” en las dimensiones extra. También se asume normalmente que el radio del círculo es uniforme. Sí no lo fuera siempre podríamos decir que tenemos lo que se denomina una fibración con base el espacio de Minkowsky y fibra S^1 .

Las fibraciones son un tema matemático que requiere bastante esfuerzo introducir en detalle, y que requiere una buena base previa de geometría y topología a nivel de una licenciatura de matemáticas. De hecho es un tema para un quinto curso (algo que ya no existe en el plan de bolonia) o directamente para cursos de postgrado. Aún así la idea esencial no es terriblemente difícil de entender intuitivamente. Se trata de que a cada punto de un espacio denominado base B se le “pega” una copia de otro espacio F, denominado fibra. Juntando las fibras de todos los puntos se obtiene el espacio total, E, y hay una proyección \pi que va del espacio E al espacio B que lleva cada fibra al punto del espacio B al que pertenece.

En cierto modo las fibraciones son una generalización del producto cartesiano y, de hecho, cuando la fibración es trivial el espacio total E es el producto cartesiano de la base por la fibra E=BxF, pero,en general, el asunto es mas complejo (aunque, localmente, el espacio sí que va a ser siempre un producto cartesiano dela base por la fibra, pero globalmente, en general, no) . Una forma muy sencilla de verlo es cuando el espacio base es un círculo y la fibra es un segmento. En ese caso el producto cartesiano es un anillo (un cilindro sin las tapas, vaya). Sin embargo en general no tiene porque ser así. Sí en cada punto del círculo la inclinación del segmento va cambiando el espacio total no va a ser ya un anillo. Un caso particular es cuando el último segmento está en la dirección opuesta al primero y se identifican ambos segmentos. En ese caso obtenemos la banda de Moëbius.

En las definiciones anteriores he sido muy impreciso. Normalmente se va a imponer que la fibra tenga alguna estructura extra. Por ejemplo sí F es un espacio vectorial vamos a tener un fibrado vectorial. Un ejemplo de éso sería el espacio vectorial tangente a una variedad. Sí la fibra es un grupo (normalmente un grupo de Lie) vamos a tener un fibrado principal. Hay un montón de estructuras extra que se pueden ir añadiendo al concepto de espacio fibrado, y, realmente, es una rama muy fecunda de la matemática, con múltiples aplicaciones a la física. Se puede, por ejemplo, formular una teoría gauge de grupo G cómo un fibrado principal con el mismo grupo. Los campos fermiónicos cargados bajo ese grupo formarían una fibrado vectorial asociado. ES un tema interesante y bonito, pero no es lo que me interesa tratar aquí. Hay libros de geometría y topología para físicos que hacen buenas y extensas introducciones al tema, cómo, por ejemplo, el de Nash y Shen o el Nakahara. También se pueden leer unas definiciones un poco mas formales en la wikipedia

Volviendo al tema de las compactificaciones, sí consideramos que el espacio base M^3 , que no hay dependencia en el tiempo, y por tanto sólo nos importa la parte espacial del espacio de Minkowsky en tres dimensiones, tenemos que la base es R^2. Si tenemos que el radio pueda variar de un punto a otro la fibra es S^1 . Hay que analizar ésto último con un poco mas de detalle si queremos ser rigurosos. Normalmente sólo se habla de espacios fibrados, al menos en geometria y topología diferencial, cuando son o bien fibrados vectoriales o bien principales. Posiblemente en física se suele ser mas descuidado y se admite como fibra “cualquier cosa” y cómo “fibrado” cualquier cosa que localmente es un producto, aunque globalmente no lo sea. Afortunadamente en este caso podemos ser “ortodoxos”. Podemos ver que en el plano complejo (que topológicamente es equivalente al plano real) el círculo son los puntos de la forma R.e^{i\alpha} siendo el producto de grupo la multiplicación de números complejos. Si R=1 tenemos el círculo unidad, pero, en general, para cualquier R (real) tenemos un círculo de ese radio. Por tanto podemos decir que nuestro fibrado es un fibrado principal. Cómo en la condición de fibrado nos preocupamos de que el espacio producto sea localmente un producto topológico, y en topología podemos cambiar libremente los tamaños, no pasa nada porque el radio varíe de un punto a otro.

Por supuesto toda esa consideración anterior sobre fibrados nos la podríamos haber ahorrado y dejar variar el radio del círculo sin mayores consideraciones. Realmente que algo sea un fibrado, en particular un fibrado principal, es útil porque se pueden crear espacios recubridores que caracterizan mediante clases topolóigicas (clases caracteristicas) los diversos espacios totales que se pueden formar con una base y una fibra dada. Dependiendo del tipo de grupo las clases serán de Stieffel-Wittney , de Chern o de pontryagin, y también éso puede ser útil en física de teorías gauge para tratar temas como los instantones y los solitones. Sí lo he incluido es porqué normalmente en la literatura física se trata el tema de forma muy descuidada y me parecía interesante dar algunas explicaciones al respecto.

Realmente el asunto del radio del círculo de la compactificación es un asunto delicado, incluso sí no nos planteamos que varíe en el espacio. En la teoría de Kaluza-Klein es un valor que viene dado y no está determinado por nada dentro de la propia teoría. Sin embargo las cantidades observables en el espacio ordinarios sí van a depender del radio de ése círculo. Por ejemplo, la constante gravitatoria en cuatro dimensiones estará relacionada con la de cinco por la relación \lambda_4= \frac{\lambda_5}{2\pi R} y los valores de las copias K-K de una partícula van a tener masas m_n=\frac{n}{R} . También la constante electromagnética va a depender del radio de ese círculo, y, en general, prácticamente todo ¡Y nada fija el valor de ése círculo!.

Durante bastante tiempo en la teoría de cuerdas nadie se preocupó demasiado del asunto. La primera persona, que yo sepa, que primero insistió en que había que ocuparse de ver cómo debería haber algo que fijara el tamaño de ése círculo fue un famoso crítico de la teoría de cuerdas, Lee Smollin. En terminología de cuerdas el radio de ése círculo es un “móduli” y fijar el tamaño del círculo es “la estabilización del móduli”. El concepto de móduli lo introdujo Riemman, y, más o menos, viene a ser un parámetro, pero, desde luego, la historia es algo mas compleja que éso y la teoría de los moduli es muy rica, a la par que complicada, y no voy a entrar ahora a discutirla matemáticamente. En cualquier caso, usando “compactificaciones de flujo” se ha, más o menos, resuelto parcialmente el problema de la estabilización de los moduli en teoría de cuerdas, aunque al precio de introducir el landscape, pero bueno, ésa es otra historia. Un aspecto interesante es que en las compactificaciones tipo flux,el flujo que les da nombre es un flujo de unos campos antisimétricos (representables mediante formas diferenciales) que están en el espectro de la teoría de cuerdas que son unos análogos mas generales del campo electromagnéticos. Las fuentes de ésos campos van a ser D-branas. Sí uno considera el campo gravitatorio de una D-Brana va a obtener que el espacio-tiempo alrededor de la D-brana va a ser un “braneworld” a lo Randall-Sundrum, y va a estar “warped” (algo así cómo retorcido). Esos espacios warped ya no van a tener estructura de producto cartesiano, incluso aunque el valor de los moduli no varíe y, por tanto, tampoco va a ser una fibración cómo la que expliqué antes.

En la resolución habitual del problema de los móduli el valor del móduli, en éste caso de el radio del círculo, es la misma en todo el espacio-tiempo, aunque no es imposible buscar casos en que ésto no sea así. En general, en teoría de cuerdas, la historia es mas compleja y las compactificaciones tienen muchos moduli. Podemos entender intuitivamente que el móduli es un parámetro que nos indica cómo podemos modificar un espacio para que cambien algunos aspectos del mismo, pero sin afectar la estructura fundamental del mismo. En el caso del círculo el único moduli es el radio. En el caso del toro, que hay dos círculos, tenemos un moduli que seria el cociente del radio de los dos círculos (y que daría toros mas gordos y toros mas fínos) y otro algo más sutil de entender que no explicaré. En general, para una compactificacion típica de Calabi-Yau, de tres dimensiones complejas, el espacio de moduli es muy amplio, y, además, se descompone en dos partes: modulis de forma, y módulis de tamaño. La física en las 4 dimensiones va a depender de muchos aspectos de ésos Calabi-Yaus. Alguna va a depender propiedades independientes de los moduli, cómo por ejemplo el número de familias de partículas (que va a ser igual a la constante de Euler de el Calabi-Yau para la cuerda heterótica, y a los números de intersecciones de los ciclos de Calabi-Yaus en que se enrollan las D-branas en las cuerdas tipo II B, por sí tenéis curiosidad y sabéis más o menos de que hablo xD). Otras propiedades, por contra, sí van a depender de los móduli. Aparte de los moduli hay otro campo, el dilatón, que va determinar la fisica de las 4 dimensiones. Normalmente el valor del dilatón no varia en el espacio, pero hay compactifícaciones en las que sí (y en teoría F se combina con un axión formando el axio-dilatón, que es un fibrado elíptico y, por tanto, de manera natural varia).

Éso lleva a que uno debería plantearse que pudiera darse el caso de que la física en cuatro dimensiones pudiera depender del punto del espacio, y, si acaso, que variase en el tiempo. Hay limitaciones experimentales muy serias sobre las posibles variaciones de las propiedades (por ejemplo masa) partículas del modelo standard y sobre los valores de las variables de acoplo gauge y no parece que varíen en absoluto. Pero podría ser que la física mas allá del modelo standar sí lo hiciera. Cómo no conocemos física mas allá del modelo standard no tenemos noticias al respecto. Pero sería muy interesante especular con las implicaciones de que fuera variable. En ese caso las masas de las partículas no osbervadas, y las secciones eficaces de producciones de las mismas, podrían variar en el tiempo o el espacio. En realidad, dado que la tierra se mueve, sí solo varían en el espacio, desde el punto de vista de la tierra sería cómo si variasen en el espacio. Éso sí, las variaciones no serían totalmente al azar sino que estarían determinadas por la teoría de cuerdas y unas variaciones estarían correlacionadas con otras. Por otro lado sería natural que esas variaciones tuvieran algún tipo de estructura periódica. En ese caso podría ocurrir que una partícula, en un instante dado, tuviera una alta sección eficaz de producción, y apareciera cómo una desviación estadística en el LHC. Pero, según la tierra se mueve (o el tiempo avanza) su sección eficaz de producción bajaría y parecería haber sido una mera fluctuación estadística. El caso es que, sí es la física 4d, que depende del espacio-tiempo al ser la compactificación no constante en el mismo, si supieramos, más o menos, que compacticiación tenemos, podríamos saber que sí han aparecido unas fluctuaciones A y B entonces deberían aparecer otras, C y D, y que, luego, en otro momento volverán A y B.

Realmente el tema de las compactificaciones variables ha sido tratado en la literatura, pero de manera muy dispersa. En cosmomlogía Kolb, en 1986, consideró compactificacoines toroildales con radios variables, pero no se obtuvo nada útil (se puede ver una introduccion al tema en el capítulo de cosmologías en dimensiones extra del libro de Collins-Martin-Squires “particle physics and cosmology). Realmente es difícil dar en la literatura con algo al respecto. Unos autores, por ejemplo, han considerado algo parecido, en modelos con D-Branas, en las que la posición de unas D-branas varían de un punto a otro, y lo llaman “soft branas”. Un articulo reciente que trata el tema es Inhomogeneous compact extra dimensions. En todo caso ninguno de los artículos que he encontrado plantea el tema de la forma que lo he expuesto aquí, es decir, analizando las consecuencias para el LHC en forma de “partículas de Cheshire”, que, cómo el gato de Cheshire, aparecen y desaparecen cómo si fueran fluctuaciones estadísticas. Tengo muy perfilado un artículo en el que basándome en un modelo de intersecciones de D-branas en ciclos de Calabi-Yau, considerado cómo modelo genérico para predicciones de cara al LHC de éste tipo de escenarios de teoría de cuerdas, permito que el dilatón varíe en el espacio, y así obtener unas predicciones, también, genéricas de cómo podría variar el asunto. Realmente sería mas interesante ver sí alguno de los modelos propuestos para el famoso LHC bumb a 750 GeV, que apareció a 4.X sigmas, y luego se desvaneció, puede encuadrarse en una compactificación variable y ver sí esa fluctuación se puede haber ido a algún otro sítio (o sítios) en los que también darían alguna pequeña fluctuación observable y, en ése caso, se tendría una predicción basada en teoría de cuerdas para el LHC. Obviamente el asunto es muy complicado, y requiere manejar muchos aspectos de fenomenología, cómo encontrar el superpotencial, encontrar cómo se rompe la supersimetría por ese superpotencial, la masa de las partículas resultantes, y cómo esa masa depende de los móduli, y lo mismo para las secciones eficaces de las partículas con esas masas. Mucho me temo que, aunque conozco la materia, no tengo la soltura para obtener los cálculos detallados con demasiada presteza. Afortunadamente tengo ideas para otras cosas que requieren menos tecnicismos tan extensos :).

Tal vez es muy optimista pensar que las variaciones sean sustanciales en las distancias que pueda recorrer la tierra en el periodo de unas horas o incluso años. Tal vez haya fluctuaciones, pero sólo a muy gran escala. En ese caso habría también consecuencias posibles. En el escenario WIMP para la materia oscura normalmente ésta va a ser el LSP (partícula supersimétrica mas ligera). Pero sí la masa de esa partícula varía de una zona a otra del espacio, y esas partículas, o las que terminaron decayendo en esa partícula, se formaron muy al inicio del universo, entonces la partícula LSP (o en general, las que formen la materia oscura) podrían tener masas diferentes en diferentes zonas del universo. Éso sí, por diversos procesos se habrán podido ir mezclando unas con otras y, en el universo actual, habrá, en una zona dada, partículas de materia oscura que provengan de diversas zonas del universo y que, según ese esquema, tendrán diferentes masas para el mismo tipo de partícula. Cómo los experimentos actuales buscan una partícula que siempre va a tener la misma masa entonces es muy probable que fallen en su búsqueda, que, de hecho, es lo que está pasando. Obviamente hay muchos motivos por los que puede fallar esa búsqueda que no sea éste, pero quizás sería interesante plantearse sí hay modificaciones de los experimentos que puedan tener en cuenta escenarios de este tipo.

Hasta ahora todo lo que he escrito es bastante serio y relativamente ortodoxo. Voy ahora con la parte menos seria, que se me ha ocurrido al analizar lo anterior. Una de las cuestiones sobre la estabilización de los móduli es que habría que plantearse cómo el valor que tome en un punto va ser igual al que tenga en otro punto. He dicho que los moduli los van a fijar los flujos, pero no he dado todos los detalles. Un aspecto muy molesto en la literatura física es que cuando se habla de móduli muchas veces se dice que estos son campos escalares. De hecho los moduli no sólo aparecen en teoría de cuerdas sino en vacíos de teorías de campo supersimétricas, o en los espacios de móduli de los instantones de las teorías gauge, y, dado que en teoría de cuerdas también hay instantones, pues hay un moduli space de instantones (que suelen hacer contribuciones no perturbativas a los potenciales). Hay todas esas acepciones y no siempre se tiene muy claro de que habla el autor. En todo caso, así, en líneas generales, el esquema es entendible. El móduli, como digo, es un parámetro que indica las deformaciones de una estructura geométrica (o una familia de estructuras geométricas). Un toro es una estructura geométrica, pero un toro concreto tiene unos radios y ángulos entre los círculos determinados. Bien, las deformaciones que llevan un toro a otro están dados por los moduli. Un toro, por cierto, es también una estructura de Riemman, es decir, una variedad compleja de dimensión, compleja, uno. Al espacio de moduli del toro también puede dársele estructura de espacio complejo, aunque, en general, los espacios de móduli van a tener algún tipo de singularidad. Bien, éso es la matemática del asunto. En física, en general, lo que va a ocurrir es que vamos a tener una compactificación, en la que van a vivir una serie de campos. Se puede calcular (hay fórmulas relativamente tratables para ello) la dimensión del móduli space en términos de clases características y, en última instancia, de los números de Betti del espacio de la compactificación . Resulta que, en general, para cada móduli geométrico la teoría de cuerdas nos va a dar un campo escalar. Pues bien, los flujos lo que van a hacer va a ser generar un potencial para ése escalar y, se supone, el campos va a ir al mínimo de ése potencial y, de ese modo, queda fijado el moduli correspondiente.

Bien, entonces una vez que entendemos que el móduli va estar asociado al al valor del mínimo del potencial de un campo escalar ya podemos empezar a plantear mejor la cuestión de cómo podría de ser ése mínimo distinto de un punto a otro. El caso de un campo escalar que toma un valor de mínimo existe en física ¡es el bosón de Higgs! Se supone que el bosón de Higgs estaba en un máximo inestable y, en un momento dado, en algún punto del espacio, cayó a un valor concreto de mínimo. Había un continuo valores posibles para el mínimo. Cómo el Higgs se puede mover en las 3 dimensiones espaciales se supone que una vez tomó el mínimo en un punto transmitió el valor al resto de puntos de las 3 dimensiones (una esfera de nuevo vacío expandiéndose a la velocidad de la luz).

Ahora bien, sí un campo escalar de moduli tuviera, por lo que fuese, varios posibles para el mínimo (hay potenciales con mas de un mínimo, vaya) y en un punto del espacio toma valor en uno de esos mínimos ¿puede transmitir ese valor a los puntos colindantes, y, en última instancia, a todo el espacio? Dado que el campo vive sólo en las dimensiones extra no puede (o no es obvio que pueda) transmitir ese valor a través del espacio 3d ordinario.

Pues bien, ahí es dónde entra el tema “poco serio”, puras especulaciones mías un tanto descabelladas posiblemente, que voy exponer ahora. En las imágenes mentales de Kaluza-Klein se pinta, cómo ya dije, que la dimensión extra es una “manguera muy estrecha” sobre un plano. Es decir, se supone que los círculos de cada S^1 toman la misma orientación en todos los puntos del espacio y forman un cilindro. Ahora bien ¿En que dirección? Es decir, podemos coger una línea paralela, por ejemplo,al eje x, y adosar un cilindro a cada una de esas líneas. Pero también podrían estar adosadas al eje y. O, otra posibilidad, es que la orientación de los círculos fuera variando y se cerrasen sobre un círculo dibujado en el plano.

KKembeding

No tengo claro sí habría alguna consecuencia para la física “del plano” que dependiera de la orientación de los cilindros (aparentemente no, porque en relatividad general hablamos de geometría intrínseca, que no debería depender de ese aspecto, pero no estoy 100% seguro), pero, sin entrar en éso, ya tenemos un posible problema. Sí, cómo he razonado, parece plausible que el valor del móduli (el radio del círculo) surja de que un campo escalar, que vive en uno de los círculos, tome un valor de un potencial, que depende de la geometría interna de ése círculo, y ese potencial tiene varios mínimos posibles, entonces podría transmitir ese valor a los círculos de ese mismo cilindro, pero no está claro que dos cilindros paralelos se puedan comunicar entre si, y, por tanto, que dos cilindros paralelos deban tener el mismo valor del radio. En el caso de que los círculos se cierren formando un toro el asunto es aún peor pues cada zona del espacio podría tener su propio valor. Mas grave sería que cada círculo tuviera una orientación al azar, o que se agruparan por domínios, al estilo de los spines de los imanes.

Entonces una cuestión natural es ¿Hay varios valores posibles para los mínimos? Bueno, el valor del potencial lo fijan los flujos, y para ésos sí hay muchos valores posibles. Los flujos tienen valores cuantizados, pero hay una enorme cantidad de valores posibles. Hay un valor arquetípico 10^500. Realmente ese es el problema del landscape, que hay muchos valores posibles, compatibles con el modelo standard (o con la constantes cosmológica). Se supone que, de hecho, hay saltos posibles de unos valores a otros de manera espontánea y que éso resolvería el problema de la constante cosmológica. Por supuesto se supone que los flujos son los mismos en cada punto del espacio-tiempo, dentro de un mismo espacio del multiverso, pero, igualmente, podría ser que hubiera una dependencia del flujo de un punto a otro (aunque ésto lo tengo menos claro).

Otro aspecto muy curioso es el siguiente. Realmente un círculo requiere dos dimensiones. Si decimos que estamos compactificando a un círculo tenemos que asumir que hay dos dimensiones extra. Si, cómo hacemos en los dibujos, pintamos el círculo encima de una recta entonces tendremos que para dos rectas paralalas que estén a una distancia menor que el radio del círculo los cilindros de cada recta se solaparían unos con otros. Si consideramos el caso de “dos dimensiones extra”, y una compacticiación en un toro, para cada circulo deberíamos tener dos dimensiones, dando lugar a 4. En realidad la cosa es un poco más compleja, porque podría tal vez haber alguna forma de acomodar ese toro de alguna manera que no requiera cuatro dimensiones. Por “acomodar” habría que especificar tecnicamente lo que queremos decir. Matemáticamente éso nos lleva a dos conceptos posibles que plasman la idea, la inmersión y el embedimiento (embbeding) cuyos detalles no voy a dar. El concepto mas fructífero y adecuado posiblemenente el embeding, y hay un teorema que nos dice que una variedad suave de dimensión n se puede, en el peor de los casos, embeber en un espacio R^{2n + 1} . A priori ésto no es un problema, pero, sí asumimos que estamos en un mundo que viene de la teoría de cuerdas, y éstas tienen originalmente 10 dimensiones, y se termina con 4 dimensiones extensas y 6 compactificadas, uno podría pensar que la variedad que está compactíficada debería también ser embebible en 6 dimensiones. Pero, claro, en todo este tiempo hemos dicho que las compactificaciones tienen como base el espacio de Minkowsky, pero, obviamente, éso no es el mundo real, que es un mundo curvo, por aquello de que cualquier masa curva el espacio. Incluso a gran escala, dónde podemos suavizar y considerar irrelevantes las fluctuaciones de curvatura de cuerpos astrofísicos, tenemos que, en su conjunto, el espacio es mas bien una esfera en expansión, y, si damos por bueno que hay una constante cosmológica, es, concretamente, un espacio de de Sitter. Y ése espacio no se puede embeber en un R^4 asi que ya vamos cortos de dimensiones. Por supuesto todo ésto que he dicho es irrelevante porque, fuera de las dimensiones de la teoría de cuerdas, no tiene sentido hablar de geometría y no deberíamos preocuparnos de en que embeber los espacios internos. Es obvio sí uno reflexiona sobre ello, pero no del todo inmediato, y, desde luego, no es algo que uno vaya a ver discutido en ningún libro serio, pero, tal cómo yo lo veo, ésa es una función de los blogs, poder discutir también cuestiones curiosas, y naturales, aunque no sean del todo serias ;-).

Por cierto, aunque a esto de los embeding y las imágenes mentales lo he presentado con un tono mas anecdotico que serio lo cierto es que no es un asunto trivial. En el libro que he mencionado, Particle Physics and Cosmology , los autores mencionan que el mecanismo de Kaluza tiene un pequeño problema debido a que la curvatura gaussiana de un cilindro es nula. Es fácil de entender porque es ésto. La curvatura gaussiana Cg en un punto es el producto de la curvatura máxima y la mínima de entre las curvas embebidas en la superficie Cg=Cmax*Cmin. En un cilindro la curvatura máxima es la del círculo que pasa por el punto, y la mínima la de la recta que pasa por ese punto. Cómo la curvatura de una recta es 0, Cg=Ccírculo*0=0. Por supeusto ésto da carta de naturaleza a que hay que “tomarse en serio” la imagen mental del cilindro, pero, en ése caso tenemos que tomarnos también en serio las consideraciones sobre la orientación de ésos cilindros, o porqué cilindros y no toros, etc, etc.

En fin, es una entrada larga, y dura en muchos aspectos, espero que se haya entendido algo. Tengo previsto escribir pronto sobre las teorías unificadas de Einstein, pero cómo estas incluyen Kaluza-Klein, me pareció oportuno comentar estas reflexiones exóticas sobre ese tema que se me han ido ocurriendo este año. De hecho, la parte de la física mas allá del modelo standard que pueda ser no constante en el espacio y tiempo, posiblemente sea mucho mas interesante, dentro de la ortodoxia cuerdista actual, que las teorías de unificación de Einstein, que es algo que he estudiado sólo por influencia de la serie Genius 🙂

Una guía compacta a la compactificación

diciembre 30, 2016

En su momento escribí una entrada sobre la forma mas básica de compactificación, la teoría de Kaluz-Klein. Sí se quieren mas detalles (en especial cómo aparece, y que papel juega el dilatón) de los que vienen en esa entrada se puede consultar, por ejemplo, la correspondiente entrada de la wikipedia inglesa Kaluza–Klein theory.

Bien, voy a intentar avanzar un poco más respecto a lo que ahí viene y dar una idea un poco global de cómo es el proceso de compactificación. Al intentar dar una idea global dejaré de lado bastantes detalles técnicos, pero tampoco va a ser a nivel de un libro de divulgación para legos sino mas bien en la línea de la entrada anterior.

El siguiente paso, una vez tenemos una teoría guague abeliana U(1), es intentar obtener una teoría no abeliana, para lo cuál vamos a necesitar mas de una dimensión adicional, usando la notación de la entrada anterior descomponemos la métrica en la forma:

g_{MN}= \begin{pmatrix} \eta_{\mu \nu } & \\ & g_{\alpha \beta (y))} \end{pmatrix}

Recordemos que M y N son índices que recorren todas las dimensiones, mu y nu recorren sólo las 4 dimensiones usuales, eta es la métrica de Minkowsky e y denota las coordenadas en las dimensiones extra.

Asumimos que esta métrica es una solución a las ecuaciones de Einstein para el vacío R{MN}=0 o bien, sí permitimos una contaste cosmológica
R_{MN} - \frac{1}{2}Rg_{MN} + \Lambda g_{MN}=0

En el caso de una sóla dimensión adicional la compactificación era única, convertir el eje y en un círculo, ahora tenemos mucha mas libertad. Sí tenemos D dimensiones extra y plegamos cada uno de los ejes coordenados en un círculo tendremos un D-toro (recordemos que el 2-toro tiene forma de “donut” hueco, o de neumático) y, en ése caso, la gravedad de las dimensiones extra se verá cómo una teoría gauge [U(1)]^D. Mas adelante explicaré cómo se obtiene ese D-toro, pero de momento entendamos bien lo que hemos hecho. Cuando las dimensiones extra están descompactificadas ahí opera la simetría del grupo de difeormorfismos de esas dimensiones extra, que es muy grande. Al reducir esas dimensiones a la forma de un D-toro esa simetría de difeomorfismos se ha visto muy reducida, a ese [U(1)]^D. Digamos que el grupo de isommetrías de la dimensión compactificada se ve cómo una teoría gauge con esa misma simetría en las 4 dimensiones.

Cuando las dimensiones extra se compactifican a una geometría mas compleja que un D-toro y no es nada sencillo ver las isometrías de ese espacio. Voy a entrar un poco en algunos detalles matemáticos, elementales, pero que no siempre se comentan en los libros de física sobre el proceso de compactificación (sobre los detalles de las isomerías hablaré en otra entrada). Lo primero es el origen del término “compactificar”. Hace referencia al concepto topológico de espacio compacto. Lo escribí en la entrada que dediqué a un libro sobre la conjetura de Poincaré pero lo reescribiré aquí, para hacer ésto mas autocontenido.

Las nociones de continuidad en cálculo se suelen dar en términos de epsilones y deltas, pero eso en esencia es hablar de entornos abiertos de la recta real, y el caso es que si uno lo analiza uno usa sólo 3 propiedades básicas de los abiertos.

Una topología es recoger esas tres propiedades y convertirlas en axiomas.

Sea X un conjunto y sea Y={Xn} una colección finita o infinita de subconjuntos de X, X e Y forman un espacio topológico si
i. el conjunto vacío e Y pertenecen a Y
ii. Cualquier subcolección finita o infinita {Zn} de Xn tiene la propiedad de que la unión de todos los Zn pertenece a Y
iii. Cualquier subcolección finita {Zm} de los Xn tiene la propiedad de que su intersección pertenece a Y.

Los Xn son los abiertos de esa topología. Conviene hacer una pequeña distinción, que no siempre se explica en los libros de topologia/geometría para físicos. Los intervalos epsilón y deltas del cálculo de una varible, y sus generalizaciones elmentales, los discos abiertos de radio epsilon/delta en el plano, las bolas abiertas en tres dimensiones, etc, son un tipo especial de abiertos, pero, ciertamente, hay conjuntos que son abiertos y no son de esa forma. Esos subconjuntos especiales de la topología forman una base de la misma.

Bien, una vez que tenemos definidos los abiertos cualquier definición que hagamos en términos de esos conjuntos va a ser una definición topológica. Por ejemplo se dice que un conjunto es cerrado cuando su complementario es abierto. Otra noción topologica de interés es la de compacidad. Intuitivamente en \mathbb{R} un compacto va a ser un conjunto cerrado y acotado (la distancia entre dos cualesquiera de sus puntos es finita).

Pero como dije una noción topológica debe darse en términos de los abiertos. Vamos a ello.

Primero debo explicar la idea de recubrimiento. Dado un subconjunto, S, de un espacio topológico, X un recubrimiento de S es una colección de conjuntos abiertos Rn tal que S esta incluido en la unión de todos los Rn. Se dirá que un conjunto es compacto cuando todo recubrimiento del mismo admite un subrecubrimiento (un cubrimiento con un un subconjunto de la colección recubridora)finito. La noción de compacidad es útil por muy diversos motivos. Una es que, por el teorema de Heine-Borel, podemos caracterizar los cerrados y acotados, un tipo de conjuntos interesante, mediante esta propiedad.Oto aspecto útil es que si queremos demostrar algo sobre un compacto nos basta demostrarlo sobre cualquier elemento del conjunto recubridor y asegurarnos de que la propiedad demostrada no se pierde cuando tenemos una unión finita de esos elementos. Es importante hacer notar que como en un compacto todos los recubrimientos admiten subrecubrimiento finito podemos elegir los Rn de la forma que mas nos convenga.

Tan importante es la noción de compacidad que la mayoría de resultados toopológicos van a estar referidos a espacios compactos. Los no compactos son mucho mas difíciles de estudiar.

Entonces la idea de la compactificación es coger un conjunto que no es compacto, por ejemplo la recta real, que no es acotada, y por tanto, según el teorema de Heine-Borel no es compacta, y convertirla en un conjunto compacto por un procedimiento bien definido, en este caso identificar los dos puntos del infinito a la “izquierda” y “derecha”. Sí cogemos un folio e identificamos dos lados opuestos obtenemos la superficie de un cilindro (sin las tapas). Sí en ese cilindro resultante identificamos los dos círculos opuestos obtenemos un 2-toro.

ES interesante que, en el caso anterior, tanto el folio (un rectángulo con sus lados incluidos) cómo el toro son compactos así que aquí no estaría del todo justificado el término “compactificación”. Pero sí nos imaginamos que el rectángulo es infinito, es decir, es el plano real, entonces sí estamos convirtiendo ese plano, que no es compacto, en un toro, que es compacto. Realmente el proceso de compactificación de un rectángulo aunque no cambia la compacidad del rectángulo si cambia otras propiedades topológicas del mismo, por ejemplo la conectividad por arcos (la explico en la entrada sobre la conjetura de Poincaré). El rectángulo es contractible (cualquier círculo que dibuje dentro del mismo se puede contraer a un punto sin salirse del rectángulo) mientras que en el toro no es así (de hecho hay dos familias de círculos que no pueden contreaerse a un punto). No daré mas detalles sobre ésto ahora (en el post sobre la conjetura de Poincaré comento más al respecto) pero no deja de ser un hecho interesante, que tiene muchas implicaciones en topología y en física.

Uno, bastante conocido, es que, en teoría de cuerdas, en particular para la cuerda heterótica compactificada en un Calabi-Yau, el número de generaciones de partículas es igual a la mitad de la característica de Euler-Poincaré de el espacio de compactificación M &latex\frac{1}{2}\chi (M))$. Esta constante apareció por primera vez en el trabajo sobre teoría grafos que hizo Euler para, entre otras cosas, resolver el problema de los puentes de Königsberg. Para un grafo la expresión de la característica de Euler es \chi= C - A +V donde C, A y V son los números de caras, de aristas y de vértices respectivamente.

Cómo una superficie puede ser triangulada se puede definir esa constante en términos de la constante de Euler de la triangulación de la misma. No obstante, para una superficie, o una variedad n-dimensional, es mejor definir la constante en términos de los grupos de homología o cohomología. Primero se define el n-ésimo número de Betti &latex b_n$ cómo el rango del n-ésimo grupo de homología. En términos de esos números la característica de ÇEuler es la suma alternada de los números de Betti, es decir, tiene la expresión \chi =\sum_{i=0}^{n} (-1)^{i}b_i. También, mediante la dualidad de Poincaré, se podría escribir en términos de grupos de cohomología, así cómo en otras formas mas sofisticadas, pero éso ya sería irnos demasiado del propósito de la entrada.

Otro ejemplo es el uso de “Wilson loops” (o Wilson lines), osea, holonomías sobre círculos, que cuando el espacio no es conexo por arcos pueden usarse para reducir la simetría de un grupo gauge de una manera diferente al mecanismo de Higgs. Este procedimiento se usa de manera habitual en la fenomenología de la cuerda heterótica.

Por cierto, el plano real puede ser compactificado de manera natural de más de una forma. Un proceso muy típico sería la compactificación por un punto, el punto del infinito, es decir, cogemos todos las regiones del plano que “están en el infinito” y las convertimos en un punto. El espacio resultante sería una esfera. Es un proceso algo mas complejo de visualizar, y para ayudar a entenderlo vendría bien que explicase la proyección estereográfica, pero espero que con esta imagen os hagáis una idea aproximada.

Al inicio de la entrada mencioné que iba a explicar cómo surgía el D-toro al compactificar cada una de las dimensiones extra a un círculo. Hasta ahora he explicado cómo obtener el toro identificando los lados opuestos de un cuadrado, pero ahí no se ve cómo surge a partir de círculos.

Bien, éso requiere el concepto de producto cartesiano de dos espacios topológicos. Sí tenemos dos espacios topológicos X1 y X2 su producto cartesiano es el conjunto X1xX2={x1,x2}, es decir, el conjunto de pares dónde el primer par, x1, es un elemento de el conjunto X1 y el segundo, x2, es un elemento del conjunto X”. A partir de una base de las topología de X1 y X2 se puede formar una base de la topologia producto tomando el conjunto de todos los pares ordenados posibles formados con los elementos base. En caso de que no se haya entendido muy bien este párrafo tampoco pasa nada, que es bastante fácil de visualizar la explicación que daré ahora.

Si tenemos dos círculos S^1 y S^2, el toro es el producto cartesiano de esos dos círculos T^2=S^1xS^2. Intuitivamente podemos pensar que cogemos uno de los círculos y cada uno de los puntos de ese círculo lo hacemos girar 360 grados alrededor de otro círculo perpendicular. Se puede visualizar en el siguiente dibujo bastante bien la idea.

Obviamente un D-toro es la generalización de esa idea, osea, un producto cartesiano de D círculos, cada uno de los cuales se obtiene al compactificar cada uno de los ejes coordenados.

Una definición mas precisa de la topología de identificación requeriría una entrada de un blog por si misma, pero al menos espero que con ésto quede mas claro el origen del término y los ejemplos den una idea de cómo se visualiza.

Introducción a la supersimetría II: El modelo de Wess-Zumino

julio 14, 2014

Continúo con el tema de los posts de supersimetría traídos del otro blog. En realidad este se ve correctamente allí porque ya había añadido matajax, que por ahora sigue funcionando, a mi plantilla de blogspot, pero por completitud, y en previsión de que termine fallando el plugin, lo dejo por aquí también.

Continuo el tema introduciendo una realización de dicha supersimetría en términos de un lagrangiano sencillo, lo que se conoce como el modelo de Wess-Zumino. Quien no tenga muy recientes sus conocimientos de teoría cuántica de campos, y en particular los tipos posibles de spinores, puede leer sobre ello en esta entrada.

Este va a constar de dos campos, un campo escalar complejo \phi formado por dos campos reales A y B, \phi=(A+iB/\sqrt{2}) y un campo spinorial de Majorana \psi . Ambos campos van a carecer de masa. El motivo para ello es que en la naturaleza no se ha observado la supersimetría, lo cuál indica que caso de existir, la supersimetría debe estar rota. Se supone que las partículas supersimétricas de las partículas conocidas habrán adquirido masa a través de un proceso de ruptura de esta supersimetría. Con estos ingredientes el término cinético de nuestro lagrangiano será.

1.L= \partial^{\mu} \phi^*\partial_{\mu}\phi ~ + ~ 1/2i\bar\Psi\displaystyle{\not} \partial \Psi

Ese lagrangiano es invariante bajo una transformación SUSY global:

2. \delta A=\bar\epsilon\psi \delta B=i\bar \epsilon\gamma_5 \psi

\delta \psi=-i\gamma^\mu[\partial_\mu (A + i \gamma_5B)]\epsilon

Donde \epsilon es el generador infinitesimal (asumo que el lector esta familiarizado con como surgen los generadores infinitesimales de simetrías en mecánica cuántica y su relación con las simetrías globales a través de la exponenciación) de la supersimetría, un spinor infinitesimal de Majorana.

Puede verse que, como se espera de una supersimetría, esta transformación nos cambia campos bosónicos en campos fermiónicos. Para ser supersimétrica el lagrangiano debe ser invariante bajo esta transformación. Se puede verificar que bajo ese cambio la variación del lagrangiano es:

3. \delta L=\partial_\mu[1/2\bar\epsilon\gamma^\nu(\displaystyle{\not}\partial(A + i\gamma_5 B))\psi]

Este delta L es una derivada total y por tanto no contribuye a la variación total de la acción y , como anunciaba, hace que 1 sea un lagrangiano supersimétrico. En general los lagrangianos supersimétricos no pueden ser invariantes bajo supersimetría, salvo que sean constantes, y siempre debe entenderse la invarianza en el sentido de que su variación es una derivada total.

Este lagrangiano es adecuado para partículas libres. Si añadimos interacciones se encuentra que le conmutador de dos transformaciones no es cerrado fuera de la capa de masas, y por tanto no es adecuado. Para paliar eso deben añadirse dos campos bosónicos extra, normalmente designados F y G, cuyo lagrangiano es:

4. L= 1/2F^2 + 1/2 G^2

La solución de la ecuación de Euler Lagrange asociada al lagrangiano 4 es F=G=0 y por tanto estos campos no tiene estados en la capa de masas, intervienen en la teoría sólo como partículas virtuales intermedias.

Se ha descrito hasta ahora como sería el lagrangiano para partículas sin masa. Nada impide construir el lagrangiano para partículas con masa. El término de masa tendría la forma:

5. L _m= m(FA + GB -1/2\bar\psi \psi)

La forma mas general de un término de interacción -renormalizable sería.

6. L_i= g/\sqrt{2}[FA^2 - FB^2 + 2GAB - \bar\psi(A - i\gamma_5B)\psi]

Este sería el modelo elemental de Wess-Zumino. Si uno pretende hacer teorías de campos supersimétricas realistas debería trabajar con fermiones quirales zurdos. No es especialmente complicado hacerlo, y repitiendo los pasos uno llegaría a una expresión de los lagrangianos anteriores en términos de esos fermiones quirales. El aspecto más interesante de ese desarrollo es que uno termina con un lagrangiano que puede expresarse de la forma:

7.L = L_K - |\partial W/\partial \phi|^2 ~ - ~ 1/2(\partial^2 W/\partial \phi^2\psi^T_L C \psi_L + herm.conj)

Aquí L_k sería el término cinético para los campos correspondientes y W sería lo que se conoce como el superpotencial. Este juega un papel importante en muchas discusiones sobre supersimetría y será tratado con mas detalle en ulteriores entradas. Por ahora decir que para el modelo sencillo que estamos considerando aquí su expresión más general sería:

8.W= 1/2m\phi^2 ~ + ~ 1/3 g\phi^3

En esta entrada se ha presentado el que posiblemente sea el tratamiento mas sencillo posible de la supersimetría. Actualmente es muy común usar el formalismo de supercampos. Este se basa en la noción de superespacio. El superespacio es el resultado de añadir a las componentes geométricas normales unas componentes “fermiónicas” representadas como variables de Grassman. Un supercampo dependería de ambos tipos de variables. Dadas las peculiares propiedades de las variables de grassman es muy sencillo ver que un desarrollo en serie en términos de las mismas es finito y que, por tanto, se puede dar una expresión general para un supercampo. Cuando se hace eso para campos que solamente tengan spin 1/2 y y 0 se puede ver que el modelo de supercampos obtenido es equivalente a el modelo de Wess-Zumino presentado aquí. Si además se impone que los campos fermiónicos sean quirales se obtiene la versión quiral del modelo de Wess-Zumino. El supercampo que cumple esas características es conocido cómo “supercampo quiral”. Por supuesto se pueden hacer construcciones supersimétricas para campos gauge y, de ese modo, teorías gauge supersimétricas y análogos supersimétricos del modelo standard. La extensión supersimétrica mas sencilla de el modelo standard se conoce como MSSSM (minimal supersymetric stadard modell).

Aquí hemos tratado la supersimetría global. Cuando esta se hace local aparece de manera natural la gravitación y tendríamos teorías de supergravedad. Dado que la supersimétria no esta realizada en el modelo standard se asume que si el universo presenta supersimetría debe hacerlo en una versión con supersimetría rota. La ruptura de supersimetría es un tópico complejo, y juega un papel fundamental en la mayoría de modelos fenomenológicos que se postulan para extender el modelo standard de partículas. Indirectamente eso significa que también juegan un papel en las teorías de cuerdas, en sus diversas variantes. Por ejemplo la teoría F, la mas desarrollada a nivel fenomenológico utiliza una variante del mecanismo de supersimetría conocido como modelo de guidicce-massiero.

Se irán tratando esos tópicos en posteriores entradas.

Finalizo diciendo que estos posts siguen principalmente el libro de texto de P.D. B. Collins, A.D. Martin y E.J Squires “Particle physics and cosmology”. A eso he añadido información adicional de los libros de M. Dine “Supersymmetry and superstrings” y el volumen III de el libro de teoría cuántica de campos de Steven Weinberg.

Introducción a la supersimetría

julio 14, 2014

Continúo con la tarea de rescate de entradas del otro blog que han quedado inoperantes por aquello de que en blogspot no hay soporte nativo para latex, ahora toca un par de entradas sobre supersimetría.

Mucho se ha hablado de supercuerdas. Esta palabra consta de dos partes. La parte de “cuerdas” más o menos es algo que todo el mundo puede entender en el sentido de que todo el mundo tiene la idea intuitiva de lo que es una cuerda. La parte “rara” es la de super.

El prefijo “super” se usó mucho en física en una época. Los casos más destacados probablemente sean los superconductores y la supersimetría. Pese a la coincidencia en el nombre no tiene nada que ver uno con otro. Vamos a ver, inevitablemente muy por encima, cómo avanza el tópico, qué es la supersimetría, SUSY para los amigos.

La motivación inicial para esta teoría provino del problema de la jerarquía. ¿Cuál es este problema? En el marco de las teorías de gran unificación, hay una gran diferencia de energía entre la escala de la ruptura de la simetría electrodébil y la de la de la ruptura de la teoría unificada(SU(5) o la que fuera). Si uno se mete en los tecnicismos del mecanismo de Highs esto requiere un ajuste muy fino de parámetros. Y esto es algo que siempre desagrada.

Una forma de solventarlo es la existencia de cierto tipo de campos escalares de masa 0. Pero no hay ninguna buena razón para esto. Lo que si hay es una buena razón para la existencia de fermiones quirales (o quasiquirales), el hecho de que se hayan observado (son los neutrinos). Estos fermiones quirales tiene masa 0. Si hubiera de algún modo una partícula de spin 0 ligada a ellos tendríamos resuelto el problema pués esa partícula debería tener masa 0.

Para esto uno busca que pueda existir una simetría que transforme bosones en fermiones, y viceversa. denotémosla por Q, i.e.

1.  Q|F>=|B>  Q|B>=|F>

Para ilustrar algunas propiedades clave de la supersimetría cojamos un ejemplo muy sencillo basado en un oscilador armónico cuántico que incluya bosones a y fermiones b, que satisfacen las relaciones de conmutación (y anticonmutación):

2.  [a, a^+]=1, [a,a]=[a^+,a^+]=0

\{b, b^+\}=1, \{b,b\}=\{b^+,b^+\}=0

Dónde, por si alguien no lo conoce {x,y}=x.y +y.x.

El hamiltoniano para este sistema es:

3. H=1/2w_B\{a^+,a\} + 1/2w_F[b^+,b]

Siendo un oscilador armónico sabemos cuál va a ser su energía:

4. E=w_B(n_B + 1/2) + w_F(n_F - 1/2)= w(n_F + n_F)

Dónde en el último paso hemos asumido que las w fermiónica y bosónica sean iguales.

Se puede ver fácilmente que que cada estado tiene una degeneración con el mismo número de grados de libertad bosónicos y fermiónicos.

Edto indica que debe haber algún tipo de (super)simetría en el hamiltoniano. Y en efecto, uno puede comprobar que los operadores:

5. Q=\sqrt{2w}a^+b,   Q^+=\sqrt{2w}b^+a

conmutan con el hamiltoniano, es decir:

6. [Q,H]=[Q+,H]=0

Obviamente los operadores Q y Q+ claramente intercambian un fermión por un bosón y viceversa.

Además tenemos que:

7. {Q,Q+}=2H

Pués bien, esta es la esencia de los operadores de SUSY expresados para un caso sencillo de mecánica cuántica no relativista. Pero claramente estamos interesados en mecánica cuántica relativista, i.e. teoría de campos.

Dejaré para otra ocasión cómo se realiza el álgebra SUSY en teoria de campos. Señalar solamente una característica específica de la SUSY no mencionada hasta ahora que tiene un cierto interés.

Desde que empezó a surgir el interés por las teorías gauge, puede que incluso antes, se planteó la cuestión de si había alguna forma de tener un grupo que mezclara las simetrías internas con la simetría del grupo de Poincaré. Coleman y Mandula en 1967 demostraron que bajo supuestos muy generales esto era imposible.

Pués bien, la superismetría escapa este teorema “no-go” pués aparte del los generadores P_{\nu} (momento lineal) y M_{\mu\nu} (momento angular) y Ta (generadores del grupo gauge) incluye los generadores de la supersimetría.

De hecho estos estarán relacionados con el operador momento por la relación:

8. 

Por cierto, para los posibles lectores de exactas decir que en términos matemáticos la supersimetría tiene la estructura de una álgebra de Lie graduada.

Bien, este ha sido un primer contacto con la supersimetría. En la siguiente entrada hablaré del modelo supersimétrico más sencillo, el de Wess-Zumino.

Algunas vueltas de tuerca a la teoría de cuerdas

julio 4, 2014

Una de las cosas mas deprimentes del estado actual de la física de altas energías es la tremenda cantidad de posibilidades a estudiar. En los 80 había el sueño de una teoría unificada, en la que unos principios básicos, grupos de simetría gauge mas amplios cómo el SU(5) y supersimetría nos dieran una teoría única de la que se pudiera sacar todo. Posteriormente la teoría de cuerdas se vió cómo un paso extra hacia la unificación porque en un sólo objeto, la cuerda relativista cuantizada, con aderezo de supersimetría, se tenía que un único objeto (bueno, casi, que había 5 teorias de cuerdas, type I A y B, type II A y B y la heterótica) daba el espectro de todas las partículas. En los 90, con el descubrimiento de las dualidades, que venían a demostrar que esas diversas teorías de cuerdas eran (con matices) equivalentes pareció surgir un nuevo nivel de unificación. Al principio se pensó que la teoría M sería esa gran teoría unificada.

Pero las cosas no fueron por dónde se suponía. Las teorías Gauge de gran unificación empezaron a encontrarse con problemas, la más sencilla, el SU(5), predecía que el protón era inestable y los experimentos que buscan esa inestabilidad han invalidado el modelo. Se han construido variantes, flipped SU(5), SO(10), etc, que producen valores compatibles con la no observación de la desintegración del protón. Luego está el tema de los monopolos (distintos a los de Dirac, aquí son cuasipartículas asociadas a temas de naturaleza topológica-solitones-) que también predicen esa teorías y no se observan. Ahí la solución viene de la mano de la inflación, que habría diluido la densidad de solitones hasta un número de alrededor de uno por unidad observable del universo. Ahora, a raíz de el descubrimiento de modos tensoriales en el fondo de microondas por el experimento BICEP2, parece que hay una evidencia experimental sólida -aún sinconfirmar totalmente- y bastante directa de la inflación, así que ese punto quedaría más o menos zanjado.

En el terreno de la teoría de cuerdas la cosa se fué complicando mucho. En los 80 el paradigma era que se daría con una compactificación de las dimensiones extra de la cuerda heterótica que permitirían obtener el modelo standard, y que, además, nos darían pistas, o incluso todos los detalles, sobre cómo iría todo hasta energías superiores. Pero aunque se ha llegado muy cerca de tener un modelo standard a partir de la heterótica, con bastantes de los detalles, resulta que la forma de obtenerlo no es única, y cada variante predice a altas energías cosas diferentes. También, usando nuevos objetos aparecidos en los 90, las D-branas, y generalizaciones (M-branas de la teoría M, la 7-brana de la teoría F- otra variante de la teoría de cuerdas introducida por Cunrum Vafa) dieron nuevas maneras de obtener el modelo standard, con similar detalle, pero con un comportamiento más allá del modelo standard totalmente distinto entre ellas (aunque todas podrían agruparse en el paradigma de “mundos brana” dónde, simplificando, las partículas del modelo standard viven en 4 dimensiones y el gravitón en más) y completamente diferente al heterótico. Vale, hay dualidades, pero eso no significa que se pueda decir que son “moralmente iguales” esos escenarios, la física según sube la energía cambia totalmente, en algunos de ellos hacia un SU(5).

Y el descubrimiento de la constante cosmológica ya lo lía aún más, y terminamos con un montón de opciones tremendo. Por ejemplo, en el 2008 Vafa y colaboradores hicieron un auténtico tour de force con la teoría F, con bastantes artículos, algunos de más de 100 páginas, que hacían predicciones para el LHC que, lástima, predecían una masa del Higgs en unos márgenes que son incompatibles, por poco eso sí, con lo observado. Y, claro, si estás con un trabajo fijo (una tenure) en una universidad te puedes permitir embarcarte en esa odisea y que luego no salga nada. Pero sí eres un doctorando que intenta hacer algo que te de una plaza, es posiblemente deprimente.

Total, no daré mas detalles, que hay tantas posibilidades, para una teoría general, o incluso para relativamente pequeños campos (cuál es el modelo concreto de inflación, o no digamos ya que partículas forman la materia oscura), que uno se puede perder de mil maneras, sin ningún tipo de guía unificador. Hemos pasado de la gran unificación a la gran diversificación.

Envista de eso, aparte de mantenerse al día en lo que se va haciendo, yo, personalmente, intento pensar si hay algo que, sin renegar porque sí de lo que ya está hecho, si puede todavía haber alguna clave que guíe entre tantas posibilidades, por supuesto sin un éxito remarcable hasta ahora.

Voy a indicar ahora algunas de las ideas que he venido considerando, en particular las centradas en la teoría de cuerdas.

La idea más arriesgada es plantearse la misma teoría, pero con un cambio de paradigma. En vez de considerar que hay un espacio-tiempo y dentro de el unos objetos, las cuerdas, me planteo una opción diferente, pero que lleva a similar matemática.

En las ecuaciones de Einstein R_{\nu\mu} - g_{\nu\mu}R=T_{\nu\mu} tenemos dos elementos, a la izquierda un elemento puramente geométrico, la curvatura, y a la derecha uno asociado totalmente a la materia, el tensor energía momento, asociado a las partículas. Entre esas partículas estaría el gravitón, que sería una fluctuación de la métrica. Digamos que el gravitón da la reacción del espacio-tiempo a si mismo. En la gravedad cuántica inicial, con partículas puntuales, se parte de una descomposición de una descomposición de la métrica en dos partes g_{\nu\mu}= \eta_{\nu\mu} + h_{\nu\mu}. Aquí \eta_{\nu\mu} sería el término de background (en el caso sencillo la métrica minkowsky), y h una fluctuación que, convenientemente cuantizada, sería el gravitón. Antes de seguir una reflexión algo tonta. Esa perturbación de la métrica tiene los mismos grados de libertad que una partícula de spin 2, y por eso se identifica una métrica, la característica de la gravedad con una partícula de spin 2. Lo curioso es que una métrica en geometría es una forma bilineal (o cuadrática, según se mire). Digamos que uno podría plantearse sí no debería pensarse que el observable básico de la gravedad cuántica, que es la métrica, no debería tal vez ser un objeto bilineal en vez de uno lineal. Pero claro, en cuántica los operadores deben ser lineales, y los intentos de hacer una teoría con operadores no lineales tiene muchos problemas, tanto prácticos como conceptuales. Por eso es más sencillo dejarlo correr y quedarse tranquilo con la identificación de la métrica con una partícula de spin 2, que es algo que tiene mas respaldos (teoría de Fierz-Pauli, en la que, recursivamente, a partir de gravitones se llega, más o menos a la relatividad general). La teoria para un gravitón inspirado en una partícula puntual es no renormalizable, pero en su variante en la que el gravitón aparece cómo uno de los modos de vibración de la cuerda da lugar a una teoría consistente, y eso es algo de agradecer.

En todo caso, seguimos teniendo dos objetos, el espacio-tiempo y la cuerda, y, en última instancia, el objeto mas interesante -para justificar la teoría cuanto menos- de la cuerda, el gravitón, es geométrico. Mi idea es ponerlo todo en el terreno del espacio-tiempo. La idea sería darle una cualidad extra, probablemente de naturaleza geométrica, a ese espaciotiempo para dotarlo de una naturaleza dinámica. Si pensamos en esa propiedad extra cómo una especie de “tensión” (con las adecuadas propiedades buenas de transformación) lo que tendríamos es que en el espacio-tiempo habría líneas de tensión. Y, cómo deberían tener propiedades buenas de covarianza esas líneas de tensión serían equivalentes matemáticamente a las cuerdas bosónicas. Digamos que matemáticamente serían el mismo objeto, pero conceptualmente cambiarían. en vez de ser unos entes que están ahí no se sabe porque, y que son extensos, y no se disgregan, por arte de magia, aparecerían de manera natural por resultado de una dinámica del propio espacio-tiempo. Por supuesto ahí habría un punto extra, una dinámica mas fundamental del espacio-tiempo que da lugar a que en este aparezcan líneas de tensión que podemos describir mediante las cuerdas. En este sentido las cuerdas serían sólo una descripción aproximada y habría algo más fundamental.

Por supuesto esa idea tiene muchos problemas. Para empezar porque ese paradigma funciona bien para la cuerda bosónica, pero se complica para la supercuerda. En realidad, si uno parte de un superespacio (añadir coordenadas de Grassman, que están asociadas a fermiones, al espacio-tiempo ordinario) uno podría obtener la supercuerda, aunque, desde luego, la matemática es complicada. Normalmente las supercuerdas se obtienen mediante la imposición de supersimetría en el worldsheet y luego imponiendo condiciones varias, se llega a que hay supersimetría en el espacio target. Pero vamos, en principio se puede obtener un lagrangiano supersimétrico desde el superespacio, y lo mismo para una supercuerda. Si partimos de una teoría gravitatoria en el superespacio podríamos jugar al juego anterior, de líneas de tensión en el superespacio, que serían las cuerdas. Pero, claro, en realidad se puede demostrar que la teoria de cuerdas en su formulación habitual, tiene cómo limites de baja energía las teorías de supergravedad. En ese sentido la cuerda es mas fundamental que la supergravedad. En el paradigma que propongo sería mas rebuscado. Hay una dinámica, que no sabemos, que se asemeja a la supergravedad (da un superespacio al menos), pero que en principio es distinta, y mas complicada. Esa teoría permite hablar de “tensiones” en el superespacio, que, identidificadas cómo cuerdas, dan lugar a una teoría cuyo límite a bajas energías es la supergravedad. Eso nos daría una condición complicada de consistencia.

En fín, realmente no sé si, con lo que he contado hasta ahora, este punto de vista aporta algo, salvo, tal vez que sea mas “natural” y unificado. Ya no hay dos cosas, espacio-tiempo y cuerdas, sólo una, el espacio-tiempo, ergo es más unificado. Y es mas “natural” porque no hay que postular algo tan exótico cómo una cuerda que no se disgrega ¿por qúe no?.

Por supuesto, lo divertido, es que en esa teoría surgen generalizaciones “naturales” que no lo son tanto en la teoría de cuerdas. Para empezar ya no hay motivo natural para imponer que la tensión sea la misma en todos los puntos y, por tanto, en el lagrangiano de la cuerda la T dependería de x T(x). Puesto que la tensión es el único parámetro (en última instancia, no en la práctica) libre de la cuerda, y aquí es simplemente algo que varía de punto a punto, al menos en principio, se pierde la idea de que si supiéramos T, y la suficiente matemática, podríamos deducir todo lo demás, las constantes de la física de bajas energías, correspondientes a compactificaciones/braneworlds concretas. Pero es de suponer que en la teoría geométrica que da lugar a esa tensión habría una constante, y se recuperaría el status quo.

Más divertido aún es pensar en que no hay que pensar que la T deba ser positiva. Habría que plantearse las T’s negativas. Si interpretamos la T cómo densidad de energía, es lo habitual, tendríamos que las cuerdas con T negativa tendrían energía negativa y, por tanto, podrían ser “materia exótica” en el sentido del término usado habitualmente en la literatura de agujeros de gusano.

Y, para cerrar esta entrada, dejo un link a un artículo publicado hoy en arxiv que trata precisamente de la posibilidad de tratar la tensión cómo algo dinámico en la teoría de cuerdas Dynamical String Tension in String Theory with Spacetime Weyl Invariance. Por supuesto en ese enlace el planteamiento y los detalles no están en nada relacionados con lo que yo planteo. Dos de los autores Steindard y Turok, son bien conocidos, aunque no necesariamente bien considerados por todo el mundo (están en la lista negra de Lubos, por ejemplo xD). Digamos que la publicación de ese artículo, que he empezado a leer, y seguiré leyendo ahora, me ha animado a escribir esta entrada, centrándome en las ideas relacionadas con lo que se plantea. Hay mas cosas que me gustaría comentar sobre la teoría de cuerdas, pero ya será cuando se presente la ocasión propicia.

Teorías de Kaluza-Klein

marzo 2, 2014

Voy a exponer cómo la teoría clásica del electromagnetismo, y otras teoría gauge, puede surgir de las dimensiones adicionales. Es lo que se conoce como el modelo de Kaluza, publicado allá por el 1919, con la RG recién salidita del horno.
Antes de ello hablar un poco del electromagnetismo en si mismo. La idea es sencilla, existen en la naturaleza unos campos E y B (eléctrico y magnético respectivamente) que afectan a unos cuerpos que tiene la característica de estar cargados eléctricamente.

El campo eléctrico y magnético se describen por las ecuaciones de Maxwell

\vec{ \nabla } \cdot \vec{E} = \rho \\
\vec{ \nabla } \times \vec{E} = - \frac{\partial \vec{B}}{\partial t} \\
\vec{ \nabla } \cdot \vec{B} = 0 \\ .
\vec{ \nabla } \times \vec{B} = \vec{j} + \frac{\partial \vec{E}}{\partial t}

Dónde \rho es la densidad de carga y j la densidad de corriente (la corriente está asociada a que la carga se desplaza).
Bien, estas ecuaciones implican a los campos. Pero esos campos pueden derivarse de unos potenciales. La idea sencilla es que la variación de esos campos en el espacio de un punto a otro es lo que genera que haya una fuerza. Esa variación de un punto a oro se traduce en la derivada, claro. Así pues podemos expresar B y E en términos, respectivamente, de un potencial (tri)vector A y un potencial escalar V. Con estos podemos formar un cuadripotencial vector A4=(-V,A3).
La expresión exacta de los E y B en términos de los A y V es:

\bf{B}=\nabla \times \bf{A}

\bf{E}=\frac{\partial{\bf{A}}}{\partial t}-\nabla V

Lo interesante es que esas ecuaciones que definen E y B en términos de A y V no cambian si modificamos :

\bf{A}+\nabla G

V-\frac{\partial G}{\partial t}

Dónde aquí G es una función arbitraria de x,y,z, t. Pués bien, es esta indeterminación de los capos en términos de los potenciales lo que se conoce cómo invariancia gauge. En el caso del electromagnetismo surgió de manera ad hoc. Venia incorporada al introducir el concepto de potenciales. En otro post veremos cómo se puede relacionar esa invariancia con una invariancia bajo fases locales de una función de onda cuántica.

Lo primero es introducir el concepto de compactificar una dimensión. El primero en hacer esto fué Oscar Klein (no confundir con el célebre matemático Felix Klein). Si tenemos un campo escalar $ \Phi (x,y) $ dónde x representa el espaciotiempo normal e y una dimensión adicional de tipo espacial requerimos:

\Phi (x,y)= \Phi(x,y + 2\pi)

De esto se sigue que podemos expandir \Phi en serie de Fourier

\Phi(x,y)= \sum_{n=-\infty }^{n= \infty } \Phi_n(x)e^{iny/r}

A consecuencia de la teoría cuántica, en un estado con un n dado la componente y del momento debe ser O(|n|\hbar/r) . Así para un radio lo suficientemente pequeño, r, sólo el estado n=0 aparecerá en el mundo de la física de “bajas energías” (i.e. E\ll\hbar c/r ).

En su versión moderna las teorías de Kaluza-Klein se materializan en las dimensiones extra de las teorías de cuerdas. En las primeras versiones, previas a la “segunda string revolution”, se consideraba que el radio de compactificación debía de ser del orden de la longitud de Planck, es decir:

r \approx l_P \equiv (\hbar G_N / c^3 )^{1/2} \approx 1.6 \times 10^{-35} m

De ese modo la masa de los estados excitados ( n \not= 0) serían del orden de la masa de Planck M_P \approx 10^{19} GeV/c^2 , lo cuál sería imposible de obtener con los colisionadores actuales, o los fabricables en un futuro cercano. En la segunda “string revolution” se introdujeron objetos cómo las D-branas, se comprobaron dualidades entre diversas teorias de cuerdas, surgió la teoría M, etc. Algunos de esas ideas llevaron a que la gente considerase la posiblidad de que alguna, o algunas, de las dimensiones extra del espacio-tiempo pudiera tener una dimensión mesoscópica (a medio camino entre lo macroscópico, digamos algo submilimétrico, y la longitud de Planck). En ese caso, entre otras cosas, los modos de Kaluza-Kklein de algunas partículas (los modos con $late n \not= 0 $, podrían tener masas similares a las alcanzables en el LHC. Hasta ahora no se ha observado ningún signo de esos modos en las colisiones efectuadas a 8 TeV, así que hay límites severos para el tamaño de esas dimensiones mesoscópicas.

El modelo de Kaluza parte de considerar un espacio de 4 dimensiones espaciales y una temporal y compactificar en un círculo una de las espaciales. Denoto con M, N índices en 5 dimensiones y con \nu \mu en 4.

Tenemos por tanto una métrica en 5 dimensiones g_{MN} que vista desde 4 dimensiones se descompone del siguiente modo:

1. g_{\nu\mu} La métrica habitual en 4 dimensiones.

2.g_{\nu4}=g_{4\nu} Un campo vectorial en 4 d.

3.g_{44} Un campo escalar en 4 d.

Denotamos x4 cómo y. Kaluza impuso la siguiente condición:

4.\frac{\partial g_{MN}}{\partial y}=0

¿Por qué? Bien, esto simplemente implica que los campos no dependen de la coordenada y. Por supuesto la coordenada y esta compactificada a un círculo, es decir se identifican los puntos y e y +2.pi.r .

Cómo puede sospecharse fácilmente adónde queremos llegar es a que se puede identificar el campo vectorial de la ecuación 1 con el cuadripotencial del campo electromagnético A_\nu .

Para que la idea funciones se expande la métrica en términos de una serie de Fourier en la coordenada y:

5.g_{MN}(x,y)=\sum_n g_{MN}^n(x) .e^{iny/r}

Ahora lo que se hace es una parametrización de la métrica, digamos una descomposición en la que queda:

6. g_{44}=k. \Phi
7.g_{4\nu}=k.\Phi.A_\nu (y el antisimétrico)
8. g_{MN}=k.g_{\nu\mu} + \Phi.A_\nu

y dónde k=\Phi^{-1/3}

Escrito en forma matricial esto es

g_{MN}^{(0)} = \phi^{-1/3} \left( \begin{array}{cc} g_{\nu\mu} + \phi.A_\nu & \phi A_{\nu}  \\ \phi A_{\nu} &  \phi   \end{array} \right)

Bien, esta es la métrica, pero la métrica es sólo parte de la historia. Lo que nos da la dinámica es la acción. Partimos de la acción para la ecuación de Einstein en 5 d que básicamente, y salvo factorcillos, es la integral de el escalar de Ricci asociado a esa métrica.

Lo interesante es que en las ecuaciones 6,7, 8 hemos descompuesto la métrica 5 d en términos de cantidades 4d.Si calculamos el escalar de Ricci manteniendo explícitamente la presencia de esos campos 4 d obtenemos que la acción queda de la forma:

S=-(2\pi.r)\int d^4xe/2G^2_5\left[ R + 1/4   \phi F_{\nu\mu}F^{\nu\mu} + 1/6\phi^2\partial^\nu\phi\partial_\nu\phi \right]

Dónde F_{\nu\mu} es cómo podría esperarse el tensor campo electromagnético asociado al cuadrivector A_\nu Y G es la constante gravitatoria en 5 dimensiones.

Así pues la invariancia bajo GCT (general coordinates transformations) de la gravedad en 5 dimensiones se traduce en que cuando una coordenada se compactifica en la aparición de un campo que cumples las mismas ecuaciones que el campo electromagnético y que por tanto tiene una invariancia gague local. Es decir, una invariancia interna aparece en este formalismo como una consecuencia de una invariancia externa al compactificar.

No he puesto todos los detalles, que llevaría mucho tiempo, pero espero que con esto se coja bien la idea.

De todos modos esta idea es sólo una pequeña parte del asunto de la compactificación. Nos hemos ocupado solamente de qué pasa cuando la métrica se compactifica, pero ¿qué pasa cuando se copactifica un campo cúantico fermionico sin masa? Más interesante aún ¿qué pasa si se compactifica un campo que ya en 5 dimensiones es un campo gauge?

En fín, muy rico el mecanismo este de la compactificación, sirva este post para coger una mínima idea de las posibilidades y complejidades que conlleva.

Leonard Susskind: Black holes y teoría de cuerdas (libro)

septiembre 23, 2013

An Introduction to Black Holes, Information And The String Theory Revolution: The Holographic Universe

El tema caliente -literalmente un muro de fuego- de este verano ha sido la propuesta de Polchinsky, Sully y dos autores más en las que se planteaban si en el interior de los agujeros negros antiguos (de edad superior al tiempo de Page, definido cómo aquel en el que se ha emitido la mitad de la masa en radiación Hawking, había un firewall en el que cualquier objeto que cayese en el agujero negro sería inmediatamente vaporizado. Eso iría en contra del principio de complementariedad que afirma, dicho de un modo intuitivo, que un observado no percibirá nada especial cuando atraviese el horizonte de sucesos de un agujero negro lo suficientemente grande, hasta que sea aniquilado en la singularidad central, claro. El artículo en cuestión es Black Holes: Complementarity or Firewalls?. La wikipedia se ha hecho eco rápidamente de la controversia firewalls en la wiki. El tema ha generado bastante polémica, con gente a favor y en contra. Lubos ha tratado el tema varias veces en su blog, y es de los que está en contra. Susskind, autor junto a ‘t Hoof del principio de complementariedad ha intervenido activamente en la polémica y hasta le ha llevado, a afirmar hace unos pocos días en un congreso, que la teoría de cuerdas, tal cuál está actualmente, no ofrece respuestas a todas las cuestiones sobre la gravedad cuántica. Polchinsky, el autor principal del artículo de los firewalls, ha expresado una opinión similar. Esto implica, entre otras cosas, que se pone en duda la validez absoluta de la correspondencia AdS/CFT de Maldacena. Todo esto, como cabría esperar, ha exasperado a Lubos, que considera que la comunidad de teóricos de cuerdas en la última década han perdido integridad moral, rigor (ya no respaldan las intuiciones con cálculos) y si le apuran hasta el mojo (Austin Powers dixit xD).

Sin duda cualquiera que este metido en la física teórica actual estará familiarizado con los términos que he usado en la descripción de la polémica de los firewalls. Ahora bien, también es posible que si no trabajan en ello (o incluso si trabajan en temas muy cercanos, pero no exactamente en ello) no hayan leído una introducción formal y dedicada a esos temas. Sin duda habrán leído sobre el cálculo de entropia en agujeros negros mediante teoría de cuerdas y sobre la conjetura de Maldacena en los libros/cursos generales sobre teoría de cuerdas. Y habrán leído algún review de tal o cuál tema implicado en algún artículo, y habrán leído debates sobre aspectos concretos en los blogs. Pero tal vez no hayan leído una presentación dedicada sobre el asunto en la que se de una introducción a todos los temas de una manera mas o menos autocontenida. Pues bien, justo eso hace el libro de Susskind (y Lindesay).

Se puede leer el índice, y alguna página, en google books

Por comodidad de referencia, y para que la gente sepa los detalles, hago un copy & paste del índice.

The Schwarzschild Black Hole
3
Scalar Wave Equation in a Schwarzschild Background
25
Quantum Fields in Rindler Space
31
Entropy of the Free Quantum Field in Rindler Space
43
Thermodynamics of Black Holes
51
The Stretched Horizon
61
The Laws of Nature
69
The Puzzle of Information Conservation in Black Hole
81
Horizons and the UVIR Connection
95
Entropy Bounds
101
The Holographic Principle and Anti de Sitter Space
127
Black Holes in a Box
141
Entropy of Strings and Black Holes
165
Bibliography
179
Página de créditos

Podemos decir que el libro se divide en dos grandes partes, la primera, que ocupa hasta el tema “entropy bounds” discute los aspectos clásicos y semiclásicos de la teoría de agujeros negros. Empieza discutiendo el agujero negro de Schwarschild, en varios sistemas de coordenadas. Enseguida pasa a sistemas que describen el agujero en el entorno del horizonte. Luego empieza a tratar los campos cuánticos en el entorno de un agujero negro la cuál lleva al famosísimo resultado de Hawking de que los agujeros negros emiten radiación. El tratamiento que hace del tema es muy, muy diferente al del artículo original de Hawking. No se mencionan en ningún momento las transformaciones de Bogoluivob que son clave en el trabajo de Hawking. Elige usar el formalismo de la matriz de densidad, a la cuál hace una introducción (conviene leerla porque los detalles de la exposición que da son ligeramente diferentes de otros libros, por ejemplo del de mecánica cuántica de Yndurain).

Luego va haciendo un paseo sobre diversas propuestas que se han ido haciendo, como el “stretched horizont” que es una zona de entorno a la longitud de Planck alrededor del horizonte de sucesos en la que habría una gran temperatura y tendría naturaleza cuántica. Esta idea (que suena similar a los firewalls, pero no lo es en absoluto) ha sido descartada hace tiempo y su interés es histórico. Luego ya se mete en consideraciones generales sobre el destino final del agujero negro (discutiendo diversas opciones), explica porque esa evaporación Hawking pone en problemas la evolución unitaria de la mecánica cuántica, etc. La exposición es clara y da bastantes detalles interesantes sobre diversos aspectos.

Luego, en la segunda parte, hace una introducción a diversos temas relacionados con la teoría de cuerdas. Por supuesto no hace una introducción a la teoría de cuerdas en sí (algo imposible en un libro de poco más de 100 páginas) y asume que el lector está familiarizado con ella. Empieza hablando del principio holográfico (del cuál es coautor junto a ‘t hooft, lo mismo que sucedía con el principio de correspondencia). Este principio afirma que la física del interior del agujero negro está codificada en su horizonte de sucesos, lo mismo que pasa con los hologramas, que almacenan en dos dimensiones información sobre 3. Ahí, cómo en otros puntos, es relevante la mecánica estadística y los conceptos de entropía e información, que son cuidadosamente analizados por Suskind en diversos puntos del libro.

El tema estrella es la conjetura AdS/CFT, o conjetura de Maldacena. Este es un tema muy amplio, y un tanto difuso en mi opinión. He leído sobre él en los libros de texto de cuerdas habituales, y había leído un review. Éste verano he leído algún review más (ninguno por debajo de 40 páginas) y aunque coinciden en unos cuantos aspectos varían en otros, y cada uno cuenta una cosa. Pues bien, el capítulo correspondiente de éste libro es una introducción más, que está muy orientada a el objetivo general del libro. Está bastante bien hecha y lidia con amenidad (al menos tanta como se puede hacer con el tema xD) con la definición de la frontera conforme del espacio de anti de Sitter. Antes, por supuesto, ha hecho una introducción general a dicho espacio, y en capítulos anteriores ya había dado una idea de porque ese espacio es útil para analizar el tema de los agujeros negros. En el capítulo de black holes in a box, dónde explica que un agujero negro nunca puede estar en equilibrio termodinámico estable con su radiación de Hawking y que hay una relación matemática con ese “agujero negro en una caja” y el espacio de anti de Sitter.

Explicar que es la conjetura de Maldacena en pocas palabras es casi imposible. Generaliza un poco el principio holográfico y viene a identificar una teoría de gravedad cuántica (teoría de cuerdas en última instancia) en el espacio de anti de Sitter (multiplicado por una 5 esfera en el paper original de maldacena y con un espacio de Einstein, uno en el que el tensor de Ricci es proporcional a la métrica) en caso mas generales) con una teoría gauge en la frontera conforme del espacio de de anti de Sitter (que es una teoria de campos conforme por consecuencia) La conexión conecta el comportamiento a altas energías de una con el infrarrojo de otra.

Luego, ya para ir terminando, recopila lo visto y hace consideraciones y conclusiones. Una idea clave es que la información de la materia que cae parece estar codificada, de manera no local, en la radiación Hawking emitida, y así la conservación de la unitariedad cuántica implica una cierta no localidad. También, cómo aparece de manifiesto en la conjetura de maldacena, hay una conexión entre comportamientos a altas energías con el comportamiento a bajas energías de otras. Eso es importante porque inicialmente se pensaba que los efectos cuánticos sólo eran relevantes cuando el radio de curvatura del espacio se acercaba a la longitud de Planck. Esa conexión indica que, por contra, hay situaciones en las que los efectos cuánticos serán relevantes incluso para campos gravitatorios relativamente débiles.

Hay que decir que éste asunto de los agujeros negros y la evaporación cuántica es, en principio, muy importante, por aquello de que supone un desafío a la unitariedad de la cuántica, y se supone que la conjetura de Maldacena ha dado una respuesta que salva la unitariedad. Aún así no todos los físicos teóricos están terriblemente entusiasmados con éste tema en concreto, al menos no lo bastante cómo para dedicarse a ello. Yo me incluyo en ese grupo y debo decir que si he leído el libro ha sido un poco por casualidad, por aquello de que no a todos lados puedo ir con el tablet, y éste libro es ligero para llevar y así, poco a poco, me lo he ido leyendo éste verano. La verdad es que, a posteriori, si recomiendo el libro, porque aparte de el tema central del que he hablado se tratan muchos detalles interesantes y curiosos de diversos temas de física que no viene mal saber. Y, desde luego, viene perfecto para situar a cualquiera que esté interesado en meterse en los detalles de la discusión de los firewalls y cómo referencia para entender algunas motivaciones del trabajo de Maldacena.

Strings 2011

junio 28, 2011

Escribo un post “de urgencia” para señalar que se está actualmente celebrando en la universidad de Uppsala (Suiza) la conferencia anual de la teoría de cuerdas que, lógicamente, este año se denomina strings 2011.

Ha comenzado hoy. La charla de apertura ha corrido a cargo de David Gross. La charla está disponible en video aquí. En general esta previsto que todas las charlas estén disponible en vídeo. Al momento de escribir esta entrada los videos disponible pueden consultarse en esta página.

Aún no he tenido tiempo de verlos (me pondré a ello cuando termine de escribir aquí). Si queréis saber de que habla cada conferenciante antes de lanzaros a ver los vídeos podéis consultar los horarios aquí. Aparte de los horarios en esa página podéis encontrar el título de la charla de cada conferenciante. Así puede verificarse que, para hoy, hemos tenido:

David Gross (KITP, Santa Barbara) opening talk
Michael Green (Cambridge University) “Multiloop systematics in pure spinor field theory”
Thomas Klose (Uppsala University) “Recent Results for Holographic Three-Point Functions”
Henrik Johansson (Saclay) “Lie Algebra Structures in Yang-Mills and Gravity Amplitudes”
Fabio Zwirner (University of Padua) review talk “LHC results and prospects from a theorist’s viewpoint”
Niklas Beisert (AEI Potsdam) “Counterterms and E7 Symmetry in N=8 Supergravity”

Posiblemente la que mas llame rápidamente la atención sea la de Fabio Zwiner, por aquello de que en el título está escrito “LHC results”. Al fin y al cabo la física necesita experimentos, y hoy día el 90% de la fenomenología de la física más allá del modelo standard que se está buscando en el LHC proviene de consideraciones de la teoría de cuerdas (y su hermana pequeña, la supersimetría).

Así, sin haber visto las conferencias, veo que Michael Green habla de las spinor strings. Realmente no he leído ningún paper sobre ese tema y todo lo que conozco viene de los blogs de Lubos y el ahora pragmáticamente inactivo Jacket Distler. De hecho el último post de Distler en su blog sobre spinor strings llevó a una disputa dialéctica entre el y Lubos que erivó en que Distler banear a Lubos de su blog. En too caso las “spinor strings” serían una forma alternativa de formular el lagrangiano base de la teoria de cuerdas que se supone que al menos en algunos casos proporcionaría algunas ventajas. Ese tema está ligeramente relacionado, aunque ni mucho menos es lo mismo, con los mas famosos twistor y su uso en teoría de cuerdas y en supergravedad (con N máximal, es decir, en principio teorías no físicas). Este año estuve una temporada mirando el tema de los twistors y la “twistor minirevolution” com la vendió Lubos. Realmente el tema ha causado mucho interés y revuelo (incluso entre gente “rarita” como Matti Pitkannen y MArni Dee Shepphard, de los que hablé en el post anterior. A mi la verdad es que me ha parecido un tema “bonito”, que permite encontrar relaciones entre diagramas de Feynman a un orden dado, sumarlos “todos en uno”, o también entre diagramas a un orden y al orden siguiente. Todo muy interesante, y en algunos casos muy particulares de interés físico hasta permite explicar relaciones previamente obtenidas por otros métodos de una manera mas elegante y generalizable. Con todo aún falta mucho por hacer antes de que eso conecte con algo de interés inmediato y por ese motivo (bueno, eso y mi pereza natural para publicar) no escribí una entrada dedicada sobre el tema. Precisamente por eso he aprovechado que estaba íntimamente relacionado con las spinor strings y he contado ahora por encima de que iba, enmendando un poco mi omisión anterior.

Thomas Klose habla de holographic three point vertex. Debo ser el físico interesado en la teoría de cuerdas al que menos impresiona la holografía y la conjetura de Maldacena. A riesgo de que alguien me de cuatro bufidos me atrevería a decir que ese tema es un caso de “burbuja académica” y que en algún momento debería pinchar.

La charla de Henrik Johansson parece de carácter muy matemático, y de un tema bastante trillado, las álgebras de Lie. Tampoco me entusiasma, la verdad.

La de Niklas Beisert parece ir sobre la hipótesis de que después de todo la supergravedad N=8 si es renormalizable (en contra de lo que se pensaba hace mucho tiempo). Es un tema interesante en el que es imprescindible que se siga trabajando para verificarlo definitivamente. Pero también es un tema muy técnico y muy concreto que difícilmente va a atraer al grueso de la comunidad.

Total, que de hoy recomiendo la charla sobre el LHC y la de las spinor strings.

Si alguien quiere ir ojeando los pdfs de las charlas (las ya dadas y las que están por venir) puede encontrarlos en esta otra página. O al menos eso he creído entender, que la web de esa universidad- como la de la mayoría de las universidades es bastante caótica.

En fin, lo suyo sería que pusiese entradas diarias informando de como transcurre la conferencia. Pero no sé yo si será posible. En principio, aún sin confirmar, me iré unos días de vacaciones a partir del miércoles o el jueves, y no veré los vídeos posteriores hasta la vuelta. En todo caso los blogs de los sospechosos habituales (Woitt para criticar, vixra blog de manera más o menos imparcial, y Lubos -si sus pasiones políticas le dejan- para “sentar cátedra”-dicho sea de manera cariñosa.).

P.S. Es un poco cutre que ni siquiera tengan un logo, que me hubiese podido servir para poner una imagen en la entrada, ya les vale.

Update: Acabo de ver la conferencia de Michael Green en “spinors strings”. Como cabría esperar no he entendido todo, pero me ha servido para hacerme una ligera idea del tipo de cosas que tratan (que al fin y al cabo ese es el propósito de la conferencias). Por lo que he entendido empiezan con un lagrangiano de cuerdas al que le añaden variables spinoriales. La utilidad de eso es que luego pueden hacer una teoría de perturbaciones que sea explicitamente covariante y supersimétrica en el espacio target. Actualmente la mayoria de artículo tratan con teorías de campo efectivas, estudiar compactificaciones, branas y etc, etc. El caso es que normalmente uno no tiene que hacer muchos cálculos con loops (si acaso para estudiar la interacción entre dos branas) y es posible que tenga poco reciente las bases de la teoría de cuerdas perturbativas. La idea es que uno debe sumar sobre todas las superficies (en particular superficies de riemann) que se generan como resultado de evolucionar la cuerda en el tiempo. Los “loops” de teoría de campos se traducen en genus de la superficie (para entendernos, el número de agujeros de la superficie). Eso es a nivel de la worldsheet, claro. Bueno, el caso es que en algún punto, para hacer los cálculos explícitos uno debe elegir un gauge (hacer un gauge fixing). Si no recuerdo mal normalmente se elegía el conocido como “light cone gauge” (gauge del cono de luz). En ese gauge se obtenían las partículas que actualmente forman el espectro de la teoría de cuerdas. También sirven para obtener los “vertex propagators”. Un propagador de vértice es un operador que se representa como un punto en la superficie de Rieman y representa los estados asintóticos (lo que serían las líneas externas en un diagrama de Feynman).

Bien, eso es a grandes rasgos (y si memoria no me ha jugado una mala pasada en los detalles) el proceder habitual en teoría de cuerdas.Evidentemente los cálculos son muy complicados. Uno tiene que eliminar redundancias y ahí aparece el moduli de la superficie de Riemman, el espacio de Teichmuler y todas esas bonitas matemáticas de la base de teoría de cuerdas perturbativas(posiblemente el libro dónde mejor viene explicada esa matemática el de “Quantum field theory of point particles and strings” de Brian Hatfield). Bien, en la formulación spinorial esos diagramas en que aparecen superficies se sustituyen por diagramas en que aparecen líneas. Eso si, sigue habiendo puntos de inserción, que representan vértices. Debo, no obstante, decir que ahí me he perdido un poco ya que en algún momento de la conferencia se pasa de analizar teoría de cuerdas a analizar supersimetría (es decir, teoria de campos para partículas puntuales).

Bien, una vez que está trabajando con supergravedad (maximal) empieza a estudiar en detalle la estructura de loops de esa(s) teoría(s) usando las técnics spinoriales. Y según comenta los cálculos explícitos están hechos hasta 4 loops para todos los grafos posibles y sólo a 5 loops faltan datos Obviamente eso es un auténtico “tour de force”. No comenta nada de los twistors, pero se intuye bastante fácil que si en algún momento hace supergravedad + teorías gauge para la parte gauge los twistors y sus técnicas deben ser de gran ayuuda.

En definitiva, muy interesante, pero desde luego no es algo en lo que yo particularmente quiera profundizar. O, para ser exactos, si dispusiera de mucho mas tiempo si que profundizaría, pero me temo que salvo que algún motivo me obligue a ello tendré que dejarlo estar. Por cierto, si en algún momento encuentro un enlace a las diapositivas (slides) de las conferencias lo pondré por aquí.

Update 2: Ya he visto aproximadamente la mitad de la conferencia de Fabio Zwirner. Es muy, muy diferente a la de Michael Green. Para empezar eta el tema del acento. Por el nombre deduzco que el ponente es Italiano. Par un español resulta mucho mas sencillo hacerse con el acento de este señor que con el de M. Green. Y luego está el punto del nivel de la conferencia. La primera parte de la misma es prácticamente divulgativa. Cualquier que haya leído un libro de divulgación sobre física de partículas (y lo haya asimilado de manera decente) podrá seguirla sin problemas. Nos cuenta los detalles básicos del LHC, de sus dos detectores principales, ATLAS y CMS, y de los secundarios LHC b y Alice y que tipo de cosas buscan cada uno nos explica los conceptos de luminosidad energía de colisión en el centro de masas, etc, etc. Luego analiza los diversos canales por los que se puede explorar nueva física, y algunas comparativias entre el tevatron y el LHC Esto ya es un poco, sólo un poco, mas lioso par el público que venga de divulgación (no sé si los libros de divulgación mencionan cosas como el concepto de partón, que no es que sea especialmente complejo, al contrario, un partón es un nombre genérico para cualquier partícula que haya en el interior de un protón o un neutrón, i.e. un partón puede ser un quark, un antiquark o un gluón). En cualquier caso una conferencia recomendable para casi cualquiera con un mínimo de base en física de partículas por su sencillez y claridad.

¿Está la comprobación experimental de la teoría de cuerdas a la vuelta de la esquina?

junio 1, 2011

Pudiera ser. De las varias evidencias experimentales a 3 sigmas que estaban por ahí pululando una de ellas ha dado un salto a casi 5 sigmas. Podéis leer un análisis del tema en varios blogs. El primero en reportar la noticia fué el de Jester, resonances, en la entrada CDF Wjj anomalie goes 5 sigmas!!!!. El gráfico clave que corresponde a la anomalía de impacto (una traducción posible de la palabra bump) a 150 GeV es este:

Ese factor de certeza suele tomarse como descubrimiento, pero aún conviene guardar un poco de cautela ya que la fenomenología en los colisionadores hadrónicos es compleja, según comenté en una entrada reciente Los problemas de fondo de la física experimental y la fenomenología. La anomalía podría deberse a un mal modelado del fondo de colisiones QCD, pero leyendo en varios blogs parece ser que se ha hecho un trabajo muy cuidadoso en ese aspecto y está casi descartado. También podría ser algún error sistemático del Tevatron, o más concretamente del detector CDF. En cualquier caso el otro detector del Tevatron, D0 podría confirmar o refutar el descubrimiento. También el detector ATLAS del LHC podría confirmar el descubrimiento mediante el análisis de los datos que ya ha tomado.

Sea como sea con los datos actuales hay motivos mas que suficientes para considerar que el descubrimiento muy probablemente es genuino y que, por consiguiente, toca buscarle explicaciones. Y al tratar de buscarlas tenemos un factor extra que da credibilidad a la noticia. Resulta que hay un tipo de partícula que es de modo natural candidata a corresponderse con ese “impacto” es un vector Z’ leptofóbico. Voy a explicar un poco que es eso. En la teoría electrodébil (la que explica la interacción nuclear débil, la responsable de las desintegraciones del núcleo) tenemos tres bosones de intercambio (los mediadores de la interacción). Estos se denotan como W+, W-, que tiene carga eléctrica positiva y negativa respectivamente, y un bosón Z, que tiene carga eléctrica nula. En teoría de cuerdas, cuando uno hace compactificaciones de las dimensiones adicionales que generen el modelo standard de partículas es muy habitual encontrarse que aparte del modelo standard hay una simetría U(1) extra, que se corresponde con bosones con características muy similares al Z, pero con una mayor masa. Estos son los bosones Z’. Digamos que una de las predicciones mas genéricas de la teoría de cuerdas, en la mayoría de su sus aproximaciones fenomenológicas son este tipo de bosones. Por tanto hallar uno de ellos es un punto a favor de la teoría de cuerdas.

Hay una cosa que no he mencionado del Z’, su carácter “leptofóbico”. Esto viene a decir que se acopla más a los hadrones (partículas que interactúan mediante la interacción nuclear fuerte, la responsable de que los quarks formen protones y neutrones y estos, a su vez los núcleos del átomo) que a los leptones (que sólo interactúan por interacción nuclear débil y electromagnética). El motivo por el que el Z’ debe ser leptofóbico es que antes del tevatrón y el LHC se habían hechó búsquedas de este tipo de bosones y no se habían hallado, con lo cuál había cotas experimentales. Eso sí, las búsquedas previas habían hecho uso de interacciones débiles así que simplemente aduciendo que el bosón Z’ tenga una sección eficaz pequeña bajo ese tipo de fuerzas se salta uno las cotas experimentales.

Ya antes de la confirmación a 5 sigmas llevan haciéndose varios modelos de este evento. Algunas usando modelos de teoría de campos inspirados en teoría de cuerdas del bosón Z’. Otros usando opciones diferentes al Z’ (principalmente modelos con squarks, compañeros supersimétricos de los quarks, o con modelos de technicolor, en los que los quarks a su vez son partículas compuestas). Pero, sin duda, lo más natural es buscar modelos puramente “cuerdísticos” de ese evento. Lubos ha puesto hoy una entrada al respecto: Seeing D-branes at the Tevatron and the LHC.

Uno podría preguntarse por el motivo por el que habla de D-Branas en el título en vez de bosones Z’. La causa es sencilla. Los modelos fenomenológicos de teoría de cuerdas que mas consecuencias pueden tener para la física en el LHC son los basados en lo que se conoce como “braneworlds”. Estos son modelos en los que, dicho de manera muy simplificada, las partículas observadas viven en una D3-Brana y sólo la gravedad puede explorar una o varias dimensiones extra que tiene un tamaño que, sin ser macroscópico, son mucho mas grandes que la longitud de Planck. Este tipo de modelos son los que permiten, entre otras cosas, la posibilidad de agujeros negros en el LHC. Para analizar las características generales de estos modelos, al nivel del tipo de partículas que pueden esperarse, hay un artículo genérico: The LHC String Hunter’s Companion que leí en su momento (antes que Lubos, esta vez me he adelantado a él 😉 ). Basándose en ese tipo de modelos ha aparecido un artículo muy reciente que explicaría este bosón LHC en un formato puramente cuerdístico: Stringy Origin of Tevatron Wjj anomaly.

Aparte de esta anomalía hay por ahí pendiente otra, la de la asimetría “adelante-atrás” (es decir, que el número de eventos de un cierto tipo no es el mismo en las dos direcciones de un choque entre un protón y un antiprotón, el tipo de choques que usa el tevatrón). Hay también algún tipo de modelos que pueden explicar esa anomalía en términos de braneworlds. En general hay varios indicios experimentales separados que favorecen este tipo de modelos. Entre otras cosas esos modelos pueden explicar (en los escenarios tipo Randall-Sundrum) la jerarquía (es decir, a causa de que la masa de las partículas, generada por el higgs, sea mucho menor que la masa de Planck). Para eso las dimensiones extra deberían tener un tamaño que sería observable a las energías del LHC y eso es lo que parece estar sucediendo. Eso sí, no todos los aspectos, ni mucho menos, de esos escenarios serían accesibles al LHC. Dependiendo de los detalles el LHC podría ver sólo algunos de los más sencillos y otros serían observables sólo si se incrementa un poco la energía. Con todo, si la interpretación de este Bump Wjj como un vector Z’ leptofóbico se consolida la teoría de cuerdas tendrá un respaldo experimental muy fuerte, y el LHC podría consolidarla aún más. Y en ese caso todo apunta a que con algo mas de energía (un nuevo colisionador) podríamos explorar muchos detalles de esta.

Aún es pronto para lanzar las campanas al vuelo y abrir las botellas de champagne (o, para otros, de gastarse una paga extra en antidepresivos por haber estado atacando durante años a la teoría de cuerdas). En cualquier caso, sea un efecto cuerdístico o no este Wjj Bump parece ser el primer indicador totalmente serio de física mas allá del modelo standard encontrada en un acelerador. Y, por consiguiente, el descubrimiento mas importante en física de partículas en varias décadas. Todavía es tiempo de ser algo prudentes, pero, por primera vez, es mucho mas probable la nueva física que el hecho de estar ante un error.

Multiverso y mecánica cuántica

mayo 20, 2011

Hoy ha aparecido en arxiv un artículo de dos “pesos pesados”, Leonard Suskind y Raphael Bousso sobre la relación entre las bases de la mecánica cuántica y el multiverso: The Multiverse Interpretation of Quantum Mechanics.

El abstract del artíclo es bastante auto-explicativo:

We argue that the many-worlds of quantum mechanics and the many worlds of the multiverse are the same thing, and that the multiverse is necessary to give exact operational meaning to probabilistic predictions from quantum mechanics.
Decoherence – the modern version of wave-function collapse – is subjective in that it depends on the choice of a set of unmonitored degrees of freedom, the “environment”. In fact decoherence is absent in the complete description of any region larger than the future light-cone of a measurement event. However, if one restricts to the causal diamond – the largest region that can be causally probed – then the boundary of the diamond acts as a one-way membrane and thus provides a preferred choice of environment. We argue that the global multiverse is a representation of the many-worlds (all possible decoherent causal diamond histories) in a single geometry.
We propose that it must be possible in principle to verify quantum-mechanical predictions exactly. This requires not only the existence of exact observables but two additional postulates: a single observer within the universe can access infinitely many identical experiments; and the outcome of each experiment must be completely definite. In causal diamonds with finite surface area, holographic entropy bounds imply that no exact observables exist, and both postulates fail: experiments cannot be repeated infinitely many times; and decoherence is not completely irreversible, so outcomes are not definite. We argue that our postulates can be satisfied in “hats” (supersymmetric multiverse regions with vanishing cosmological constant). We propose a complementarity principle that relates the approximate observables associated with finite causal diamonds to exact observables in the hat.
.

No es la primera vez que se ha intentado hacer algo en esta línea. Peter Woit, el autor del blog contrario a la teoría de cuerdas “not even wrong” ha puesto una entrada sobre este artículo Cosmological Interpretations of Quantum Mechanics dónde da un enlace a un artículo del año pasado. En el libro Universe o multiverse del 2003 ya se trataba este tema.

Digamos que lo importante no es que se haya tratado el asunto sino que lo hayan hecho dos físicos tan famosos como Susskind y Bousso.

La idea de este tipo de artículos es más o menos sencilla de entender. En mecánica cuántica la función de onda evoluciona de manera determinista. Sin embargo cuando “colapsa”, es decir, cuando se hace una “observación” el resultado de la medida es incierto y esta distribuido probabilisticamente entre una serie de valores posibles. Una interpretación famosa de ese hecho, distinta a la interpretación escolástica de cophenage es la interpretación de los “muchos mundos” de Everett. En esa interpretación cada vez que se hace una medida se produce un universo nuevo, uno por cada resultado posible de la medida. En las teorías modernas de inflación (la inflacion es una etapa de expansión muy acelerada del universo, requerida para conciliar algunas observaciones cosmológicas del universo en sus primeros instantes) es requerido que no haya una sino muchas, en la práctica infinitas, inflacciones Cada una de estas crearía su propio universo, y el conjunto de todos esos universos el multiverso. La tentación es obvia, unir la interpretación de Everett de la mecánica cuántica y estos modelos de “inflación eterna” o “inflación caótica” de tal modo que cada universo opcional de Everet es un universo real creado por el mecanismo de inflación.

En eete artículo usan, como paso intermedio, la interpretación de decoherencia de la mecánica cuántica. Esta consiste en eliminar los “observadores” y simplemente hablar de dos sistemas cuánticos: uno muy pequeño, con pocos grados de libertad (la partícula o átomo a estudiar) y otro grande con muchos grados de libertad (el sistema de laboratorio y el observador que lo manipula). Ahí el “colapso” de la función de onda es una mezcla (entrelazamiento) de los estados del sistema pequeño con los del sistema grande. La interpretación de decoherencia, en mi opinión es la mas “razonable”, en el sentido de menos metafísica, de las disponibles, pero tiene algunos problemas (que son expuestos en el artículo de Suskind-Bousso. Argumentan que, aparte de los problemas habituales, la deocherencia no funciona en el multiverso. No he leído aún el artículo entero, pero veo que .hacen una llamda al principio de complementariedad de agujeros negros (que dice que la interpretación cuántica del interior de un agujero negro y debe ser la misma, es decir, debe tener los mismos estados cuánticos, para observadores fuera y dentro del agujero negro).

Imagino que Lubos estará a punto de publicar algo sobre este artículo, y sabiendo su poco cario al multiverso no creo que sea una muy favorable (aunque Susskind sea uno de los físicos que mas respeta). A mi particularmente no me atraen tampoco nada este tipo de especulaciones. Leeré el artículo porque sospecho que es de lectura casi obligada y que en el futuro se citará bastante, pero a priori soy bastante escéptico sobre la idea de mezclar la inflación eterna y el multiverso (que me parecen una hipótesis razonablemente fundada, lo cuál no significa que tenga que ser cierta, por supuesto) y los problemas de la interpretación de la mecánica cuántica. En fin, dejo el link porque sé que es importante y posiblemente algunos lectores querrán explorarlo por su cuenta (es un artículo relativamente “asequible”) pero ciertamente no es el tipo de cosas que me entusiasman.

Actualización: Cómo imaginaba Lubos analiza el artículo. Y acerté, no le gusta. Eso sí, me quedé algo algo corto en mis estimaciones sobre el desagrado que le produciría porque su post empieza fuerte, compara el artículo de Susskind-Bousso con uno similar de Smolin. Para quienes no estén al tanto indicar que Lubos considera que Smolin (poseedor de un doctorado en física por Harward y profesor de física en el instituo perímeter) es un chalado incurable y con muy pocas luces. El link concreto a la entrada es este: The Bousso-Susskind hypermultiverse.