Archive for 24 septiembre 2013

El amplituhedron: cálculo de diagramas de Feynman mediante geometría algebraica I

septiembre 24, 2013

En la entrada anterior mencioné que el tema más candente (abrasador en realidad xD) de este verano en física teórica ha sido el de la posibilidad de que haya un muro de fuego en el interior del horizonte de sucesos de agujeros negros “viejos”. Aparte de eso hubo otro trabajo que ha causado un cierto impacto, la conjetura ER/EPR en la que Maldacena y Suskind que equiparan los agujeros de gusano con el entrelazamiento cuántico. Bien, la semana pasada se ha anunciado un nuevo (o no tanto) resultado que ha recibido bastante atención de los medios especializados, cómo por ejemplo en éste artículo: A Jewel at the Heart of Quantum Physics. El tema ha aparecido en los blogs de Lubos y Peter Woit, pero sorprendentemente aún no en el de Francis, así que esta vez le voy a tomar la delantera ;).

En realidad el tema viene de hace tiempo, y ya había sido tratado hace un tiempo en la “blogosfera” dentro de lo que se conoció cómo la “minirevolución twistor”. El motivo de que ahora haya vuelto a promocionarse es una conferencia de el famoso Nima Arkani-Hammed en la que he anunciado que pronto habría un nuevo artículo, con algunas novedades se supone, y que, aparte de los avances técnicos lo plantea cómo el posible germen para una nueva revolución en la física teórica que de lugar a una nueva teoría cuántica de la gravedad en la que el espacio-tiempo perderá un papel privilegiado e incluso asuntos cómo la unitariedad cuántica se enfocan desde una nueva perspectiva. Bien, eso es el futuro, pero voy a intentar explicar un poco lo que hay hasta ahora.

El inicio de esto surge, según se cuenta en el artículo de la fundación Simons, en los 80, cuando se estaban calculando amplitudes de transición para los procesos de colisión que se iban a hacer en el LEP (light electron positron collider, el colisionador que estaba en el CERN antes del LHC) para luego comparar los resultados experimentales con las predicciones teóricas. El problema es que para calcular las amplitudes requeridas era necesario evaluar 200 diagramas de Feynman, algo que era imposible hacer incluso con los ordenadores de la época. Usando unos pocos trucos matemáticos consiguieron demostrar que muchos diagramas se anulaban unos con otros y consiguieron reducir el cálculo a una expresión que ocupaba “solamente” unos 20 hojas de papel escrito.

Para entender el motivo de esta complicación voy a comentar los detalles relevantes de los diagramas de Feynman (la entrada de la wiki que enlacé antes no da detalles suficientes) para éste particular. Estos diagramas son una representación simbólica del cálculo perturbativo de las amplitudes de transición de los procesos de física de partículas. Por proceso entendemos un experimento en el que partimos de unas partículas iniciales en unas condiciones determinadas (por ejemplo un e-,electrón y un e+, positrón -antipartícula del electrón- con momentos incidentes p1 y p2) que tras la interacción se transforman en otras partículas, que llamaré P1, P2, P3, etc, con momentos p’1, p’2, p’3, etc. Tal vez alguien se sorprenda de que haya procesos de éste estilo pues se ha popularizado la idea de que una partícula se aniquila con una antipartícula. Es bastante cierto, pero con matices, y eso sirve para entender la idea detrás de los diagramas de Feynman. Un e- y un e+ pueden, y es lo que harán normalmente, aniquilarse el uno con el otro y formar un fotón. Este fotón va a tener cómo mínimo una energía que va a ser igual a la suma de la masa del e+ y el e-. Esto se debe a la famosa relación E=m.c^2 que una partícula tiene una energía que es igual a su masa en reposo multiplicada por el cuadrado de la velocidad de la luz. Ese fotón tiene una energía que cumple E=h \nu dónde \nu es la frecuencia del fotón. Así cuanta mas energía tenga el fotón mayor será su frecuencia, y mas corta su longitud de onda. Cuando los electrones colisionan a una cierta velocidad v llevan un momento que se corresponde con una energía Es decir, cuanto mas rápido vayan mas energía van a tener esos e+/e- incidentes y, en consecuencia, mas energía va a tener el fotón. Cuando la velocidad de las partículas es muy cercana a la de la luz (partículas ultrarrelativistas) la mayor parte de la energía proviene de su momento, y su masa en reposo se hace despreciable. Quien esté interesado en los detalles de la dinámica relativista puede leer, por ejemplo, la web de la que he sacado las imágenes hyperfphysics.

La clave del proceso es que ese fotón no es el final de la historia. Si los electrones llevan mucha velocidad el fotón va a tener mucha energía. Podría suceder que el fotón se volviese a desintegrar en otro par e+/e-, cuyo momento combinado va a ser (por conservación del momento) igual al del par indicente (p1+ p2=p’1 + p’2). Se conserva la suma, pero no los valores individuales. Es decir, aunque inicialmente ambas partículas llegasen a la colisión con el mismo momento (y dado que tiene igual masa a la misma velocidad), no tienen porque salir igual, cada uno puede llevar una diferente, mientras la suma se conserve. Esto va a ser muy importante mas adelante, cuando explique lo que es un loop, pero antes debo explicar alguna cosa más. Si la energía del fotón es muy alta puede desintegrarse en otro tipo de partículas que no sea un par e+/e-. Podría, por ejemplo, desintegrarse en un par m+/m-, muón/antimuón, (el muón es igual que el electrón, pero con una masa unos centenares de veces mayor). El momento también se conserva, con lo cuál la velocidad combinada de los muones será menor que la de los electrones incidentes. Según aumenta la energía del fotón el numero de partículas en las que se va a poder desintegrar irá creciendo. Aparte de la restricciones impuestas por la conservación de la energía y la del momento hay otras, las conservaciones de las diversas cargas, por ejemplo. Así como el e+ tiene carga positiva y el e- negativa el resultado debe tener, en promedio carga neutra. Por eso puede formarse un par m+/m- pero no, por ejemplo, dos m+ o dos m-. Y, desde luego en principio, el número de partículas inicial no tiene porque ser igual al final.

Cómo hemos visto hay varios procesos posibles como resultado de la colisión de el par e+/e-. Cada uno de esos sucesos, siguiendo las leyes de la mecánica cuántica, va a tener una probabilidad. Y la teoría cuántica de campos nos va a permitir calcularla. La probabilidad total para un proceso determinado es imposible de evaluar exactamente y debemos evaluarla de manera perturbativa, es decir, cómo suma de varios términos (normalmente infinitos términos, es decir, lo que matemáticamente se conoce cómo una serie) en los que, si la interacción entre las partículas es débil, cada término va a ser menor que el anterior. Antes he dicho que puedo tener un proceso, el mas sencillo posible, en el que el e+/e- se desintegran en un fotón, que, a su vez, se desintegra de nuevo en otro par e+/-. Eso lo puedo representar mediante el siguiente diagrama de Feynman.

Ese diagrama nos da la primera contribución, el primer término de la serie, que es el mas importante. Los siguientes términos nos van a dar correcciones al primer resultado. Para entender de dónde salen esos términos voy a explicar el concepto de loop. La idea es simple, el fotón, antes de desintegrarse en el par e+/e- final puede desintegrarse entre medias en otro par e+/e- (o uno m+/m- si lleva bastante energía) que luego se desintegran en un fotón que ya, por fín, se desintegra en el par e+/e- final. Es importante notar que esos dos e+/e- intermedios tienen fijada la suma de su momento, pero no el momento individual, es decir, que queda un momento interno sin fijar. Para calcular la amplitud tenemos que sumar (integrar) a todos los valores posibles de ese momento interno. En los procesos sin loop, en los que todas las partículas intermedias (virtuales) tienen su momento fijado se les llama procesos tree (árbol) y son sencillos de calcular. Los procesos con loops contienen integrales, y el valor de esas integrales van a ser infinitos. Afortunadamente, para cierto tipo de teorías, denominadas renormalizables, pueden redefinirse ciertos valores y obtener cantidades finitas correspondientes los procesos que están relacionados con esos loops. Un detalle interesante es que si la interacción está caracterizada por un valor, llamémosle \lambda , los procesos tree parecerán multiplicados por la constante, los procesos a un loop por la constante al cuadrado y así sucesivamente. Es decir, tenemos una serie en función de la constante. Si la constante es pequeña (mucho mas pequeña que uno, cómo es el caso de la electrodinámica dónde vale 1/127, la constante de estructura fina) se va a obtener que los términos con muchos loops van a contribuir muy poco. Sin embargo si la constante es del orden de la unidad, cómo ocurre con la QCD (quantum cromodynamics, la teoría de las interacciones nucleares fuertes) no está garantizado que esto pase y puede suceder que los términos a orden 2 sean mayores que el término árbol. Ese es uno de los muchos motivos por los que la QCD es muy compleja d estudiar usando diagramas de Feynman y por los que esta teoría del amplithuedron podría llegar a ser muy relevante para el campo si al final se consigue una versión de la teoría adaptada a la QCD, cosa que de momento no se tiene pués, por ahora, esta nueva teoría sólo se aplica a cierto tipo de teorías con muchas simetrías (las teorías de Yang-Mills con máxima supersimetría, no voy a intentar explicar ahora lo que son, sólo decir que no se corresponden con ninguna teoría física realizada en la naturaleza y sólo juegan un papel de “laboratorio” teórico).

Bien, el caso es que para cada proceso de estos podemos dibujar un diagrama de Feynman, el diagrama de Feynman a un loop para el proceso e+/e- ->e+/e- a un loop sería el de la derecha de la imagen siguiente:

A cada diagrama se le asocian, mediante una serie de reglas, una expresión, que es la expresión del correspondiente término perturbativo. Como ya indiqué para cierto tipo de procesos es necesario hacer cálculos a varios loops, y el número de diagramas correspondientes al proceso crece muy rápido con el número de loops. Eso hace, que, en la práctica, para procesos a dos o más loops se recurra a ordenadores, y para procesos a, digamos 5 o más loops, sencillamente sea, en algunas teorías, sencillamente imposible, incluso con ordenadores. Pues bien, la idea de éste amplithuedron lo que va a hacer es reducir el cálculo de el valor del diagrama al cálculo del volumen de el volumen de un objeto geométrico que va a ser un subconjunto de un tipo de variedades denominadas grassmanianas. Y, de hecho, va a permitir decidir de manera sencilla que diagramas se cancelan unos con otros, y así tener que hacer muchos menos cálculos. En alguna entrada daré mas detalles, pero esta ya es bastante larga, así que la concluyo poniendo algunos enlaces más al tema de los diagramas de Feynman, por si alguien quiere profundizar, y tener otros puntos de vista.

Diagramas de Feynman para todos 1

Las partículas virtuales y el gran bulo de la divulgación
Feynman diagram

Leonard Susskind: Black holes y teoría de cuerdas (libro)

septiembre 23, 2013

An Introduction to Black Holes, Information And The String Theory Revolution: The Holographic Universe

El tema caliente -literalmente un muro de fuego- de este verano ha sido la propuesta de Polchinsky, Sully y dos autores más en las que se planteaban si en el interior de los agujeros negros antiguos (de edad superior al tiempo de Page, definido cómo aquel en el que se ha emitido la mitad de la masa en radiación Hawking, había un firewall en el que cualquier objeto que cayese en el agujero negro sería inmediatamente vaporizado. Eso iría en contra del principio de complementariedad que afirma, dicho de un modo intuitivo, que un observado no percibirá nada especial cuando atraviese el horizonte de sucesos de un agujero negro lo suficientemente grande, hasta que sea aniquilado en la singularidad central, claro. El artículo en cuestión es Black Holes: Complementarity or Firewalls?. La wikipedia se ha hecho eco rápidamente de la controversia firewalls en la wiki. El tema ha generado bastante polémica, con gente a favor y en contra. Lubos ha tratado el tema varias veces en su blog, y es de los que está en contra. Susskind, autor junto a ‘t Hoof del principio de complementariedad ha intervenido activamente en la polémica y hasta le ha llevado, a afirmar hace unos pocos días en un congreso, que la teoría de cuerdas, tal cuál está actualmente, no ofrece respuestas a todas las cuestiones sobre la gravedad cuántica. Polchinsky, el autor principal del artículo de los firewalls, ha expresado una opinión similar. Esto implica, entre otras cosas, que se pone en duda la validez absoluta de la correspondencia AdS/CFT de Maldacena. Todo esto, como cabría esperar, ha exasperado a Lubos, que considera que la comunidad de teóricos de cuerdas en la última década han perdido integridad moral, rigor (ya no respaldan las intuiciones con cálculos) y si le apuran hasta el mojo (Austin Powers dixit xD).

Sin duda cualquiera que este metido en la física teórica actual estará familiarizado con los términos que he usado en la descripción de la polémica de los firewalls. Ahora bien, también es posible que si no trabajan en ello (o incluso si trabajan en temas muy cercanos, pero no exactamente en ello) no hayan leído una introducción formal y dedicada a esos temas. Sin duda habrán leído sobre el cálculo de entropia en agujeros negros mediante teoría de cuerdas y sobre la conjetura de Maldacena en los libros/cursos generales sobre teoría de cuerdas. Y habrán leído algún review de tal o cuál tema implicado en algún artículo, y habrán leído debates sobre aspectos concretos en los blogs. Pero tal vez no hayan leído una presentación dedicada sobre el asunto en la que se de una introducción a todos los temas de una manera mas o menos autocontenida. Pues bien, justo eso hace el libro de Susskind (y Lindesay).

Se puede leer el índice, y alguna página, en google books

Por comodidad de referencia, y para que la gente sepa los detalles, hago un copy & paste del índice.

The Schwarzschild Black Hole
3
Scalar Wave Equation in a Schwarzschild Background
25
Quantum Fields in Rindler Space
31
Entropy of the Free Quantum Field in Rindler Space
43
Thermodynamics of Black Holes
51
The Stretched Horizon
61
The Laws of Nature
69
The Puzzle of Information Conservation in Black Hole
81
Horizons and the UVIR Connection
95
Entropy Bounds
101
The Holographic Principle and Anti de Sitter Space
127
Black Holes in a Box
141
Entropy of Strings and Black Holes
165
Bibliography
179
Página de créditos

Podemos decir que el libro se divide en dos grandes partes, la primera, que ocupa hasta el tema “entropy bounds” discute los aspectos clásicos y semiclásicos de la teoría de agujeros negros. Empieza discutiendo el agujero negro de Schwarschild, en varios sistemas de coordenadas. Enseguida pasa a sistemas que describen el agujero en el entorno del horizonte. Luego empieza a tratar los campos cuánticos en el entorno de un agujero negro la cuál lleva al famosísimo resultado de Hawking de que los agujeros negros emiten radiación. El tratamiento que hace del tema es muy, muy diferente al del artículo original de Hawking. No se mencionan en ningún momento las transformaciones de Bogoluivob que son clave en el trabajo de Hawking. Elige usar el formalismo de la matriz de densidad, a la cuál hace una introducción (conviene leerla porque los detalles de la exposición que da son ligeramente diferentes de otros libros, por ejemplo del de mecánica cuántica de Yndurain).

Luego va haciendo un paseo sobre diversas propuestas que se han ido haciendo, como el “stretched horizont” que es una zona de entorno a la longitud de Planck alrededor del horizonte de sucesos en la que habría una gran temperatura y tendría naturaleza cuántica. Esta idea (que suena similar a los firewalls, pero no lo es en absoluto) ha sido descartada hace tiempo y su interés es histórico. Luego ya se mete en consideraciones generales sobre el destino final del agujero negro (discutiendo diversas opciones), explica porque esa evaporación Hawking pone en problemas la evolución unitaria de la mecánica cuántica, etc. La exposición es clara y da bastantes detalles interesantes sobre diversos aspectos.

Luego, en la segunda parte, hace una introducción a diversos temas relacionados con la teoría de cuerdas. Por supuesto no hace una introducción a la teoría de cuerdas en sí (algo imposible en un libro de poco más de 100 páginas) y asume que el lector está familiarizado con ella. Empieza hablando del principio holográfico (del cuál es coautor junto a ‘t hooft, lo mismo que sucedía con el principio de correspondencia). Este principio afirma que la física del interior del agujero negro está codificada en su horizonte de sucesos, lo mismo que pasa con los hologramas, que almacenan en dos dimensiones información sobre 3. Ahí, cómo en otros puntos, es relevante la mecánica estadística y los conceptos de entropía e información, que son cuidadosamente analizados por Suskind en diversos puntos del libro.

El tema estrella es la conjetura AdS/CFT, o conjetura de Maldacena. Este es un tema muy amplio, y un tanto difuso en mi opinión. He leído sobre él en los libros de texto de cuerdas habituales, y había leído un review. Éste verano he leído algún review más (ninguno por debajo de 40 páginas) y aunque coinciden en unos cuantos aspectos varían en otros, y cada uno cuenta una cosa. Pues bien, el capítulo correspondiente de éste libro es una introducción más, que está muy orientada a el objetivo general del libro. Está bastante bien hecha y lidia con amenidad (al menos tanta como se puede hacer con el tema xD) con la definición de la frontera conforme del espacio de anti de Sitter. Antes, por supuesto, ha hecho una introducción general a dicho espacio, y en capítulos anteriores ya había dado una idea de porque ese espacio es útil para analizar el tema de los agujeros negros. En el capítulo de black holes in a box, dónde explica que un agujero negro nunca puede estar en equilibrio termodinámico estable con su radiación de Hawking y que hay una relación matemática con ese “agujero negro en una caja” y el espacio de anti de Sitter.

Explicar que es la conjetura de Maldacena en pocas palabras es casi imposible. Generaliza un poco el principio holográfico y viene a identificar una teoría de gravedad cuántica (teoría de cuerdas en última instancia) en el espacio de anti de Sitter (multiplicado por una 5 esfera en el paper original de maldacena y con un espacio de Einstein, uno en el que el tensor de Ricci es proporcional a la métrica) en caso mas generales) con una teoría gauge en la frontera conforme del espacio de de anti de Sitter (que es una teoria de campos conforme por consecuencia) La conexión conecta el comportamiento a altas energías de una con el infrarrojo de otra.

Luego, ya para ir terminando, recopila lo visto y hace consideraciones y conclusiones. Una idea clave es que la información de la materia que cae parece estar codificada, de manera no local, en la radiación Hawking emitida, y así la conservación de la unitariedad cuántica implica una cierta no localidad. También, cómo aparece de manifiesto en la conjetura de maldacena, hay una conexión entre comportamientos a altas energías con el comportamiento a bajas energías de otras. Eso es importante porque inicialmente se pensaba que los efectos cuánticos sólo eran relevantes cuando el radio de curvatura del espacio se acercaba a la longitud de Planck. Esa conexión indica que, por contra, hay situaciones en las que los efectos cuánticos serán relevantes incluso para campos gravitatorios relativamente débiles.

Hay que decir que éste asunto de los agujeros negros y la evaporación cuántica es, en principio, muy importante, por aquello de que supone un desafío a la unitariedad de la cuántica, y se supone que la conjetura de Maldacena ha dado una respuesta que salva la unitariedad. Aún así no todos los físicos teóricos están terriblemente entusiasmados con éste tema en concreto, al menos no lo bastante cómo para dedicarse a ello. Yo me incluyo en ese grupo y debo decir que si he leído el libro ha sido un poco por casualidad, por aquello de que no a todos lados puedo ir con el tablet, y éste libro es ligero para llevar y así, poco a poco, me lo he ido leyendo éste verano. La verdad es que, a posteriori, si recomiendo el libro, porque aparte de el tema central del que he hablado se tratan muchos detalles interesantes y curiosos de diversos temas de física que no viene mal saber. Y, desde luego, viene perfecto para situar a cualquiera que esté interesado en meterse en los detalles de la discusión de los firewalls y cómo referencia para entender algunas motivaciones del trabajo de Maldacena.