Posts Tagged ‘amplithuedron’

El amplituhedron: cálculo de diagramas de Feynman mediante geometría algebraica I

septiembre 24, 2013

En la entrada anterior mencioné que el tema más candente (abrasador en realidad xD) de este verano en física teórica ha sido el de la posibilidad de que haya un muro de fuego en el interior del horizonte de sucesos de agujeros negros “viejos”. Aparte de eso hubo otro trabajo que ha causado un cierto impacto, la conjetura ER/EPR en la que Maldacena y Suskind que equiparan los agujeros de gusano con el entrelazamiento cuántico. Bien, la semana pasada se ha anunciado un nuevo (o no tanto) resultado que ha recibido bastante atención de los medios especializados, cómo por ejemplo en éste artículo: A Jewel at the Heart of Quantum Physics. El tema ha aparecido en los blogs de Lubos y Peter Woit, pero sorprendentemente aún no en el de Francis, así que esta vez le voy a tomar la delantera ;).

En realidad el tema viene de hace tiempo, y ya había sido tratado hace un tiempo en la “blogosfera” dentro de lo que se conoció cómo la “minirevolución twistor”. El motivo de que ahora haya vuelto a promocionarse es una conferencia de el famoso Nima Arkani-Hammed en la que he anunciado que pronto habría un nuevo artículo, con algunas novedades se supone, y que, aparte de los avances técnicos lo plantea cómo el posible germen para una nueva revolución en la física teórica que de lugar a una nueva teoría cuántica de la gravedad en la que el espacio-tiempo perderá un papel privilegiado e incluso asuntos cómo la unitariedad cuántica se enfocan desde una nueva perspectiva. Bien, eso es el futuro, pero voy a intentar explicar un poco lo que hay hasta ahora.

El inicio de esto surge, según se cuenta en el artículo de la fundación Simons, en los 80, cuando se estaban calculando amplitudes de transición para los procesos de colisión que se iban a hacer en el LEP (light electron positron collider, el colisionador que estaba en el CERN antes del LHC) para luego comparar los resultados experimentales con las predicciones teóricas. El problema es que para calcular las amplitudes requeridas era necesario evaluar 200 diagramas de Feynman, algo que era imposible hacer incluso con los ordenadores de la época. Usando unos pocos trucos matemáticos consiguieron demostrar que muchos diagramas se anulaban unos con otros y consiguieron reducir el cálculo a una expresión que ocupaba “solamente” unos 20 hojas de papel escrito.

Para entender el motivo de esta complicación voy a comentar los detalles relevantes de los diagramas de Feynman (la entrada de la wiki que enlacé antes no da detalles suficientes) para éste particular. Estos diagramas son una representación simbólica del cálculo perturbativo de las amplitudes de transición de los procesos de física de partículas. Por proceso entendemos un experimento en el que partimos de unas partículas iniciales en unas condiciones determinadas (por ejemplo un e-,electrón y un e+, positrón -antipartícula del electrón- con momentos incidentes p1 y p2) que tras la interacción se transforman en otras partículas, que llamaré P1, P2, P3, etc, con momentos p’1, p’2, p’3, etc. Tal vez alguien se sorprenda de que haya procesos de éste estilo pues se ha popularizado la idea de que una partícula se aniquila con una antipartícula. Es bastante cierto, pero con matices, y eso sirve para entender la idea detrás de los diagramas de Feynman. Un e- y un e+ pueden, y es lo que harán normalmente, aniquilarse el uno con el otro y formar un fotón. Este fotón va a tener cómo mínimo una energía que va a ser igual a la suma de la masa del e+ y el e-. Esto se debe a la famosa relación E=m.c^2 que una partícula tiene una energía que es igual a su masa en reposo multiplicada por el cuadrado de la velocidad de la luz. Ese fotón tiene una energía que cumple E=h \nu dónde \nu es la frecuencia del fotón. Así cuanta mas energía tenga el fotón mayor será su frecuencia, y mas corta su longitud de onda. Cuando los electrones colisionan a una cierta velocidad v llevan un momento que se corresponde con una energía Es decir, cuanto mas rápido vayan mas energía van a tener esos e+/e- incidentes y, en consecuencia, mas energía va a tener el fotón. Cuando la velocidad de las partículas es muy cercana a la de la luz (partículas ultrarrelativistas) la mayor parte de la energía proviene de su momento, y su masa en reposo se hace despreciable. Quien esté interesado en los detalles de la dinámica relativista puede leer, por ejemplo, la web de la que he sacado las imágenes hyperfphysics.

La clave del proceso es que ese fotón no es el final de la historia. Si los electrones llevan mucha velocidad el fotón va a tener mucha energía. Podría suceder que el fotón se volviese a desintegrar en otro par e+/e-, cuyo momento combinado va a ser (por conservación del momento) igual al del par indicente (p1+ p2=p’1 + p’2). Se conserva la suma, pero no los valores individuales. Es decir, aunque inicialmente ambas partículas llegasen a la colisión con el mismo momento (y dado que tiene igual masa a la misma velocidad), no tienen porque salir igual, cada uno puede llevar una diferente, mientras la suma se conserve. Esto va a ser muy importante mas adelante, cuando explique lo que es un loop, pero antes debo explicar alguna cosa más. Si la energía del fotón es muy alta puede desintegrarse en otro tipo de partículas que no sea un par e+/e-. Podría, por ejemplo, desintegrarse en un par m+/m-, muón/antimuón, (el muón es igual que el electrón, pero con una masa unos centenares de veces mayor). El momento también se conserva, con lo cuál la velocidad combinada de los muones será menor que la de los electrones incidentes. Según aumenta la energía del fotón el numero de partículas en las que se va a poder desintegrar irá creciendo. Aparte de la restricciones impuestas por la conservación de la energía y la del momento hay otras, las conservaciones de las diversas cargas, por ejemplo. Así como el e+ tiene carga positiva y el e- negativa el resultado debe tener, en promedio carga neutra. Por eso puede formarse un par m+/m- pero no, por ejemplo, dos m+ o dos m-. Y, desde luego en principio, el número de partículas inicial no tiene porque ser igual al final.

Cómo hemos visto hay varios procesos posibles como resultado de la colisión de el par e+/e-. Cada uno de esos sucesos, siguiendo las leyes de la mecánica cuántica, va a tener una probabilidad. Y la teoría cuántica de campos nos va a permitir calcularla. La probabilidad total para un proceso determinado es imposible de evaluar exactamente y debemos evaluarla de manera perturbativa, es decir, cómo suma de varios términos (normalmente infinitos términos, es decir, lo que matemáticamente se conoce cómo una serie) en los que, si la interacción entre las partículas es débil, cada término va a ser menor que el anterior. Antes he dicho que puedo tener un proceso, el mas sencillo posible, en el que el e+/e- se desintegran en un fotón, que, a su vez, se desintegra de nuevo en otro par e+/-. Eso lo puedo representar mediante el siguiente diagrama de Feynman.

Ese diagrama nos da la primera contribución, el primer término de la serie, que es el mas importante. Los siguientes términos nos van a dar correcciones al primer resultado. Para entender de dónde salen esos términos voy a explicar el concepto de loop. La idea es simple, el fotón, antes de desintegrarse en el par e+/e- final puede desintegrarse entre medias en otro par e+/e- (o uno m+/m- si lleva bastante energía) que luego se desintegran en un fotón que ya, por fín, se desintegra en el par e+/e- final. Es importante notar que esos dos e+/e- intermedios tienen fijada la suma de su momento, pero no el momento individual, es decir, que queda un momento interno sin fijar. Para calcular la amplitud tenemos que sumar (integrar) a todos los valores posibles de ese momento interno. En los procesos sin loop, en los que todas las partículas intermedias (virtuales) tienen su momento fijado se les llama procesos tree (árbol) y son sencillos de calcular. Los procesos con loops contienen integrales, y el valor de esas integrales van a ser infinitos. Afortunadamente, para cierto tipo de teorías, denominadas renormalizables, pueden redefinirse ciertos valores y obtener cantidades finitas correspondientes los procesos que están relacionados con esos loops. Un detalle interesante es que si la interacción está caracterizada por un valor, llamémosle \lambda , los procesos tree parecerán multiplicados por la constante, los procesos a un loop por la constante al cuadrado y así sucesivamente. Es decir, tenemos una serie en función de la constante. Si la constante es pequeña (mucho mas pequeña que uno, cómo es el caso de la electrodinámica dónde vale 1/127, la constante de estructura fina) se va a obtener que los términos con muchos loops van a contribuir muy poco. Sin embargo si la constante es del orden de la unidad, cómo ocurre con la QCD (quantum cromodynamics, la teoría de las interacciones nucleares fuertes) no está garantizado que esto pase y puede suceder que los términos a orden 2 sean mayores que el término árbol. Ese es uno de los muchos motivos por los que la QCD es muy compleja d estudiar usando diagramas de Feynman y por los que esta teoría del amplithuedron podría llegar a ser muy relevante para el campo si al final se consigue una versión de la teoría adaptada a la QCD, cosa que de momento no se tiene pués, por ahora, esta nueva teoría sólo se aplica a cierto tipo de teorías con muchas simetrías (las teorías de Yang-Mills con máxima supersimetría, no voy a intentar explicar ahora lo que son, sólo decir que no se corresponden con ninguna teoría física realizada en la naturaleza y sólo juegan un papel de “laboratorio” teórico).

Bien, el caso es que para cada proceso de estos podemos dibujar un diagrama de Feynman, el diagrama de Feynman a un loop para el proceso e+/e- ->e+/e- a un loop sería el de la derecha de la imagen siguiente:

A cada diagrama se le asocian, mediante una serie de reglas, una expresión, que es la expresión del correspondiente término perturbativo. Como ya indiqué para cierto tipo de procesos es necesario hacer cálculos a varios loops, y el número de diagramas correspondientes al proceso crece muy rápido con el número de loops. Eso hace, que, en la práctica, para procesos a dos o más loops se recurra a ordenadores, y para procesos a, digamos 5 o más loops, sencillamente sea, en algunas teorías, sencillamente imposible, incluso con ordenadores. Pues bien, la idea de éste amplithuedron lo que va a hacer es reducir el cálculo de el valor del diagrama al cálculo del volumen de el volumen de un objeto geométrico que va a ser un subconjunto de un tipo de variedades denominadas grassmanianas. Y, de hecho, va a permitir decidir de manera sencilla que diagramas se cancelan unos con otros, y así tener que hacer muchos menos cálculos. En alguna entrada daré mas detalles, pero esta ya es bastante larga, así que la concluyo poniendo algunos enlaces más al tema de los diagramas de Feynman, por si alguien quiere profundizar, y tener otros puntos de vista.

Diagramas de Feynman para todos 1

Las partículas virtuales y el gran bulo de la divulgación
Feynman diagram