Posts Tagged ‘QFT’

Sobre la masa negativa

agosto 6, 2015

Como buen aficionado a la ciencia ficción me gustaría que ya existiesen cosas como los agujeros de gusano, los motores de distorsión (warp drives) y, en general, el tipo de cosas que las ecuaciones de la relatividad general nos muestran que seríab posibles si existiera la “materia exótica”, entendiendo como tal aquella que viola alguna de las condiciones de energía positiva.

El caso es que los medios habituales para conseguir esa materia exótica requieren crear dispositivos como las placas paralelas del famoso ejemplo de Casimir. La idea es simple, uno junta mucho dos placas metálicas y en la zona entre ambas se produce una cancelación de modos cuánticos que hace que en medio de las placas haya una muy leve violación de esas condiciones de energía positiva, es decir, que haya “energía negativa”.  Hay muchos problemas en llevar esa idea a una realización experimental y, en todo caso, la energía negativa es tan pequeña que no sirve para gran cosa.

Eso me llevó a plantearme una cuestión. En una zona del espacio normal, dónde se verifican las condiciones de energía positiva, se crean partículas de masa positiva ¿Sería factible que en las zonas de energía negativa se crearan partículas de masa negativa?. Caso de ser así sería muy útil. Uno podría tener sus placas de Casimir creando partículas de masa negativa, que podríamos extraer y almacenar, Esas partículas estarían disponibles como materia exótica una vez retiradas las placas, Claramente, cómo la cantidad de energía negativa es muy pequeña, sólo se podrían crear partículas de masa muy pequeña. De las partículas conocidas los únicos candidatos posibles serían los neutrinos, que no pueden ser almacenados, pero bueno, si damos con otra forma de crear zonas de mayor energía negativa tal vez pudieramos crear cosas como electrones “exóticos”.

Busqué si había algo en internet al respecto de la masa negativa y sólo encontre, en ese momento, una referencia a un trabajo de Robert L. Forward, físico y famoso escritor de ciencia ficción hard. Ahi explicaban que había que tener en cuenta la masa inercial por un ladoy la gravitacional por otro, y venía un análisis detallado de la masa gravitacional usando física newtoniana. Me pareció un análisis muy insuficiente así que me puse, en  ratos libres, a intentar hacer un análisis usando teoría cuántica de campos y relatividad general, y con algunas consideraciones de teoría de cuerdas, que es lo suyo en estos tiempos.

El punto de partida sería la ecuación de Klein-Gordon

wpid-wp-1438838368659.png

Ahí se puede observar que la masa aparece en un único término, y aparece elevado al cuadrado así que curiosamente, no se distingue una masa positiva de una negativa. Uno podría pensar que esto implica que la ecuación de KG es totalmente insensible al signo de la masa, pero uno debería ser cuidadoso y examinar con cuidado mas detalles de la misma. Bien, una de las cosas que son importantes en la ecuación de KG es que debe definir una densidad de probabiliad y una corriente conservada. Sí alguien ha estudiado mecánica cuántica ordinaria habrá visto que la densidad de probabilidad es el cuadrado de la función de onda \Phi^*\Phi . En una teoría cuántica de campos eso no es automáticamente así. La densidad de probabilidad va a ser la componente 0 de una cuadricorriente de Noether asociada a simetrías externas. Para el caso del campo escalar la densidad toma la forma (ver, por ejemplo, el libro de Hatfield “Quantum field theory of point particles and strings”:

image

Uno ve inmediatamente que en esa densidad de probabilidad la masa aparece dividiendo, y sin elevar al cuadrado. Eso significa que la densidad de probabilidad de una partícula de masa negativa será la opuesta de la de una de masa positiva. A poco que uno esté familiarizado con la teoría cuántica de campos ya sabrá la historia de la ecuación de Klein-Gordón: aparecen estados de probabilidad negativa, pero estos pueden ser interpretados como antipartículas que pueden interpretarse como antipartículas que viajan hacia atrás en el tiempo. Sí nos vamos a el campo escalar complejo puede probarse que éste campo tiene una simetría interna U(1), que, vía teorema de Noether, se convierte en una corriente cuya integral en una superficie cerrada da una carga que uno podría asociar (aunque no necesariamente) con la carga eléctrica. Se puede ver que las antipartículas tienen masa negativa. Pues bien, según éste análisis uno podría extraer la conclusión de que cambiar el signo de una masa -en este contexto masa inercial- es equivalente a intercambiar partículas por antipartículas, lo cuál choca con la hipótesis, no demostrada, de que partículas y antipartículas tienen la misma masa. Todo ésto es para la ecuación de KG libre, luego ya analiamos que pasa con las interacciones entre partículas, y con eso de que las antipartículas puedan tener masa negativa.

Antes de ir con otra ecuación vamos a otro aspecto importante, el de el campo gravitatorio creado por las partículas. En las ecuaciones de Einstein la parte que describe la materia es el tensor energía momento. Ese tensor aparece en los libros de teoría clásica y cuántica de campos, para la relatividad especial. Viene a ser poner en una cantidad tensorial las cantidades conservadas que se enseñan en los cursos de mecánica lagrangiana. Recordemos, asociada a una simetría del lagrangiano bajo traslaciones espaciales hay una cantidad conservada, que es el momento lineal. Asociada a una simetría bajo rotaciones se asocia la conservación del momento angular, y asociada a una invarianza bajo traslaciones temporales se asocia la conservación de la energía. Combinando eso en un tensor se obtiene el susodicho tensor energía-momento.

image

Esa expresión es válida en relatividad especial. En relatividad general hay que sustituirla por otra, que viene a ser la variación de el lagrangiano respecto a la métrica (los detalles vienen discutidos en, por ejemplo, el libro de relatividad general de Wald, en el apéndice sobre formulación Lagrangiana de la relatividad general”. La expresión concreta es:

image

Donde Sm es la acción de la materia. Para el lagrangiano de KG, en un espacio curvo (que es el normal, pero sustituyendo las derivadas normales por derivadas covariantes) el resultado de evaluar esa expresión nos da:

image

Se puede observar que, una vez mas, la masa aparece al cuadrado y, por tanto, según eso, una masa negativa debería producir exactamente el mismo campo gravitatorio que una masa positiva, lo cuál es realmente chocante. En los libros dónde se obtiene esa expresión no he visto ninguna mención de ese hecho, aunque me consta que la gente de relatividad general ha analizado la masa negativa. Hablaré mas de ese aspecto posteriormente. De momento una observación basada en un cálculo (trivial) propio. Sí uno coge un tensor energía momento clásico el caso mas sencillo es el de un fluido perfecto (es decir, de viscosidad nula). Ese tipo de tensor se usa en los modelos cosmológicos mas sencillos, cómo el de FRW (Friedman-Robertson-Walker), o el de la ecuación de Tolman-Openheimer para modelizar una estrella (soluciones interiores de la ecuación de Schwarschild). Su expresión es:

image

En esa ecuación rho es la densidad, u la cuadrivelocidad del fluido y P la presión. La masa total es la integral de la densidad. Obviamente ahí una masa negativa significa una densidad negativa. Sí se va a usar en una ecuación cómo la de Schwarschild rho debe tener simetría radial y, por tanto, las integrales serán sólo en la coordenada radial. Un caso entretenido es el de una capa esférica de densidad negativa (y, para simplificar, presión nula). Sí uno resuelve la ecuación correspondiente se obtiene de forma muy sencilla que sí esa capa externa de densidad negativa tiene la misma masa que la masa interna positiva se obtiene en el exterir la métrica de Minkowsky en esféricas, es decir, se ha apantallado la masa interior (esto es entendible también desde el análogo para relatividad general del teorema de Gauss en electroestática, el teorema de Ostrogowsky creo que se llama). Éso podría permitir cosas muy entretenidas desde el punto de vista de la ciencia ficción. Se podría, por ejemplo, ocultar gravitatoriamente cosas cómo un planeta (o una nave cómo la estrella de la muerte). Sí eso se combina con una ocultación visual nos lleva a la posibilidad de que una raza alien pudiera colocar un planeta, o una luna, al lado de la tierra y no se lo podría detectar ;-).

Bien, volvamos a un terreno mas serio. Al principio había mencionado que la materia exótica era la que violaba alguna condición de energía positiva, pero no había explicado en que consiste eso. La razón es que explicar ese concepto requiere el tensor de energía momento y aún no lo había definido. La idea es que la mayoría de tensores energía-momento son de la forma 1 de la clasificación de Hawking-Ellis.

image

Se ve que es muy parecido al tensor de un fluido ideal, con una densidad y una presión. La idea es que ese tensor, contraido con cuadrivectores, debe dar un resultado positivo. Cómo en relatividad hay cuadrivectores positivos, negativos y nulos no es tan sencillo cómo el caso de formas bilineales definidas positivas y hay varias definiciones posibles para la energía positiva. Visser en su libro de referencia sobre agujeros de gusano enumera 7 tipos diferentes. En el siguiente apartado hace un análisis de las posibles violaciones. Lo primero que nos enseña es que el campo escalar de Klein-Gordon no viola ninguna de esas condiciones. Lo hace para masa positiva, pero, cómo ya hemos visto, también es válido para masa negativa.

El siguiente ejemplo que analiza es el de Casimir, que tanto he mencionado. El truco es que las placas paralelas conductoras modifican el vacío de la electrodinámica cuántica.

image

El tensor correspondiente es

image

Ahí z es la coordenada perpendicular a las placas, separadas por una distancia a. Se puede ver facilmente que ese tensor viola varias de las condiciones (un buen signo de ello es que la densidad es negativa). Es interesante señalar que la materia de las placas es ordinaria y que es un efecto cuántico, debido a la modificación de la energía del vacío en QED, debido a las placas, la que genera la energía positiva. Es decir, no se necesita materia exótica para tener energía negativa. Lo interesante sería que se pudiera crear una zona de energía negativa para crear materia exótica. Visser analiza algún ejemplo más cómo por ejemplo el entorno de un agujero negro (vacío de Hartle-Hawking) y ve que allí hay una violación considerable de las condiciones de energía positiva. También algunos campos de los que se usan en modelos de quintaesencia para explicar la expansión acelerada del universo hay violaciones de la condición de energía débil. Realmente uno podría considerar que esos campos son energía exótica, pero no tienen masa negativa, y no cubren el analisis que yo pretendía. Ya hemos visto que con un campo de Klein-Gordon no se puede lograr eso.

La siguiente opción, en orden de complejidad, dentro de las ecuaciones relativisatas es la de Dirac.

image
Aqui la masa no esta elevada al cuadrado así que esta ecuación distingue masa positiva de negativa ¡Menos mal! Pero no cantemos victoria todavía, que también nos va a dar unas cuantas sorpresas.

En fin, veo que, cómo es habitual, en cuanto intento explicar algo que considero medianamente interesante las entradas se vuelven muy largas así que lo dejo aquí de momento. Quedan muchas cosas que comentar, cómo por ejemplo las ligeras relaciones entre ésto y la correspondencia AdS/CFT de Maldacena, las ecuaciones para spin mayor que 1/2, el caso del bosón de Higgs, etc, etc.

Quien me conozca seguramente estará aterrado ante semjante afirmación porque sabe de mi tendencia a no publicar las entradas sucesivas de un tema cuando decido dividirlo en varias partes. Para intentar tranquilizarle voy a comentar un aspecto técnico sobre wordpress y el galaxy note. Escribir matemáticas en el note, con el S-pen, es fantástico, y las característicar para hacer copy/paste de fórmulas de libros para tenerlas a mano también funciona bastante bien. En contraposición escribir fórmulas con latex en wordpress es muy tedioso (aunque bienvenida sea la posibilidad). He buscado bastante tiempo una herramienta que tranforme una fórmula escrita a mano al latex correspondiente y lo copie al portapapeles, para así poderlo pegar en el wordpress, pero no he dado con ella. Tampoco veía un modo sencillo de que las imágenes copiadas al portapapeles del note pudieran ser incluidas en wordpress, hasta que he descubierto que mediante un programilla del note (scrappbook) y la opción de exportación a la aplicación de worpress para android puedo subir las imágenes recortadas al portapapeles de manera razonablemente directa. He usado esa opción en casi todas las fórmulas de esta entrada, y es mucho mas rápido que el latex. Supongo que, en cierta manera, era esa diferencia de flexibilidad a la hora de escribir fórmulas entre el note y el blog- unido a otros factores, como que la física teórica está un poco aburridilla- lo que me ha tenido tan reacio todo este tiempo a escribir por aquí. Confío que, con esta nueva facilidad, me animaré a escribir de nuevo mas menudo.

Running Schwarschild radio

febrero 12, 2014

El caso mas sencillo de agujero negro es el de Scharschild, que describe un agujero negro sin carga y que no rota sobre si mismo. Su horizonte de sucesos, la superficie desde la cuál no se puede salir (ignoraré aquí cualquier sutileza sobre diversos tipos de horizontes que se pueden definir o la reciente afirmación de Hawking de que el horizonte de sucesos no es bueno para describir agujeros negros en los que los efectos cuánticos son importantes). Esta superficie, para el caso de Schwarschild es esférica, y tiene un radio el radio de Schwarschild que viene dado por R_s= \frac{2GM}{c^2}.

Cuando he hablado de efectos cuánticos al referirme a Hawking me refería, por supuesto, a su famosa teoría en la que usando técnicas de cuantización en espacios curvos mostraba que un agujero negro emite radiación, conocida cómo radiación Hawking. Podéis leer algunos detalles sobre esa radiación (pero no la deducción de la misma) en la entrada inglesa de la wiki Hawking’s radiation. Unas ideas muy elementales sobre cuantización en espacios curvos la tenéis (en español, aunque la mayor parte del blog esté en inglés) en mi otro blog: Ideas básicas sobre cuantización en espacios curvos.

Cómo se puede leer en esas entradas un agujero negro que esté aislado de todo y no se “alimente” como resultado de esa emisión de radiación va perdiendo energía, y por tanto masa, y su radio de Schwarschild se va haciendo mas pequeño, es decir, el agujero negro se va evaporando. Podría pensarse que el título de la entrada haga referencia a este efecto, pero considero que a estas alturas el tema de la desintegración Hawking es algo sobradamente conocido por cualquiera interesado en estos temas así que el propósito de esta entrada es ligeramente diferente. El término “running” seguramente pueda dar una pista a la gente que conozca teoría cuántica de campos con un cierto nivel y, por tanto, haya oído hablar de las “running coupling constants”. He mantenido el término en inglés porque no se me ocurre ninguna traducción realmente buena del término running, quizás lo que más podría acercarse es “deslizante”.

Cuando empecé a escribir la entrada pensaba despachar la explicación del grupo de renormalización, la ecuación de Callan-Symanzsky y la teoría de las “constantes de acoplo deslizantes” con entradas a la wiki española (o a algún blog en español que tratase el tema), pero he visto que la wiki tiene un tratamiento muy pobre, siendo generoso, del asunto y no he visto ningún blog que lo trate. Supongo que la mayor parte de gente que me lea se manejará bien con el inglés (después de todo suelo poner vínculos a sitios en inglés casi siempre) y podrá leer la entrada de la wiki inglesa: renormalizción. En todo caso me sirve para darme cuenta que tal vez debería hacer un esfuerzo y escribir algo sobre renormalización en el futuro. En todo caso ahora daré las ideas mínimas sobre renormalización para que se pueda entender lo que pretendo exponer.

En QFT el objetivo final, normalmente, es calcular amplitudes de transición entre estados asintóticos. Es decir, uno tiene, un grupo inicial de partículas libres con unos momentos dados que interaccionan por un tiempo finito y se convierten, en general, en otras partículas con otros momentos distinto. La idea es calcular las probabilidades de esas transiciones. Los cálculos de esas probabilidades se suelen hacer usando los diagramas de Feynman. Discutí algo sobre ello en la entrada sobre el amplithuedron. Cómo explico ahí los diagramas se organizan en función del número de loops. Los que no tienen loops se denominan “tree level” y normalmente suelen reproducir las secciones eficaces clásicas (las secciones eficaces son unos objetos que sirven para expresar los procesos de colisión y están relacionados con las amplitudes de transición que comentaba antes). A nivel tree los diagramas de Feynman dan resultados finitos. Sin embargo, en cuanto nos vamos a diagramas con loops los resultados se vuelen infinitos y hay que ver si se puede lidiar con esos infinitos de algún modo para obtener respuestas finitas. Sí ello es posible se dice que la teoría es renormalizable.

Para entender un poco mejor el tema usemos el ejemplo de la wiki, el lagrangiano de la QED.

Ese lagrangiano consta de tres partes básicas. Una es el lagrangiano de Dirac que describe un fermión libre standard (no quiral). Otro término L_{em}=\frac{1}{4}F_{\nu \mu}F^{\nu \mu} (lo he escrito omitiendo las B’s) es el que describe el campo electromagnético libre. El otro término, el que, operando para dejarlo por separado, vendría a ser L_{int}=ieA^{\nu}\Phi es el que describe la interacción. La e que aparece multiplicando sería la constante de acoplo que en el caso del electromagnetismo es la constante de estructura fina, que suele escribirse con la letra alpha, pero bueno, mantengo la notación de la wikipedia. Según decía, y como comentan en la wikipedia, los diagramas con uno y mas loops suelen dar resultados divergentes cuando se calculan. Eso se debe a que en el cálculo hay que efectuar integrales indefinidas que resultan no estar acotadas. Hay diversas técnicas de regularización y renormalización (Pauli-Villards, dimensional, función z, etc). Todas ellas tienen una estrategia común. Hay un parámetro, llamémoslo u, y la integral se divide en dos partes, una hasta un valor de inferior a u, y otra desde u hasta infinito (esto es muy transparente en la técnica de Pauli-villars dónde ese u es un momento, denominado momento de corte. En la regularización dimensional se calcula la integral en el plano complejo, cambiando el momento p por p + iu, y luego se hace tender u a 0). Una de las partes de la integral dará un resultado finito, el otro un resultado infinito. La idea de la renormalización es que tenemos que añadir al lagrangiano original unos términos que den un nuevo diagrama de Feynman que anule la parte infinita de el diagrama original. Eso se va a poder hacer siempre, lo malo es que esos nuevos términos, en general, van a tener su propia constante de acoplo. Y luego, por cada nuevo loop, tendremos que añadir mas contratérminos, con mas constantes. En general una teoría con estas características va a ser inútil porque si bien término por término va a tener resultados finitos resulta que cada nuevo término añade una nueva constante que debe ser medida experimentalmente y, por consiguiente, se vuelve no predictiva.

En el caso de las teorías renormalizables los contratérminos tienen la misma forma que el término de interacción orginal. Eso hace que podamos anular los resultados infinitos mediante cambios en el valor de los campos, masas y consantes de acoplo. Se supone que el lagrangiano original “desnudo” (bare en inglés, de ahí la B que añade la wiki a los términos del lagrangiano) no puede observarse porque debido a fluctuaciones cuánticas un electrón va a estar rodeado de una nube de pares electrón/positron virtuales que apantallan la carga desnuda. Por ese motivo, la carga, la masa, la función de onda, y, lo más importante, las constantes de acoplo, van a depender de la energía a la que se mide la interacción. Por eso se habla de “running coupling constants”. Dependiendo de la energía a la que se midan van a tener un valor distingo. Esto es el proceso de renormalización, pero si uno va un poco más allá llega a una ecuación que deben cumplir en general esas constantes de acoplo, la ecuación de Callan-Szymansky. Esa ecuación, usando los resultados a un loop, se puede resolver y nos da el flujo de las constantes de acoplo según cambia la energía. Estos resultados son los que dan la idea de teorías de unificación porque se observa que las constantes de acoplo del electromagnetismo, de la nuclear débil y de la nuclear fuerte casi convergen a un valor común en el que todas las constantes valdrían lo mismo y, por tanto, habría una única interacción. Eso da la idea de teorías de gran unificación (GUT en inglés). Si uno incorpora supersimetría esa casi convergencia se convierte en convergencia, y es uno de los muchos motivos por los que se cree que la supersimetría es importante, pese a no haberse observado.

Bien, ahora ya tenemos (espero) una idea de lo que es eso de “las constantes de acoplo deslizantes”. Al hablar de las GUT he mencionado tres interacciones, pero, aparte de esas, hay otra, la gravedad. Tanto en la teoría de Newton cómo en la de Einstein la constante de acoplo de la gravedad es la G de la fórmula de Newton de la gravitación universal F=G \frac{m.m'}{R^2} . En QFT tenemos partículas “materiales” descritas por la ecuación de K-G (partículas escalares cómo el bosón de Higgs) o por la ecuación de Dirac (fermiones no quirales, cómo el electrón o los quarks) o algún tipo de ecuación (Weyl o Majorana para fermiones quirales, cómo el neutrino. Las interacciones viene medidas por partículas virtuales que van a ser partículas vectoriales. Para el electromagnetismo esa partícula es el fotón, para las nucleares fuertes son los gluones y para la nuclear débil los bosones W+, W- y Z0). En las entradas de este blog dedicadas a QFT, por ejemplo la anterior, se pueden encontrar mas detalles. Feynman, uno de los creadores de la QED, y el que desarroló la técnica de los diagramas que lleva su nombre intentó cuantizar la teoría de la gravedad de Einstein por procedimientos análogos a los de la QED. Más adelante de Witt continuó su trabajo y formuló las reglas para los diagramas de Feynman de la relatividad general.

El truco está en que la métrica de la relatividad general (una introducción desde o a relatividad especial y general la tenéis en este blog Minicurso de Relatividad General ) se divide en dos partes g_{\nu \mu} = \eta_{\nu \mu} + h_{\nu \mu} La primera parte, la \eta de esta división puede pensarse que es la métrica de minkowsky que describe la relatividad especial (aunque, en realidad, puede ser cualquier otra métrica que cumpla las ecuaciones de Einstein que se considera una métrica de fondo que no se cuantiza) y la parte con la h es la que describe las fluctuaciones cuánticas. Se supone que esas fluctuaciones corresponden al intercambio de gravitones. El problema es que la teoría cuántica que se obtiene al hacer eso es no renormalizable y uno debe buscar una teoría cuántica de la gravedad de otra manera. La respuesta mas desarrollada de la gravedad cuántica es la teoría de cuerdas. Esta describe la propagación de gravitones y es una teoría renormalizable.

Bien, ya vamos llegando a la idea de la entrada. Sí tenemos una teoría cuántica de la gravedad deberíamos tener que, de forma análoga al resto de constantes, la contante gravitatoria G va a depender de la energía a la que se mide y que es una “running coupling constant”. Lo cierto es que no es un tema que haya visto (al menos que recuerde) tratado en ningún libro standard, ni de QFT, ni de cuerdas, ni tampoco en artículos de introducción a la gravedad cuántica y su problemática. De hecho ha sido mientras pensaba en otros asuntos cuando he caído en que esto podría pasar. Las consecuencias de una “running G” serían varias, pero inicialmente se me ocurrió relacionarlo con los agujeros negros. El planetamiento es muy simple: si el radio de Schwarschild depende de G, y esta varía con la energía, el radio de Schwarschild debería depender de la energía. Esto hay que concretarlo un poco, claro. Una idea sería que cuando hago chocar dos partículas a alta energía estas ven una G renormalizada y, por consiguiente, su radio de Schwarschild debería calcularse con esa Gren y no con la G de bajas energías. Otra idea sería que un agujero negro astrofísico (o uno primordial, formado en los momentos inmediatamente posteriores al big bang) cuando se estuviese terminando de evaporar llegaría a un tamaño en el que “probaría” tamaños muy pequeños, y por tanto energías muy grandes (recordemos, por causa de la relación de incertidumbre de Heisenberg para probar tamaños pequeños necesitamos energías muy grandes). Por tanto, una vez más, ahí podría jugar su papel la Gren.

Bien, una vez que se me ocurrió la idea me puse a buscar si alguien la había considerado ya, y sí, algo he encontrado. Está, por ejemplo, éste artículo On the running of the gravitational constant. Es del 2011 y analiza trabajos previos sobre el asunto. Afirma que no se puede dar una definición universalmente válida para esa “running G”. Ahora bien, sí uno mira los cálculos observa que están hechos con la gravedad cuántica mas sencilla, la cuantización directa de la gravedad de Einstein, que sabemos que no es renormalizable. Todos los demás artículos que he visto sobre el tema también hacen algo similar. Eso, por supuesto, es muy chocante. ‘t Hoof demostró que si bien la gravedad pura (sin términos de materia) es renormalizable a 1 loop no lo es si se introducen términos de materia (y desde luego no lo es a 2-loops, incluso sin materia). Eso hace que, salvo que se usaran para calcular la “running G” diagramas de interacción entre dos gravitones no se podría hacer nada en el sentido habitual. Y, de hecho, por lo que he visto, los cálculos usan interacción de materia con la gravedad. No he seguido los detalles, pero si está claro que no pueden seguir los pasos habituales. De hecho en ese artículo ya aclaran que es precisamente por no ser renormalizable la teoría por lo que no hay una definición universalmente válida de esa “running G”.

El caso, y esto es lo que me sorprende, si uno va a teorías de supergravedad, que son teorías de campo ordinarias. Se tiene cree que en general la teoría no es renormalizable. En los 70-80 se encontraron argumentos que así lo afirmaban, aunque en la década pasada se han revisado esos argumentos y, al menos por un tiempo, hubo esperanza de que tal vez, las mas supersimétricas, de ellas, si fuesen teorías renormalizables después de todo. ahora ya no está tan claro, y, en cualquier caso, aunque fuesen renormalizables se sabe que no podrían incorporar el modelo standard mediante mecanismo de Kaluza-Klein. En todo caso estas teorías de supergravedad, incluso con una carga supersimétrica, sí son rernormalizables a 1-loop, y creo que a mas loops, incluso interactuando con materia. Siendo así me pregunto porque no se usan esas teoris de supergravedad para calcular esa “running G”. Y, desde luego, la teoría de cuerdas da una teoría cuántica de la gravedad renormalizable ¿Por qué no usan la integral de Polyakov y demás para obtener esa “running G? Estoy revisando material, a ver si encuentro respuestas.

En cualquier caso hay muchos indicios de que una teoría perturbativa no va a incorporar todos los aspectos de la gravedad cuántica. En el cálculo de la entropía de un agujero negro en teoría de cuerdas se usaron objetos no perturbativos de esta teoría, las black branas (objetos de la supergravedad que generalizan a los agujeros negros, que son obtenibles cómo límite de las supercuerdas) formadas por apilamiento de D-branas. Más adelante se vió que, en realidad, la clave está en el cómputo de la entropía de una teoría conforme que describe la proximidad del horizonte y que no son necesarios todos esos detalles finos de la teoría de cuerdas. No obstante hasta que esos grados nuevos de libertad se vuelvan importantes yo creo que la “running G” sería válida. Estoy mirando material para precisar los límites esos, ya veré que saco.

Pese a todas estas consideraciones uno podría pensar que, después de todo, el resultado obtenido en una teoría completa de la gravedad cuántica no debería diferir mucho de lo que se obtiene por los métodos imperfectos que usa esta gente. Y como quiera que en ese artículo dan un resultado concreto (que coincide con el obtenido en otros artículos) uno podría usar, a modo de estimación, esa expresión y ver cómo afecta eso a la creación de agujeros negros en colisiones de partículas, y, por otro lado a la desintegración de agujeros negros “grandes”. Estoy ahora mismo terminando los cálculos, y pondré una entrada cuando los termine y tenga tiempo. Por supuesto que nadie se tome esto terriblemente en serio. Son cálculos relativamente sencillos, y es divertido. Anticipo ya que, con menos detalle, otra gente ha hecho algo similar y, según ellos, y cómo yo sospechaba por estimaciones groseras, con esa G renormalizada los agujeros negros empiezan a formarse con menos energía. En particular en un artículo afirman que podría ser que, incluso con 4 dimensiones (sin necesidad a recurrir a dimensiones extra mesoscópicas cómo en los modelos de braneworlds inspirados en teoría de cuerdas) a la escala de unos pocos TeV podrían formarse agujeros negros. Y, sospecho, por estimaciones groseras que he hecho, que la radiación Hawking se debilita conforme el agujero se empequeñece haciendo que estos agujeros sean mas estables de lo que se pensaba. Pero vamos, insisto, todo esto está traído por los pelos y es especulación sin una base demasiado sólida, así que recomiendo al lector que trate esta entrada, y la que debería venir después cómo algo pedagógico sobre aspectos ya conocidos en la que, además, se presenta algo ligeramente nuevo, cómo una especulación poco sería, aunque, eso espero, entretenida de considerar.

Sobre la naturaleza de la masa

febrero 3, 2014

Sin duda el que mejor nos podría aclarar este tema es el físico Bruce Banner, más conocido por su alterego Hulk, la masa en castellano, pero cómo no está localizable en estos momentos tendré que hacer mis propia exposición del asunto ;).

Tal vez, dado que el año pasado se concedió el nobel a Higgs por su trabajo teórico, corroborado por el descubrimiento del famoso bosón este año pueda parecer, según se comenta en la divulgación, que el tema está resuelto: el higgs es lo que da masa a las partículas. Pero, la verdad es que el asunto es mucho mas sutil. Voy a explicar primero porqué el mecanismo de Higgs no nos dice gran cosa, a nivel fundamental, sobre la naturaleza de la masa.

En teoría cuántica de campos la masa aparece cómo una constante en las ecuaciones o en los lagrangianos. Por ejemplo, en el caso de una partícula escalar, regida por la ecuación de Klein-Gordon, es una constante que multiplica al término cuadrático en el campo.

\frac{1}{c^2}\frac{\partial^2}{\partial t^2}\Phi - \nabla^2\Phi+ \frac{mc^2}{\hbar}\phi = 0

Algo similar ocurre en la ecuación de Dirac.

\left( i \hbar c\sum_{\nu=0}^3 \gamma^{\mu} \frac{\partial}{\partial x^{\mu}} \Psi + i m c^2 \right) \Psi = 0

Aquí he escrito las ecuaciones manteniendo todas las unidades y evitando el uso de las unidades naturales (h=c=G=1) para que se entienda mejor porque hablamos de un término de masa. En ambas ecuaciones tenemos un primer término “cinético”, que contiene las derivadas de la función de onda. El siguiente término contiene unas constantes que multiplica a la función. Escribiendo las ecuaciones es difícil ver porque surgen esas constantes concretas y habría que atender a la derivación de las ecuaciones. Es más fácil verlo desde el lagrangaino.

El Lagrangiano de K-G es:

dónde \mu=\frac{mc}{h}

Y el de Dirac:

Aquí los términos de masa aparecen multiplicando a los términos cuadráticos en las correspondientes funciones de onda. El motivo de que se interpreten como términos de masa proviene del análisis diménsional en cuyos detalles no voy a entrar, aunque no son muy complejos. La idea es que el lagrangiano debe ser adimensional y que las funciones de onda de los campos tienen unas dimensiones naturales. Los términos que multiplican a las funciones deben tener una dimensión tal que cada término sea adimensional. Y, en el caso de los términos cuadráticos eso significa que lo que los multiplica debe tener dimensión de masa (o más bien energía, nótese el factor c^2).

Bien, eso significa que podemos poner un valor arbitrario a m, y tener partículas bosónicas escalares (ecuación de Klein-Gordón) y fermiónicas (ecuación de Dirac) con un valor arbitrario de su masa. Y, desde luego, no necesitamos para nada el bosón de Higgs. Esas ecuaciones describen partículas libres, pero si acoplamos las mismas a el campo electromagnético, lo que vendría a ser la electrodinámica cuántica (QED, por sus siglas en inglés) nos valdrían los mismos términos y seguiríamos teniendo que la masa no es nada más que una constante que aparece multiplicando a un término del lagrangiano y, una vez más, no es necesario el bosón de Higgs. Cierto es que la QED no describe nuestro universo porque en ella no se incluyen las fuerzas nucleares fuertes y débiles (y mucho menos la gravedad), pero es una teoría cuántica de campos perfectamente válida.

El problema viene cuando uno quiere incluir bosones vectoriales masivos. El electromagnetismo viene descrito por los campos eléctrico y magnético. Estos pueden derivarse respectivamente de un potencial escalar y un potencial vectorial. En relatividad general estos se combinan en un cuadripotencial que es el que aparecería en el lagrangiano. Ese campo electromagnético describe fotones, bosones vectoriales, que son partículas sin masa. Y esa es la clave, la ausencia de masa. Si queremos introducir bosones vectoriales con masa podemos hacerlo de manera similar a lo que se hace con la ecuaciónde Klein Gordon y la de Dirac y llegaríamos a la ecuación de Proca y su correspondiente Lagrangiano:

El problema de esta ecuación es que si se intenta introducir una interacción entre los campos vectoriales masivos que describe esa ecuación y un campo de Klein-gordon, o uno de Dirac, siguiendo el mismo procedimiento que se hace en QED se llega a que la teoría obtenida no es renormalizable, y por tanto inválida ya que no es predictiva.

Bien, ahí es cuando ya sí aparece el mecanismo de Higgs. No he explicado, ni en esta entrada ni en ninguna anterior, cómo surgen en general los bosones vectoriales de una forma general, dentro de lo que se conoce cómo teorías de Yang mills. Quien quiera leer detalles que consulte en la wiki sobre yang mills theory La idea general es que cuando uno tiene un lagrangiano que es invariante bajo una simetría global (la misma transformación de simetría en todos los puntos del espacio-tiempo) y la hace local (el mismo tipo de simetría, pero actuando localmente en cada punto del espacio-tiempo) uno debe introducir, para que el lagrangiano siga siendo invariante bajo la simetría local, unos campos que compensan ese cambio. Esos campos van a ser los bosones vectoriales. Cuando la simetría es el grupo de Lie U(1) se obtiene que el campo asociado es el electromagnetismo. Cuando es SU(3) se obtiene que la teoría es la QCD (Quantum cromodynamics, la teoría cuántica de las interacciones nucleares fuertes). La interacción nuclear débil está asociada al grupo SU(2), combinado con el grupo U(1), pero ahí ya inerviene de manera fundamental el mecanismo de Higgs. En las teorías de Yang-Mills todos los bosones vectoriales que aparecen son de masa nula. Eso no es problema para el electromagnetismo com oya hemos dicho. pero las interacciones nucleares son de muy corto alcance y, por consiguiente, uno espera que las partículas mediadoras de esa interacción, los bosones vectoriales, tengan mucha masa, y, cómo hemos dicho, la teoría deYang-Mills, que por lo demás es muy elegante, no nos sirve de nada. La teoría de Proca, con términos de masa directos para los bosones tampoco.

Bien, el mecanismo de Higgs, en cuyos detalles no entraré aquí (ver mecanismo de higgs en la wiki) lo que hace es que partiendo de una teoría de Yang-Mills con bosones sin masa acoplados a una teoría de Klein-Gordon que describe un bosón (el bosón de Higgs), con masa y un término potencial elegido de manera apropiada, nos lleva a que cuando se produce un fenómenoo conocido como ruptura espontánea de simetría. La idea es que el grupo de simetría inicial se ve reducido cuando el bosón de Higgs toma un nuevo valor de vacío correspondiente a un valor de mínimo (se supone que inicialmente estaba en un valor de máximo inestable). Cuando uno reescribe el lagrangiano desarrollado alrededor del nuevo vacío del bosón de Higgs resulta que los campos vectoriales han obtenido un término de masa, relacionado con el potencial del bosón de Higgs, y que la teoría resultante si es renormalizable. Digamos que, si quiere verse así, la masa de los bosones vectoriales se obtiene a partir de la energía potencial del bosón de Higgs. Realmente los detalles son algo mas complejos, pero,, más o menos, esa es una parte esencial de la idea.

Eso está bien, un término de masa está originado en un término de energía potencial. Y, desde luego, nos da una teoría renormalizable que en la práctica nos permite obtener el modelo standard SU(3)xSU(2)xU(1), pero el caso es que el bosónde Higgs sigue teniendo su término de masa, de cuyo origen nada sabemos, y tampoco sabemos porque el potencial de Higgs tiene esa forma (no tenemos ninguna teoría fundamental que nos sugiera de dónde sale esa forma para el potencial, al menos hasta dónde yo sé). Por cierto, he mencionado que el Higgs da masa a los bosones vectoriales. Si uno hace los detalles de la teoría electrodébil se ve que también da términos de masa paara los fermiones. Sin embargo no toda la masa de los fermiones del modelo standard surge del mecanimso de Higgs. Hay mas mecanismos implicados en cuyos detalles no voy a entrar.

En definitiva, el mecanismo de Higgs es algo útil, pero, en mi opinión no da una idea fundamental de qué es la masa. En entradas sucesivas intentaré reflexionar más sobre el asunto, aportando algunas ideas propias al respecto que si bien no creo que vayan a ser de gran trascendencia creo que pueden resultar entretenidas y tal vez ayuden a reflexionar sobre el particular.

Teoría cuántica de campos II: el formalismo lagrangiano.

octubre 18, 2013

Hace ya bastante tiempo puse una entrada dónde empezaba a explicar la teoría cuántica de campos, teoría cuántica de campos I. Hoy, aprovechando coyunturas varias, escribo una continuación que versará sobre como extender los métodos lagrangianos a teorías de campos. Tal vez al lector que no sepa, o no tenga reciente, el tema de los lagrangianos, le puede venir bien repasar la materia en esta otra entrada, Dinámica Lagrangiana. Aclaro, para evitar posibles confesiones, que en esta entrada me limito a la parte clásica y no a la formulación de integrales de camino de la mecánica cuántica y la QFT.

Empiezo por explicar cómo obtenemos un lagrangiano en mecánica clásica no relativista para objetos continuos, cómo puede ser una cuerda. Aproximamos la cuerda por un conjunto de partículas en la posición xi unidas entre sí por un muelle, con lo cuál la energía potencial entre ellos sería un potencial de oscilador armónico sobre la diferencia de distancias.

Spring

1. L1

Si asumimos que la separación entre dos posiciones consecutivas es \epsilon y hacemos \epsilon \rightarrow 0 nos queda el lagrangiano:

2. L2

dónde hemos tomado los límites:

limites

y dónde \Phi(x,t) es el desplazamiento de la partícula en x en el instante t. Si usamos las ecuaciones de Euler-Lagrange para el lagrangiano de partículas , primera parte de la ecuación 2, y tomamos los límites correspondientes llegamos a la ecuación de ondas para la cuerda:

3. EcOndas

Aparte de partiendo de la primera parte de la ecuación 2 y tomando límites podemos llegar a la ecuación de otro modo. Podemos partir de la segunda parte, el lagrangiano en el campo \Phi(x,t) , hacer una variación de ese campo y encontrar el valor del capo que minimiza esa variación. Enseguida vamos con los detalles porque éste punto de vista es el que nos interesa para el caso general. Ahí partiremos de un lagrangiano, en general relativista, que dependerá no sólo de un campo sino también, opcionalmente, de sus derivadas.

4. L=(\Phi(x),\partial_{\nu}\Phi(x)

dónde

5. \partial_{\nu}=(\partial_t,\partial_x)

En general el lagrangiano de campos será la integral espacial de una densidad lagrangiana y la acción la integral en el tiempo de esa densidad:

6. DensidadLagrangiana

La variación de la lagrangiana viene dada por la expresión:

7. variacion1

Si integramos por partes y revertimos la acción de la derivada llegamos a:

8. Variacion2

Cómo, de manera análoga al caso de la partícula puntual, el último término (llamado de frontera) se anula en los extremos de la integración llegamos a las ecuaciones de Euler-Lagrange para campos.

9. EulerLagrange

El caso mas simple, y que enlaza con la anterior entrada, es el lagrangiano de Klein-Gordon.

10. \mathcal{L} = - \frac{1}{2} \partial^{\mu} \varphi \partial_{\mu} \varphi - \frac{1}{2} m^2 \varphi^2

El amplituhedron: cálculo de diagramas de Feynman mediante geometría algebraica I

septiembre 24, 2013

En la entrada anterior mencioné que el tema más candente (abrasador en realidad xD) de este verano en física teórica ha sido el de la posibilidad de que haya un muro de fuego en el interior del horizonte de sucesos de agujeros negros “viejos”. Aparte de eso hubo otro trabajo que ha causado un cierto impacto, la conjetura ER/EPR en la que Maldacena y Suskind que equiparan los agujeros de gusano con el entrelazamiento cuántico. Bien, la semana pasada se ha anunciado un nuevo (o no tanto) resultado que ha recibido bastante atención de los medios especializados, cómo por ejemplo en éste artículo: A Jewel at the Heart of Quantum Physics. El tema ha aparecido en los blogs de Lubos y Peter Woit, pero sorprendentemente aún no en el de Francis, así que esta vez le voy a tomar la delantera ;).

En realidad el tema viene de hace tiempo, y ya había sido tratado hace un tiempo en la “blogosfera” dentro de lo que se conoció cómo la “minirevolución twistor”. El motivo de que ahora haya vuelto a promocionarse es una conferencia de el famoso Nima Arkani-Hammed en la que he anunciado que pronto habría un nuevo artículo, con algunas novedades se supone, y que, aparte de los avances técnicos lo plantea cómo el posible germen para una nueva revolución en la física teórica que de lugar a una nueva teoría cuántica de la gravedad en la que el espacio-tiempo perderá un papel privilegiado e incluso asuntos cómo la unitariedad cuántica se enfocan desde una nueva perspectiva. Bien, eso es el futuro, pero voy a intentar explicar un poco lo que hay hasta ahora.

El inicio de esto surge, según se cuenta en el artículo de la fundación Simons, en los 80, cuando se estaban calculando amplitudes de transición para los procesos de colisión que se iban a hacer en el LEP (light electron positron collider, el colisionador que estaba en el CERN antes del LHC) para luego comparar los resultados experimentales con las predicciones teóricas. El problema es que para calcular las amplitudes requeridas era necesario evaluar 200 diagramas de Feynman, algo que era imposible hacer incluso con los ordenadores de la época. Usando unos pocos trucos matemáticos consiguieron demostrar que muchos diagramas se anulaban unos con otros y consiguieron reducir el cálculo a una expresión que ocupaba “solamente” unos 20 hojas de papel escrito.

Para entender el motivo de esta complicación voy a comentar los detalles relevantes de los diagramas de Feynman (la entrada de la wiki que enlacé antes no da detalles suficientes) para éste particular. Estos diagramas son una representación simbólica del cálculo perturbativo de las amplitudes de transición de los procesos de física de partículas. Por proceso entendemos un experimento en el que partimos de unas partículas iniciales en unas condiciones determinadas (por ejemplo un e-,electrón y un e+, positrón -antipartícula del electrón- con momentos incidentes p1 y p2) que tras la interacción se transforman en otras partículas, que llamaré P1, P2, P3, etc, con momentos p’1, p’2, p’3, etc. Tal vez alguien se sorprenda de que haya procesos de éste estilo pues se ha popularizado la idea de que una partícula se aniquila con una antipartícula. Es bastante cierto, pero con matices, y eso sirve para entender la idea detrás de los diagramas de Feynman. Un e- y un e+ pueden, y es lo que harán normalmente, aniquilarse el uno con el otro y formar un fotón. Este fotón va a tener cómo mínimo una energía que va a ser igual a la suma de la masa del e+ y el e-. Esto se debe a la famosa relación E=m.c^2 que una partícula tiene una energía que es igual a su masa en reposo multiplicada por el cuadrado de la velocidad de la luz. Ese fotón tiene una energía que cumple E=h \nu dónde \nu es la frecuencia del fotón. Así cuanta mas energía tenga el fotón mayor será su frecuencia, y mas corta su longitud de onda. Cuando los electrones colisionan a una cierta velocidad v llevan un momento que se corresponde con una energía Es decir, cuanto mas rápido vayan mas energía van a tener esos e+/e- incidentes y, en consecuencia, mas energía va a tener el fotón. Cuando la velocidad de las partículas es muy cercana a la de la luz (partículas ultrarrelativistas) la mayor parte de la energía proviene de su momento, y su masa en reposo se hace despreciable. Quien esté interesado en los detalles de la dinámica relativista puede leer, por ejemplo, la web de la que he sacado las imágenes hyperfphysics.

La clave del proceso es que ese fotón no es el final de la historia. Si los electrones llevan mucha velocidad el fotón va a tener mucha energía. Podría suceder que el fotón se volviese a desintegrar en otro par e+/e-, cuyo momento combinado va a ser (por conservación del momento) igual al del par indicente (p1+ p2=p’1 + p’2). Se conserva la suma, pero no los valores individuales. Es decir, aunque inicialmente ambas partículas llegasen a la colisión con el mismo momento (y dado que tiene igual masa a la misma velocidad), no tienen porque salir igual, cada uno puede llevar una diferente, mientras la suma se conserve. Esto va a ser muy importante mas adelante, cuando explique lo que es un loop, pero antes debo explicar alguna cosa más. Si la energía del fotón es muy alta puede desintegrarse en otro tipo de partículas que no sea un par e+/e-. Podría, por ejemplo, desintegrarse en un par m+/m-, muón/antimuón, (el muón es igual que el electrón, pero con una masa unos centenares de veces mayor). El momento también se conserva, con lo cuál la velocidad combinada de los muones será menor que la de los electrones incidentes. Según aumenta la energía del fotón el numero de partículas en las que se va a poder desintegrar irá creciendo. Aparte de la restricciones impuestas por la conservación de la energía y la del momento hay otras, las conservaciones de las diversas cargas, por ejemplo. Así como el e+ tiene carga positiva y el e- negativa el resultado debe tener, en promedio carga neutra. Por eso puede formarse un par m+/m- pero no, por ejemplo, dos m+ o dos m-. Y, desde luego en principio, el número de partículas inicial no tiene porque ser igual al final.

Cómo hemos visto hay varios procesos posibles como resultado de la colisión de el par e+/e-. Cada uno de esos sucesos, siguiendo las leyes de la mecánica cuántica, va a tener una probabilidad. Y la teoría cuántica de campos nos va a permitir calcularla. La probabilidad total para un proceso determinado es imposible de evaluar exactamente y debemos evaluarla de manera perturbativa, es decir, cómo suma de varios términos (normalmente infinitos términos, es decir, lo que matemáticamente se conoce cómo una serie) en los que, si la interacción entre las partículas es débil, cada término va a ser menor que el anterior. Antes he dicho que puedo tener un proceso, el mas sencillo posible, en el que el e+/e- se desintegran en un fotón, que, a su vez, se desintegra de nuevo en otro par e+/-. Eso lo puedo representar mediante el siguiente diagrama de Feynman.

Ese diagrama nos da la primera contribución, el primer término de la serie, que es el mas importante. Los siguientes términos nos van a dar correcciones al primer resultado. Para entender de dónde salen esos términos voy a explicar el concepto de loop. La idea es simple, el fotón, antes de desintegrarse en el par e+/e- final puede desintegrarse entre medias en otro par e+/e- (o uno m+/m- si lleva bastante energía) que luego se desintegran en un fotón que ya, por fín, se desintegra en el par e+/e- final. Es importante notar que esos dos e+/e- intermedios tienen fijada la suma de su momento, pero no el momento individual, es decir, que queda un momento interno sin fijar. Para calcular la amplitud tenemos que sumar (integrar) a todos los valores posibles de ese momento interno. En los procesos sin loop, en los que todas las partículas intermedias (virtuales) tienen su momento fijado se les llama procesos tree (árbol) y son sencillos de calcular. Los procesos con loops contienen integrales, y el valor de esas integrales van a ser infinitos. Afortunadamente, para cierto tipo de teorías, denominadas renormalizables, pueden redefinirse ciertos valores y obtener cantidades finitas correspondientes los procesos que están relacionados con esos loops. Un detalle interesante es que si la interacción está caracterizada por un valor, llamémosle \lambda , los procesos tree parecerán multiplicados por la constante, los procesos a un loop por la constante al cuadrado y así sucesivamente. Es decir, tenemos una serie en función de la constante. Si la constante es pequeña (mucho mas pequeña que uno, cómo es el caso de la electrodinámica dónde vale 1/127, la constante de estructura fina) se va a obtener que los términos con muchos loops van a contribuir muy poco. Sin embargo si la constante es del orden de la unidad, cómo ocurre con la QCD (quantum cromodynamics, la teoría de las interacciones nucleares fuertes) no está garantizado que esto pase y puede suceder que los términos a orden 2 sean mayores que el término árbol. Ese es uno de los muchos motivos por los que la QCD es muy compleja d estudiar usando diagramas de Feynman y por los que esta teoría del amplithuedron podría llegar a ser muy relevante para el campo si al final se consigue una versión de la teoría adaptada a la QCD, cosa que de momento no se tiene pués, por ahora, esta nueva teoría sólo se aplica a cierto tipo de teorías con muchas simetrías (las teorías de Yang-Mills con máxima supersimetría, no voy a intentar explicar ahora lo que son, sólo decir que no se corresponden con ninguna teoría física realizada en la naturaleza y sólo juegan un papel de “laboratorio” teórico).

Bien, el caso es que para cada proceso de estos podemos dibujar un diagrama de Feynman, el diagrama de Feynman a un loop para el proceso e+/e- ->e+/e- a un loop sería el de la derecha de la imagen siguiente:

A cada diagrama se le asocian, mediante una serie de reglas, una expresión, que es la expresión del correspondiente término perturbativo. Como ya indiqué para cierto tipo de procesos es necesario hacer cálculos a varios loops, y el número de diagramas correspondientes al proceso crece muy rápido con el número de loops. Eso hace, que, en la práctica, para procesos a dos o más loops se recurra a ordenadores, y para procesos a, digamos 5 o más loops, sencillamente sea, en algunas teorías, sencillamente imposible, incluso con ordenadores. Pues bien, la idea de éste amplithuedron lo que va a hacer es reducir el cálculo de el valor del diagrama al cálculo del volumen de el volumen de un objeto geométrico que va a ser un subconjunto de un tipo de variedades denominadas grassmanianas. Y, de hecho, va a permitir decidir de manera sencilla que diagramas se cancelan unos con otros, y así tener que hacer muchos menos cálculos. En alguna entrada daré mas detalles, pero esta ya es bastante larga, así que la concluyo poniendo algunos enlaces más al tema de los diagramas de Feynman, por si alguien quiere profundizar, y tener otros puntos de vista.

Diagramas de Feynman para todos 1

Las partículas virtuales y el gran bulo de la divulgación
Feynman diagram

Física de los materiales magnéticos (libro)

octubre 11, 2012

Siendo un teórico puro puede resultar extraño que dedique una entrada a un libro que trata un tema tan aplicado cómo el de los materiales magnéticos. Realmente el único motivo por el que éste libro ha caído en mis manos ha sido que me lo encontré cuando buscaba otras cosas (no para mí) en una biblioteca.

Pero el caso es que es el típico libro de un tamaño moderado y relativamente pocas páginas (220 + apéndices) lo cuál invita a darle una oportunidad. Pero, igualmente ¿un libro sobre física aplicada? ¿moi?. Bien, el motivo es una frase que dijo un profesor en alguna asignatura (no recuerdo cuál exactamente): “comprendemos los materiales eléctricos desde hace bastante, pero no se pudieron explicar los materiales magnéticos hasta la década de los 50”. Supongo que por entender el magnetismo se debía referir al modelo de Ising (o si se quiere léase la versión inglesa de la wiki para una discusión más detallada Isig model ) cuya solución para el caso de dos dimensiones la obtuvo Onsager en 1944. Esa solución mostraba que los sistemas ferromagnéticos sufrían una transición de fase. se supone que eso puede explicar el magnetismo permanente de los materiales ferromagnéticos que son aquellos que una vez sus spines se quedan alineados por un campo externo mantienen esa alineación una vez retirado el campo.

Bien, eso es, en el fondo, todo lo que yo sabía sobre materiales magnéticos antes de ponerme con éste libro (si en algún momento he llegado a saber más ya lo había olvidado xD). Para un físico teórico es relevante, claro, saber las leyes de maxwell y, más adelante, saber la teoría de monopolos magnéticos, empezando por la de Dirac y luego el resurgimiento de los mismos dentro de las teorías gauge de gran unificación y cómo si asumimos que hubo una fase unificada, debe haber existido un mecanismo cómo la inflación para diluir la presencia de monopolos (algo necesario ya que no se han observado experimentalmente). En realidad el tema es curioso porque cuando a uno le explican el teorema de Noëther y que a cada simetría (externa o interna) le corresponde una corriente y una carga asociada piensa que entiende bien la carga eléctrica. Digamos que en el electromagnetismo uno tiene una simetría Gauge (ergo interna) de tipo U(1). Y sabemos que asociada hay una corriente. Y claro, uno dice, “ya está, es la corriente eléctrica”. Y sabe que sí se integra esa corriente a una superficie cerrada se obtiene una carga conservada y una vez más dice:”ya está, es la carga eléctrica”. De hecho si uno se mira en la Wiki sobre ese teorema lee justamente eso. Y si se pretende profundizar un poco uno debe irse a ver la definición formal de lo que es una carga. Bien, pues sí, vale, la carga es el generador de una simetría continua y par una simetría U(1) sólo puede haber un generador. Si nos vamos a simetrías gauge mas complejas tenemos que la carga se corresponde con el sistema de raíces del álgebra de Lie asociada al grupo.

Cómo inglesa de la wiki no explica de manera muy clara lo que son las raíces de un álgebra de Lie dejo una explicación somera, a modo de recordatorio para los que les suene de algo el tema, de lo que son. Quizás este sea un buen momento para que el lector se repase esta entrada básica sobre grupos de Lie.

La idea es muy simple. Si uno tiene un grupo de Lie, y su correspondiente álgebra, los elementos del álgebra son los generadores infinitesimales del grupo. La definición formal buena de éste álgebra si tiene cuando se considera que un grupo es una variedad diferenciable y entonces estos generadores son los vectores tangentes invariantes por la izquierda bajo la acción del grupo sobre si mismo, que puede probarse que se corresponden con el espacio tangente en la identidad del grupo. Para los físicos teóricos (al menos los de alguna generación previa a la irrupción de la teoría de cuerdas) un grupo de Lie es un grupo matricial y los generadores son matrices T que cumplen que los elementos del grupo son de la forma exp (iT) (exponenciación de matrices).

Lo siguiente es elegir el centro del álgebra de Lie (o subálgebra de Cartan). está formada por todos los elementos del álgebra que conmutan entre sí. Una pequeña aclaración, Por conmutar en el caso de sistemas matriciales nos referimos, claro está, a que las matrices conmutan. En el caso general está definido un corchete entre dos campos diferenciables en una variedad que juega ese papel (y obviamente ambas definiciones son equivalentes para grupos matriciales). Por cierto, el número de elementos del álgebra de Cartán se denommina rango del álgebra de Lie, lo digo para quien le suene el término. El motivo de elegir el álgebra de Cartan proviene del hecho bien conocido de que un conjunto de operadores que conmutan admite una base en la que todos los elementos operadores son diagonales (diagonalización simultánea).

Los vectores que diagonalizan simultáneamente a todos los elementos del álgebra de Cartán se denominan vectores peso, y sus autovalores son los pesos. Ya estamos cerca de poder definir lo que son las raíces del álgebra. Antes es necesario hablar de las representaciones. En física los grupos de simetría aparecen de forma natural. Son las transformaciones de simetría del espacio. Estas son simetrías externas. También hay simetrías internas que surgen cuando la física no se modifica cuando se cambian un tipo de partículas por otras. Bueno, el caso es que estas simetrías externas vienen dadas de forma natural por matrices. Las simetrías internas también vienen dadas por matrices. Al fin y al cabo tenemos sistemas cuánticos que son lineales y los operadores lineales “son matrices”. Bien, para una simetría típica, cómo una rotación SO(3) (y su recubridor universal SU(2))la matriz natural es una matriz 3×3 actuando e un espacio vectorial de 3 dimensiones. Pero el caso es que si uno se saca el álgebra de Lie de SU(3) se encuentra con que aparte de la representación “natural”. Pero hay otras. Una, muy importante, es la representación adjunta. Aunque los elementos del álgebra de Cartán conmutan el resto de elementos no. Eso sí, en general, cómo el álgebra es cerrada, el conmutador de dos elementos cualesquiera puede escribirse cómo combinación lineal de otros elementos de una base de generadores. Los coeficiente de cada elemento de la base se denominan constante de estructura y estás generan una representación, que se denomina representación adjunta. Pués bien, las raíces del álgebra de Lie son los vectores peso de la representación adjunta.

Cómo no quiero extenderme mucho más con el tema de representaciones de álgebras de Lie lo dejo aquí, pero quede esto cómo ejemplo de que la definición formal de lo que es carga en física no es algo precisamente trivial. Y esto nos lleva al principio. Vale, la carga eléctrica es el generador del U(1) de la electrodinámica (clásica o cuántica, da un poco lo mismo xD). Pero entonces ¿que pasa con el magnetismo?. Bueno, repasemos un poco de física elemental. Sabemos que los campos magnéticos están asociados a cargas en movimiento según las leyes de Maxwell. Una carga eléctrica moviéndose a una velocidad v genera un campo magnético. Ahora bien, ese campo magnético lo ve un observador para el que la carga se está moviendo con velocidad v, pero un observador que sea comóvil con la carga no ve ese campo magnético. Él lo que ve es un campo eléctrico Coulombiano. Es decir, que la noción de lo que es campo eléctrico o magnético depende del observador. En relatividad especial podemos juntar el potencial eléctrico del que se deriva el campo eléctrico y el potencial vector magnético del que se deriva el campo magnético en un caudrivector. Y ese cuadrivector, cómo dice su nombre, es un vector, y sabemos cómo se comporta bajo transformaciones de Lorentz. Los campos en si mismos los debemos ensamblar en un tensor, el tensor electromagnético, que es un tensor de orden 2 (podemos cambiar entre sus componentes co y contravariantes con la métrica de Minkowsky). Siendo un tensor sabemos perfectamente cómo se transforma.

Bien, el caso es que asociada a una carga, la carga eléctrica, tenemos dos campos, el eléctrico y el magnético. Por contra el campo magnético tiene su origen en las corrientes eléctricas (que son cargas eléctricas en movimiento) y por eso no necesitamos tener una “carga magnética”. En realidad no podríamos tener una “carga magnética” porque, sencillamente, la teoría electromagnética sólo tiene un generador. Sin embargo las ecuaciones de Maxwell son bastante simétricas (de hecho en ausencia de cargas son totalmente simétricas) y uno se siente tentado de introducir cargas magnéticas y sus correspondientes corrientes magnéticas, que generarían campos eléctricos. Pero no es tan sencillo. En fin, quien quiera leer más sobre el tema que consulte la teoría de Drirac sobre monopolos magnéticos.

Bueno, pero a ver, si no hay cargas magnéticas ¿de dónde surgen los materiales magnéticos? Bien, eso lo responde el libro. Pero vamos a hacer unas consideraciones teóricas previas. Las partículas elementales tienen un dipolo magnético. Una “idea clásica” es que si las partículas tiene spin eso es que “están girando sobre si mismas” y una carga girando es una carga en movimiento (er, bueno, si la idea de un punto girando tiene sentido, claro xD) y produce un campo magnético. Si uno hace un desarrollo multipolar de ese campo la parte relevante es la dipolar y ya tenemos el momento dipolar asociado a una partícula fundamental. Por supuesto esta “visión intuitiva” no tiene mucho sentido y lo que si hay es un tratamiento en mecánica cuántica (en particular en teoría cuántica de campos) en la que se puede obtener una expresión del valor del dipolo magnético, o, mas exactamente la constante de proporcionalidad entre el momento dipolar y el spin de la partícula, que se denomina momento magnético. Para mas detalles (no muchos más) puede verse la entrada de la wiki sobre el momento magnético.

Bien, entonces tenemos claro el origen a nivel fundamental del magnetismo (bueno, yo lo he intentado). En última instancia se reduce a que por teoría cuántica de capos las partículas fundamentales tienen un momento magnético.

Pero ¿cómo se pasa de ahí a que haya cuerpos con un campo magnético macroscópico? Pues la respuesta está en el libro de Antonio Hernando y Juan M. Rojo “Física de los materiales magnéticos”.

Y bien ¿que queda de esto para un teórico? Pues es muy sencillo. De no ser porque vivimos un mundo en que la tecnología hace un uso exhaustivo de los campos magnéticos estos parecerían mas bien una curiosidad. De hecho así era hasta prácticamente principios del siglo XX. Y el hecho de que algunas partículas tengan un dipolo magnético es, desde un punto de vista meramente teórico, poco más que una curiosidad. Uno no se esperaría a priori que una cantidad tan pequeña que sólo provoca correcciones a la estructura del átomo de hidrógeno pueda llegar a dar lugar por “milagros estadísticos” a configuraciones de materia que generen campos macroscópicos. De hecho el modelo de Ising depende de interacciones a primeros vecinos. Eso significa que tal vez en la existencia de materiales magnéticos no juegue un papel muy importante el hecho de que la interaccion electromagnética sea de largo alcance. Y, claro, eso hace que uno se plantee que tal vez en las teorias de cuerdas pueda haber algún “milagro” de ese estilo que permita que aparezcan en situaciones especiales algún tipo de campo “magnético” (para simetrias gauge mas generales, recordemos que las teorias de cuerdas y las teorias gauge van de la mano) y que tal vez pueda haber configuraciones exóticas de branas que puedan dar lugar a algún campo macroscópico que podamos detectar…si sabemos como mirar.

Y, bueno, para el que haya llegado a esta entrada con una mentalidad de físico aplicado, pués si, el libro seguro que también es muy interesante para ellos :-).

Higgs, higgs, hurra!

julio 3, 2012

Hoy es el día en el que el LHC tiene previsto hacer el anuncio oficial del descubrimiento del bosón de Higgs. La blogosfera está llena de entradas en las que se analiza casi cada factor de lo que puede o no decir exactamente el LHC  sobre el higgs con la cantidad de datos que tiene acumulados hasta ahora. Por ejemplo, no es nada sencillo asegurar que es un bosón de spin 0. Y, desde luego, hasta que no haya más datos no se podrá decir sí es el higgs del modelo standard o alguna versión dosimetría del mismo.

Cómo quiera que estoy escribiendo está entrada desde el móvil no me voy a alargar mucho más. Simplemente la dejo para que sirva de recordatorio para quienes quieran ver en vivo el anuncio.

Actualización. Obviamente me hice un pequeño lío con las fechas. El anuncio del Higgs es mañana día 4, no hoy día 3.

Lepton-Photon 2011 y el Higgs

agosto 22, 2011

Estoy siguiendo, desde hace un par de horas, las charlas sobre los dados, con 2 fentombans inversos,, de ATLAS sobre el Higgs que están dando en el marco de la conferencia lepto-photon, celebraándose en bombay. Estoy postendo en tiempo real en facebook lo que van diciendo. Dejo aquí copia, y edito la entrada para añadir mas cosas.

Lo primero, decri que el web cast puede seguirse aquí.

La sesión se abrió con una larga charla sobre lo buenas que eran las instituciones.

->Media hora o más de la conferencia sobre el Higgs, y por ahora todo son preliminares que se supone que la mayoría de la audiencia debe conocer .Quiero suponer que eso es porque tienen algo medianamente serio que decir y lo están alargando para crear expectación. Sea como sea enseguida se sabrá (escrito a las 7 54).

->wow, un texto que pone: “Asumamos durante los siguientes 10 mtos que el higgs ha sido observado por ATLAS y/o el CMS, que conclusiones se obtendrían de ello?”. Si ahora no tienen nada es para denunciarles xDDDD.

-> Algo debe haber. Eso explicaría la entrada de este blog (publicada unas horitas antes de la conferencia): What If It’s Not The Higgs?

->Estooo, han concluido la charla y sigo sin tener claro si han dicho los datos, pero juraría que no. Ahora viene otro ponente, espero que este si nos saque de dudas. Pero vamos, esto ya parece un show de TV ¬¬ (hora: 8:06)

->Sic, como por algún motivo raro no puedo maximizar el vídeo no veo bien del todo los gráficos. Pero me parece que han anunciado límites de exclusión, pero no un exceso claro que indique una señal clara. A ver si el siguiente conferenciante lo aclara mejor (hora: 8 32)

->Ok, en otra conferencia presentaron datos del CMS con 1.7 /fb. límites de exclusión e indicios en los rangos de masa favorecidos similares a lo que ya había. Han preguntado para cuando estarán los datos combinados de ATLAS y CMS y han respondido que toca esperar un poco.(hora 8: 59). Siguen mas conferencias, a ver que dicen.

->Ahora están dando una charla con datos refinados del tevatrón. Entre tanto Philip Gibb, el autor del blog vixra (y del servidor de preprints vixra) ha conseguido encontrar imágenes de los datos de ATLAS sacados de esta nota de la conferencia. Las imágenes son estas:

-> Y los del tevatron no han aportado tampoco nada decisivo. Si acaso que con 8 /fb tienen una señal a dos sigmas que no termina de irse que podría ser el Higgs, o mas posiblemente otra cosa. Pero claro, 2 sigmas no es muy significativo En la sesión de preguntas se ha debatido mucho sobre backgrounds, montecarlos y etc, etc. Pero, en definitiva, chicha poca. Si acaso ahora que se van a comer podrán probar algo (que no sea solomillo de vaca, claro, que por esas tierras está prohibido xD).

En conclusión, nada excepcional, excepto los nuevos límites de exclusión, que son bastante severos. No sé porque el ponente de una de las primeras charlas indujo a pensar lo contrario. Estas tácticas de “que viene el lobo”, cuando se sabe que no hay mas que algún perrillo cariñoso son mas propias, creo yo, de una compañía que vende productos basándose en el marketing que de la ciencia seria.

No he publicado nada desde las conferencias EPS, que al final fueron un tanto decepcionantes (lo cuál es parte del motivo para no publicar por aquí, es aburrido decir demasiadas veces “por ahora nada nuevo”). Lo único serio fueron límites en la masa de las partículas supersimétricas hadrónicas (los squarks) que nos llevaban su masa a más de 700 GeV (si mal no recuerdo) y datos para el higgs en la línea de lo que aquí comento. Ah, si, y límites nuevos en producción de agujeros negros (radiantes por Hawkings) y kaluza kleins y etc, etc). Osea, mucho resultado negativo, pero ninguno positivo. Para hoy esperaba algo más consistente, pero no. Toca esperar hasta navidades, imagino, para tener conferencias con casi 5 /fb por parte de los detectores del LHC (y tal vez datos combinados) y el tevatron presentando su canto del cisne (recuérdese que va a cerrar el mes que viene), con unos 10.5 /fb (a 1.5 TeV de energía, bastante inferior a los 7 de LHC).

La verdad es que a estas alturas podríamos haber tenido muchas buenas noticias positivas, pero no se ha encontrado nada de lo que se buscaba. Si alguien tiene una idea brillante alternativa a la supersimetría, los braneworlds y los modelos technicolor, y predice algo en la escala de energías del LHC es un momento excelente para que se haga promoción e intente convencer a la gente del CERN de que lo busque. No es que la supersimetría y los braneworlds estén muertos, ni mucho menos, pero como no se ha encontrado nada posiblemente haya buen ambiente para buscar otras cosas, siempre que la propuesta sea sensata, claro.

En fin, hasta navidades en el plano experimental imagino que las sorpresas podrían venir del lado de la cosmologia, que imagino que habrá algún experimento de búsqueda de materia oscura pendiente de actualizar datos. En cualquier caso habrá temas que comentar, aunque posiblemente en las fechas próximas andaré bastante liado y no sé si podre publicar mucho.

P.S. En la última entrada hablaba de las corrientes neutras. Tomasso quito esa entrada por un motivo poco claro, sus líos de política interna con sus compañeros del CDF básicamente. Y el caso es que nadie ha vuelto a hacer mayor comentario sobre ese “descubrimiento”. No entiendo muy bien la causa, ya que el artículo está en arxiv y en principio debería ser algo interesante, pero debe ser que estoy olvidando algo.

P.S. 2. Vale, es cierto. En esta conferencia Lepto-photon seguramente se anunciaran datos del LHC con cerca de 2 /fb para más tipo de partículas, no sólo el Higgs. Hay alguna pequeña posibilidad de que alguna de esas búsquedas haya tenido algún éxito. Si es así ya lo comentaré en cuanto se sepa.

Corrientes de cambio de sabor observadas en el CDF a 5.4 sigmas de significación

julio 20, 2011

Con el detector CDF del tevatrón estamos ante un típico caso del efecto “que viene el lobo”.

Lo digo porque, como se publico en este blog, hace unas semanas había lanzado a bombo y platillo un resultado dónde afirmaba haber visto a 4.1 sigmas un “Wjj bump”, indicativo casi inequívoco de nueva física. Ese dato se sumaba a otro, el anuncio a 3.2 sigmas de una anomalía “backward -forward” de cierto tipo de eventos en colisiones protón-antiprotón. Todas esas observaciones quedaron refutadas por el otro observatorio del tevatrón, el D0.

Por ese motivo cualquier resultado proveniente del CDF se mira con escepticismo. Sólo eso puede explicar que Tomassso Dorigo haya anunciado en su blog el nuevo resultado del que hablo en esta entrada hace dos horas (al momento de escribir esta entrada) y aún no tenga ningún comentario en su blog.

El resultado en cuestión es el hallazgo de una corriente de cambio de sabor en un canal concreto: la desintegración de una partícula Lambda b barión (formada por un quark up, uno down y otro bottom) en un par muón/antimuón y otro barión mas sencillo. Este tipo de procesos son indicativos de nueva física más allá del modelo standard.

Las corrientes de cambio de sabor son, genéricamente, procesos en los que un quark de un sabor se transforma en otro quark de otro sabor. Recordemos que los quarks son los constituyentes de los protones y neutrones, así como de otras muchas partículas nucleares creadas en aceleradores por primera vez en los años 40 y 50. Esa retahíla de partículas fué organizada por Murray-Gellman como combinaciones de Quarks. Gellman dedujo sus resultados usando teoría de grupos en su famoso artículo “the eighfold way” en el que mostro que usando el grupo SU(3) podía hacer corresponder la mayoría de esas partículas observadas como representaciones varias del grupo SU(3). La representación fundamental de ese grupo, de dimensión 3, estaba dada por tres estados, los quarks, up, down y strange (u, d, s) y la conjugada de esa representación fundamental por los correspondientes antiquarks. Gellman introdujo la terminología de sabores para distinguir esos quarks. Es decir, que lo que distinguía un quark de otro era el “sabor”. En su trabajo inicial había, como he dicho, tres sabores. Posteriormente se añadieron otros tres sabores (otros tres quarks) el charm, el botton y el up. Realmente la teoría de grupos funciona bien para clasificar las partículas formadas por los tres primeros quarks. Debo decir que las simetrías de ese grupo SU(3) no eran exactas sino aproximadas. Había pequeñas diferencias de masa entre todos los bariones (resonancias, mesones, etc) que estaban en una representación dada. Pero era lo bastante insignificante para no ser significativa. Sin embargo los intentos de usar grupos mas grandes para incluir los nuevos quarks y clasificar las partículas mas pesadas fueron infructuosos.

Realmente, a día de hoy, la visión de esto de los sabores es en cierto modo ligeramente distinta. Lo que vemos son familias. En la primera familia, la más ligera, están los quarks up y down. En la siguiente familia los charm y strange. En la última, y más pesada, los up y bottom. Excepto por la masa las características de los quarks correspondiente son iguales. Correspondientes a las familias de quarks están las familias leptónicas dónde tenemos los leptones (partículas que no interaccionan por la fuerza nuclear fuerte y en consecuencia no forman parte de los núcleos) con sus correspondientes neutrinos. En concreto tenemos electrón y neutrino electrónico, muón y neutrino muónico y tauón y neutrino tauónico.

En el modelo standard de partículas, el famoso SU(3)xSU(2)xU(1) no hay ningún proceso que a nivel de árbol transforme un quark de una familia en uno de otra (o en terminología de sabores, que cambie su sabor). Sólo en procesos que incluyen loops (es decir, que la partícula virtual mediadora de las interacciones entre partículas a su vez se transforme en un par partícula-antipartícula virtual a medio camino y luego vuelva a crearse la partícula mediadora original) puede suceder uno de esos procesos. Los procesos a un loop (o superiores) modifican muy poco las probabilidades y en el modelo standard la posibilidad de un evento de cambio de color es insignificante. Sin embargo en otros modelos de física más allá del modelo standard (modelos de unificación SU(5), modelos supersimétricos, modelos fenomenológicos inspirados en cuerdas) si tienden a salir ese tipo de procesos (debidos si mal no recuerdo a operadores de dimensión 5 o superior) y hay que jugar con los modelos, si se puede, para cancelar esos procesos. Un caso famoso es el de la unificación SU(5) original en la que esos procesos serían responsables de un ritmo de desintegración del protón mayor de lo que se observó tras la publicación del modelo y que llevó a la refutación del mismo y a la necesidad de crear variantes del original.

Y ahí está la clave de ese artículo. Que en uno de los canales dónde es razonable buscar un proceso de cambio de color en un quark han encontrado que el número de eventos encontrados, 24, es mucho mayor de lo que predice el modelo standard en procesos a un loop. Es decir, que han encontrado una evidencia estadisticamente abrumadora de un nuevo tipo de física del tipo que uno razonablemente podría esperarse hallar.

El problema, como dije, es la credibilidad del CDF. Sino a estas horas mucha gente estaría celebrando con Champán el gran hallazgo. Pero tal como están las cosas imagino que toca esperar a ver si D0 ve algo similar. No sé los detalles del LHC, pero imagino que también debería ser capaz de observar algo similar. En definitiva, otra vez a esperar. De momento, si alguien quiere profundizar, puee leerse el artículo en arxiv: Observation of the Baryonic Flavor-Changing Neutral Current Decay Lambda_b to Lambda mu+ mu- y también estar atento a la charla en directo dónde anunciarán a bombo y platillo el descubrimiento: Fermilab Live Video Streams

Para quienes gusten de los dibujitos dejo el gráfico que se corresponde al hallazgo:

Por cierto, hablando del LHC. Hoy ha empezado la reunión EPS 2011. Podéis ver pdfs de algunas de las charlas que se van a dar aquí: Europhysics Conference on High-Energy Physics 2011. En esas charlas se anunciará el análisis de los datos obtenidos por el LHC hasta ahora (algunas charlas analizan hasta 1.2 fentobans inversos. Es posible que en alguna de esas charlas se puedan anunciar descubrimientos importantes ya que la cantidad de datos reunidos es lo bastante importante como para que las expectativas sean favorables. Obviamente seguiré con atención esas charlas y si tengo ocasión dejaré recado de lo más importante que se anuncie ;).

Teoría cuántica de campos I

abril 11, 2009

En mecánica cuántica ordinaria se usan hamiltonianos no relativistas. Eso permite describir cuánticamente partículas que viajan a velocidades pequeñas con respecto a la de la luz. Sin embargo para partículas a velocidades cercanas a c habría que usar hamiltonianos relativistas. De hecho la teoría de la relatividad especial estaba totalmente asentadda cuando Schröedinger presentó su ecuación (que culminaría, junto con la representación matricial de Heisemberg) un trabajo de varias décadas en el que se fué asentando la cuántica en una base sólida. De hecho Schröedinger admiraba a Einstein, así pues puede sorprender que no presentara una ecuación relativista. De hecho presentó una ecuación relativista, pero daba problemas y enseguida presentó una aproximación para bajas velocidades que es la que se usó.

¿Y que problemas daba? Bien, tardó mucho en esclarecerse todo ese tema así que en vez de explicar una evolución histórica que no conozco en profundidad(a la espera de que salga el 2º volumen de “historia de la mecánica cuántica” de Sanchez Ron) presentaré los resultados esenciales.

Para empezar hay un aspecto terriblemente importante. La famosa ecuación:

1. E=m.c^2

Esta ecuación indica que la “masa” puede transformarse en “energía” (por ejemplo en una desintegración nuclear) y también lo contrario, que si hay suficiente energía se puede formar una partícula con una masa que este de acuerdo a esa ecuación. Esa es la idea detrás de los grandes colisionadores de partículas. Se hacen chocar dos partículas, por ejemplo dos electrones a una velocidad (y por tanto energía cinética) muy alta y esa energía cinética se traduce en la formación de otras partículas pesadas (que normalmente se van a desintegrar enseguida en otras partículas mas ligeras).

Esto tiene una consecuencia muy importante. No podemos tener fijo el número de partículas. Es decir, al teoría cuántica relativista debe ser una teoría que describa un número indeterminado de partículas. Esto contrasta con la cuántica ordinaria que trabaja con un número determinado de partículas (uno en el caso más sencillo). Realmente no sólo vamos a tener que trabajar en teorías con un número indefinido de partículas en el caso relativista. Hay sistemas cuánticos no relativistas dónde se da la misma circunstancia. Probablemente el mas conocido sea la física del estado sólido dónde se cuantizan las vibraciones de los nodos de una red cristalina respecto a su posición de equilibrio, conocidas como fonones. En lo que sigue del post me centraré, no obstante, en las teorías de campos relativistas.

Bien, antes de enunciar otros problemas de la teoría relativista presentaré una ecuación relativista, la de Klein-Gordon. Parto de la expresión general para la energía de una partícula relativista (que se reduce a la 1 para partículas en reposo):

2 E= \sqrt{p^2c^2 + m^2c^4}

Ahora la eleveoalcuadrado y obtengo:

2′. \mathbf{p}^2 c^2 + m^2 c^4 = E^2

Si en esa ecuación hago la misma sustitución que lleva a la ecuación de Schröedinger (cambiar el momento y la posición clásica por sus correspondientes operadores cuánticos) obtengo:

3 (\Box + \mu^2) \psi = 0

que es la ecuación de Klein-Gordon. Esta ecuación describe una partícula de spin 0. Había mencionado al inicio que esta ecuación daba problemas. Estos problemas son que admite soluciones de energía negativa y no admite una interpretación como una densidad de probabilidad positiva. Por supuesto se pueden ignorar “por decreto” esas soluciones. Lo malo es que si a esa ecuación para una partícula libre le añadimos términos de interacción resulta que puede haber evolución de estados de energía positiva en estados de energía negativa.

En el limite no relativista se puede ver que los problemas desaparecen y que tenemos a ecuación de Schröedinger que si admite esa interpretación probabilista. Se puede ver que la candidata a densidad de probabilidad tiene la forma:

4 \rho = \frac{i\hbar}{2m}(\phi^*\partial_t\phi - \phi\partial_t\phi^*)

que en el límite de ondas cuya longitud de onda es larga comparada con su longitud de Compton se reduce, lo que equivale a velocidades no relativistas, se reduce -para frecuencias positivas- a la densidad de probabilidad de la ecuación de Schröedinger.

Estos problemas pueden resolverse con las adecuadas reinterpretaciones, pero históricamente se siguió una ruta diferente que pasa por la ecuación de Dirac.

5. (-i\gamma^\mu\partial_\mu + m) \psi = 0\

Ahí las \gamma son las matrices de Dirac que cumplen la relación:

6. \{\gamma^\mu,\gamma^\nu\} = 2 g^{\mu\nu} \

Explicitamente se tiene la expresión:

7. \gamma^0 = \beta \
8- \gamma^k = \gamma^0 \alpha^k \

donde:

9.\alpha_k = \begin{pmatrix} 0 & \sigma_k \\ \sigma_k & 0 \end{pmatrix}

10. \beta = \begin{pmatrix} I_2 & 0 \\ 0 & -I_2 \end{pmatrix}

Ahí las \sigma son las matrices de Pauli y las I son las matrices identidad en dos dimensiones. La aparición de las matrices de Pauli nos pone enseguida sobre la pista de que esta ecuación va a describir particular de spin 1/2.

Veamos un poco de donde surge la idea de esta ecuación. La idea es que se esperaba que una ecuación que solo tuviera derivadas de primer orden en las componentes espaciales y temporales evitaría los problemas de la ecuación de Klein-Gordon. Para hacer eso la idea era comenzar con esta expresión relativista para la energia:

11. E = c\sqrt{p^2 + m^2c^2}

y posteriormente reemplazando el momento p por el operador momento correspondiente.

Sin entrar en detalles indicar que para poder implementar esas ideas era necesario introducir matrices que cumplieran las adecuadas relaciones de anticonmutación. Quizas pueda resultar extraño que para describir partículas de spin 1/2 ahora se precisen matrices cuadradas de orden 4 y que la ecuación de onda deba tener 4 componentes en vez de dos (como sucede en la teoría no relativista). El motivo es que, después de todos los esfuerzos hechos en obtenerla, al final la ecuación tenia los mismos problemas que la ecuación de Schroedinger. Es decir, vamos a tener partículas de energía positiva y negativa. Eso si, cada una va a ser una partícula con spin. Tenemos pues , por así decir, un electrón de energía positiva y uno de energía negativa, de ahi que tengamos 4 componentes. Pese a tener los mismos problemas la ecuación, al describir fermiones, permitió una solución. Los fermiones (a diferencia de los bosones) cumplen el principio de exlucsión de Pauli. ¿Que es esto? Bien, el principio de exclusión de Pauli dice que dos fermiones no pueden ocupar dos estados con el mismo número cuántico.

Pues bien, eso le dio a Dirac una buena idea. Asumió que todos los estados de energía negativa estaban ocupados. Y cómo los electrones (que son los que pretendía describir su ecuación) son fermiones no podían ir a esos estados por el principio de exclusión de Pauli ese. Se llamó a ese batiburrilo de electrones que ocupaban esos estados de energía negativa “mar de Dirac”. Una consecuencia de esto es que se podía “extraer” un electrón de ese mar. Eso creaba un hueco de energía positiva qu een todo lo demás era cómo un electrón. A ese “hueco” se le dió un nombre, positrón, y fue la primera antipartícula predicha. Cuando se encontró sirvió para que Dirac ganara un premio nobel (aunque no sería, ni mucho menos, su única contribución de importancia a la física).

Eso solucionaba los problemas. Pero no era una solución muy satisfactoria, la verdad. Una solución mas interesante llegó poco después. Provino de fijarse en que si se cambia el sentido del tiempo las partículas de energía positiva se convierten partículas de energía negativa, y viceversa. Así pues surge la interpretación de las antipartículas cómo partículas que viajan hacia atrás en el tiempo. Esa interpretación sirve para la ecuación de Klein-Gordon aparte de para la de Dirac. Así pues permite la existencia de antipartículas de Klein-Gordon (partículas escalares).

Bien, con la idea de las antipartículas quedó establecido un estatus correcto para las ecuaciones relativistas de partículas libres. Incluso servían para partículas relativistas evolucionando en un “campo externo”. En ese sentido eran las análogas perfectas de la ec. de Schröedinger para partículas a velocidades altas. Y tiene un rango claro de aplicación, cuando las velocidades son altas, pero no lo bastante altas para que se creen otras partículas. A partir de las ecs. relativistas se pueden obtener modificaciones (perturbaciones) a la ec. de Schroedinger que describen una serie de propiedades espectroscópicas observadas en los átomos (efecto Zeeman y efecto Zeeman anómalo si no recuerdo mal, y algún otro.

Pero con ser muy útiles estas ecuaciones si se intenta describir la física a velocidades que permitan la formación de otras partículas (que el nº de partículas no sea fijo) hay que dar otro salto conceptual. Ese salto es la teoría cuántica de campos. Una forma de empezar a verlo es plantearse esas ecs (la de Klein-Gordon y la de Dirac) no cómo ecuaciones cuánticas para una partícula sino como ecuaciones clásicas para un campo (el mismo modo que las ecuaciones de Maxwell describen un campo, que en el fondo es un conjunto de fotones cuánticos). Y lo que hay que hacer es que esas “ecuaciones clásicas” se someten a un nuevo proceso de cuantización, la 2ª cuantización.

No entrare en este post en ese aspecto, lo dejare para otra ocasión. Lo que si haré es completar un poco este post con aspectos útiles a desarrollos mas recientes de la física de partículas.

Un primer aspecto es el tema de la quiralidad. Esto hace referencia a procesos físicos cuya imagen especular es diferente al proceso original. Un ejemplo de esto es la interacción nuclear débil. El significado mas técnico de la quiralidad requeriría introducir teoría de grupos y hablar de representaciones diestras y zurdas del grupo de Poincaré. De hecho la forma mas ortodoxa de introducir las ecuaciones de Klein-Gordon y de Dirac , y en general cualquier ecuación relativista, haría uso de esa maquinaria matemática. no obstante se puede dar una intuición física del significado de la quiralidad y eso es lo que haré.

Para partículas sin masa la quiralidad puede verse como la proyección del spin en la dirección de desplazamiento (que sería la helicidad). La quiralidad seria por tanto el análogo a la helicidad para las partículas con masa. Para introducir matemáticamente la quiraliad de un modo sencillo se introduce la quinta matriz de Dirac cuya definición es :

12. \gamma^5=i\gamma^0.\gamma^1.\gamma^2 .\gamma^3

Una partícula quiral, tambien llamada espinor de Weyl, es aquella que es un autovector de esta matriz con valores – (left) y + (right), es decir:

13 .\gamma^5\psi_{L,R}=\pm\psi_{L,R}

Introduzco ahora el operador de proyección:

14. P_\pm= 1/2 (1 \pm \gamma^5) .

Este nos da, actuando sobre un espinor de Dirac \psi (osea, una partícula que cumple la ec de Dirac) dos componentes, uno izquierdo \psi_L\ y uno derecho \psi_R\ . Las interacciones que violan paridad, la citada nuclear débil, actúan de manera diferente sobre ambas componentes.

Otro tipo de espinores (entiéndase, partículas de spin 1/2) es el de tipo Majorana. estos se definen por cumplir:

15. \psi^c = \psi

dónde \psi^c indica el conjugado de carga de \psi . Su definición es:

\psi^c=C\bar{\psi}^T

y C es la matriz de conjugación de carga:

C=i\gamma^2\gamma^0

De esto se deduce que un espinor de majorana debe tener carga 0.

En el modelo standard de partículas los quarks serian partículas quirales y los neutrinos serían spinores de majorana (en el modelo mas sencillo, descartado experimentalmente, los neutrinos no tienen masa, introducri un termino de masa para los neutrinos es un asunto sutil sobre el que no comentare nada aquí). En 4 dimensiones no puede haber spnores que cumplan a la vez la condición de Weyl y la de majorana, pero eso no es cierto en un numero arbitrario de dimensiones, concretamente, dentro de las barajadas en teoría de cuerdas o supersimetría, para 2 o 10.

Me he centrado en partículas de spin 0 y spin 1/2. También hay partículas de spin 1, masivas, como los bosones intermediarios de las interacciones débiles (los W+, W- y Z) o sin masa, como los fotones y gluones, y en modelos que pretendan describir la gravedad habría que tener en cuenta spin 2 (gravitón) y, presumiblemente, su compañero supersimétrico, el gravitino, que tendría spin 3/2. Se pueden escribir ecuaciones que describan ese tipo de partículas, pero es mas complicado y están implicados otros conceptos, así que no lo hare en este post.