Juegos formales: Masas tensoriales I (planteamiento).

septiembre 13, 2014

Debo decir que las cosas que se están haciendo últimamente en física teórica, a nivel mas innovativo, no me entusiasman terriblemente, así que por eso estoy esforzándome en reflejar lo que se está haciendo. Además, ya está el blog de Lubos y otra gente. Uno de los artículos más interesantes en bastante tiempo, que no puedo dejar de recomendar, es éste:
Vafa: supergroups, non-unitary cousins of CFT, and black hole puzzles en el que comenta este artículo de el famoso Cumrum Vafa (posiblemente el físico de cuerdas mas prestigioso después de Ed Witten, con permiso de Juan Maldacena) Non-Unitary Holography.

Hay alguna cosa más, que ya iré mencionando según vaya leyendo y analizando, pero hoy me voy a centrar en algo que estuve haciendo hace un tiempo, y que creo puede resultar entretenido, y que ayuda a replantearse cosas, pasar de una física en la que la masa es una constante a ser una magnitud tensorial.

Lo primero es indicar las motivaciones iniciales para considerar esa posiblidad. La primera idea la tuve a raíz de un polémico experimento de PODKLETNOV y su presunta máquina de antigravedad . La verdad es que el experimento y la polémica quedaron en nada, al menos hasta dónde sé. Pero la idea que me planteé es la siguiente. Sí uno piensa en que en una zona de la tierra hay una máquina de antigravedad eso significaría que el campo gravitatorio resultante perdería su simetría esférica. En el límite en que se hace que la masa que provoca el campo sea puntual tendríamos que en vez de un punto sin estructura en la que estuviera toda la masa tendríamos algo que tendría una distribución angular, bien en forma de vector, o de tensor de segundo orden (o alguna forma mas complicada como un desarrollo en serie de términos tensoriales de orden creciente, pero vamos, mejor empezar por las generalizaciones mas sencillas.

Bien, esa es la primera idea. La segunda sería ¿Y cómo sería el comportamiento inercial de esa masas vectoriales o tensoriales? Por supuesto sabemos que, al menos en promedio, la masa no tiene estructura. Ahora bien, pensemos en un electrón (o cualquier otra partícula subatómica). Imaginemos que moverlo en una dirección sea ligeramente mas difícil que moverlo en alguna otra, pero que la orientación de ese vector, o tensor masa, varíe de un electrón a otro. Así, en promedio, para una cantidad macroscópica de electrones, no habrá ninguna dirección privilegiada. Luego, si vamos a el caso del análisis de un electrón aislado, al ser cuántico y no seguir una trayectoria, pues ya no tiene mucho sentido el estudio clásico y habría que ir a el caso cuántico. La verdad es que imagino que habrá límites experimentales que, desde ya, se pueden hacer a la posible asimetría vectorial/tensorial de la masa de las subpartículas, aunque siempre se podría argumentar que sí son muy pequeños no serían observables si no se busca específicamente.

Una consecuencia práctica de este posible carácter vectorial/tensorial de la materia sería la siguiente. Sí se pudiera “polarizar” la materia de tal forma que todas las subpartículas, orientadas de manera aleatoria, alinearan sus masas en una dirección concreta tendríamos una situación interesante. La “masa total” (el módulo del vector, o sí es un tensor, alguna norma matricial adecuada) se mantendría, pero resultaría que mover un objeto en la dirección del menor valor de la masa sería mas sencillo que en las otras. Así, si realmente la materia tuviera esa naturaleza, y supiéramos cómo polarizarla, podríamos, dependiendo del grado de asimetría, hacer que mover un cuerpo en una dirección requiriese muy poca fuerza (y por consiguiente gasto energético) a costa de que fuese mas difícil de maniobrar, debido a la mayor masa en las otras direcciones. Sí, por ejemplo, la asimetria pudiera ser de un 30% eso significaría que ahorraríamos un 30% de gasto en transporte.

Ok, hasta ahí consideraciones muy mundanas. Vamos a ir a algo mas abstracto. En relatividad general el campo gravitatorio newtoniano pasa a ser la geometria del espacio-tiempo, y en concreto su métrica, un tensor de orden 2 (una matriz, para entendernos). A partir de la métrica (que generaliza el potencial, la componente 00 de la métrica está relacionada con el potencial newtoniano clásico) se obtiene el tensor de curvatura de Ricci, otro tensor de orden 2. Cómo ya mencioné en la entrada anterior, comentando el libro sobre Riemman, la parte de geometría diferencial estaba hecha en 1902 o así, y la idea de que el espacio podría ser curvo llega hasta, cuanto menos, Gauss, y ya un físico formuló una idea de que la materia curvaba el espacio a mediados del siglo XIX. El éxito de Einstein fué pasar de esas consideraciones etéreas a algo mas concreto. En concreto, sospecho, la gran dificultad de la RG, que pasa desapercibida, y no se hace suficiente énfasis, es
cómo relacionar esas ideas geométricas con la materia. La solución, desde el punto de vista actual, es el tensor de energía momento. Una introducción muy detallada a las ideas básicas de ese tensor la podéis encontrar en el estupendo blog sobre la teoría de la relatividad, en concreto esta entrada. En física teórica se suele definir una fórmula general para obtener ese tensor a partir del lagrangiano de un campo. Ese campo puede ser el campo electromagnético, o un campo cuántico genérico, cómo el campo de klein-gordon o el de Dirac. Estos últimos surgen de la idea de tomar la “función de onda” de una partícula que cumpla las respectivas ecuaciones cómo un campo “clásico” cuyo valor se interpreta cómo la probabilidad de crear una partícula que cumpla esas ecuaciones (el bosón de Higgs seguiría la ecuación de Klein-Gordon, el electrón la de Dirac). Lo interesante es que esos lagrangianos, cuando tienen una masa en el término cinético, es una masa “escalar”. Uno se podría plantear que tal vez sea mas “natural” que ya de principio la masa sea un tensor, cómo el lado derecho de la ecuación, el tensor de Ricci. Desde luego no es esta la idea mas habitual. Lo que la gente ha buscado es que la materia sea en si misma algo con estructura geométrica. En esa línea lo último que he visto es un trabajo del famoso matemático (galardonado con la medalla fields), Michael Atiya Geometric Models of Matter que, la verdad, no ha tenido una gran repercusión.

Aparte de estas justificaciones “abstractas” otra motivación mas pragmática y fenomenológica vendría de la posibilidad de que sí vivimos en un “braneworld” en el que la materia está restringida a moverse en una brana tal vez haya alguna asimetría en la brana, que varíe de un punto a otro, y que esa asimetría cause esa “masa tensorial”. O, tal vez, podríamos pensar en un mecanismo de Higgs alterado, con un Higgs que no sea escalar sino vectorial, y que no represente una simetría interna sino externa. La verdad es que esto está muy traído por los pelos y, en última instancia, es casi mas interesante el juego conceptual, y lo que se puede aprender siguiéndolo, que la parte práctica, aunque nunca se sabe ;-).

Bien, entonces tras esta exposición de las motivaciones pasaré, en la siguiente entrada, a exponer cómo implementar la idea, y lo que se aprende en el intento.

RIEMANN: UNA VISION NUEVA DE LA GEOMETRIA

agosto 12, 2014

De vez en cuando me gusta leer biografías de científicos famosos (preferentemente físicos y matemáticos).Este verano he leído de la de Riemann, escrita por Jose Luís Muñoz.

El libro mantiene un muy buen equilibrio entre los aspectos biográficos (especialmente los pertinentes a la parte académica, lógicamente), y los de la matemática.

Empieza por los primeros trabajos en variable compleja (ecuaciones de Cauchy-Rieman para determinar si una función es analítica, superficies de Riemann para funciones complejas multivaluadas, y su utilidad), y en teoría de la integral (integral de Riemann, claro xD) haciendo hincapié no tanto en la definición en sí (se supone que el lector debería tener cuanto menos una base de bachillerato y conocerla) cómo en las implicaciones de esta par aformalizar y poner en base firme muchos resultados anteriores, y posreriores (hasta la llegada de la integral de Lebesgue, y la teoría genera de la medida e integral, que serían necesarias mas adelante, pero eso no quita que la definición de Riman siga siendo muy válida en muchos casos).

Luego pasa a la parte que da al libro su subtítulo. Ahí habla de cómo para obtener una plaza de profesor debe hacer una lectura para conseguir una plaza de profesor permanente. Según la tradición propone 3 temas el último de los cuales era la geometría. Entre el jurado está Gauss, del cuál Riemann había sido alumno. Cómo quiera que Gauss había publicado muy recientemente su trabajo en geometría. Este versaba principalmente geometría intrínseca de superficies, de gran importancia, culminado por su “teorema egregio” que vincula la integral de su curvatura intrínseca -no depende del “embeding” de la superficie en \mathbb{R} ^3 con una propiedad topológica de la superficie, el género, que había aparecido en el trabajo de Riemann en superficies de Riemann compactas. El caso es que bien sea por mala uva (algo siempre posible en Gauss) o porque tenía curiosidad de ver que aportaba alguien tan brillante cómo Riemann al tema decidió que el trabajo versara sobre la tercera opción (cuando siempre se había mantenido la tradición de que versase sobre la primera).

El caso es que, con gran estrés, Riemann preparó una lectura magistral dónde generalizó los resultados de gauss a un número arbitrario de dimensiones. Para ello introdujo el concepto de variedad. Eso sí, cómo el trabajo debía leerse ante un público amplio que, aparte de matemáticos, incluía físicos, biólogos, geólogos, etc, no entraba en muchos detalles. Sea por eso, o por que el autor del libro así lo decidió, la verdad es que apenas comenta ningún punto técnico al respecto.

No obstante, pese a esa falta de detalles técnicos, si hay dos punto muy curiosos. Por un lado menciona a Kingdon Clifford, muy conocido por las álgebras que llevan su nombre, pero mucho menos (yo desde luego lo ignoraba) por su teoría de la gravitación basada en la geometría. Cierto es que ya Gauss había comentado que determinar en que geometría vivimos debería ser algo empírico, y basado en medidas locales (de ahí su geometría intrínseca, inspirada por su trabajo cómo cartógrafo). Pero Clifford va mas allá y afirma que es la materia la que curva el espacio. Esto lo publica en 1870, 45 años antes de que Einstein desarrollase la relatividad general. Por supuesto su teoría es mas una idea filosófica que algo bien desarrollado física y matemáticamente. Y aún estaba lejos el concepto de espacio-tiempo, en el que el tiempo y el espacio es algo que depende del espectador (manteniéndose invariante la velocidad de la luz, o la métrica de minkowsky).

También habla de dos discípulos Italianos (en el final de su vida Riemann fué a dar clase a Italia, por motivos de salud) de Riemmann, Cristoffel y Levi-Civitta. Estos continuarían su trabajo en geometría y construirían el cálculo tensorial que luego usaría Einstein en su relatividad general. Lo curioso es que ese trabajo ya estaba hecho en 1901. Con eso nos quedamos con que el 1870 ya se había sugerido que la materia curvaba el espacio. Muy poco tiempo después, 1907, de publicar su relatividad especial Herman Minkowsky pondría esa teoría en un formalismo geométrico, creando el concepto de espacio tiempo con una métrica constante. En conclusión, Einstein ya tenía en 1907 todos los ingredientes para cocinar su relatividad general. De hecho en la presentación actual el paso de un espacio-tiempo plano a uno curvo es algo tan “autoevidente” que resulta hasta extraño creer que le llevase tanto tiempo dar el salto. Admitamos que Einstein no conociera esa matemática. Pero el cálculo tensorial tampoco es tan complicado de entender (al menos sí lo explica alguien que sepa). Se puede tardar, en la forma en que se presentaba en esa época, unos 4 meses, cómo mucho. Realmente con clases privadas de un experto (cómo fué le caso de Einstein) yo creo que se podría reducir el tiempo a un mes o menos (realmente no sé l oque tardó, a lo mejor visto desde la perspectiva actual parece mas sencillo de lo que era en la época).

Entonces sí todo parecía tan predeterminado ,y estaban todos los ingredientes, y Einstein era tan listo, una vez más ¿Por qué tardó tanto? Bueno, supongo que por un lado porque las cosas parecen mas sencillas después. Y, por otro, porque estaba listo todo el aparato matemático de la geometría. Lo que no estaba nada, nada claro, sospecho, es cómo relacionar la materia con esa geometría. Además, Einstein trabajaba con observadores. Desde un punto de vista geométrico las cosas se ven de una forma, y desde los observadores de otra. Supongo que uno podría plantearse que pasa con observadores con aceleración lineal constante primero, y luego con una aceleración centrípeta constante (he leído varias biografías de Einstien, y me parece recordar que en parte si hizo eso). De hecho es pensando en observadores cómo sale el famoso experimento mental del ascensor, y de ahí la idea de la geometría cómo campo gravitatorio (en realidad hay mas factores históricos, pero eso es otro asunto). Pero, insisto, yo creo que la parte que fué mas difícil es la de la inclusión de la materia. Realmente uno puede saltarse toda esa búsqueda de Einstien y tener una forma de trabajo “operativa”. Aprende a calcular el tensor de Einstein y luego sabe que al otro lado está el tensor energía-momento. Se puede quedar con que para un fluido (algo importante en cosmología) tiene la forma que tiene (sí le apetece se lee los detalles de porque eso está relacionado con la teoría de fluidos standard). Y, luego para cuando se empieza de un lagrangiano, uno se queda con que del lagrangiano se saca el tensor energía momento mediante variaciones. Es algo realmente latoso el cálculo de ese tensor, no confundir con el tensor de energía-momento de nóether, con aquello de calcular las variaciones respecto a la métrica, y hay que usar varias formulilas para poner eso en forma tratable y etc, etc (yo hice hace poco el cálculo del tensor energía-momento de una cuerda bosónica, para ver si era capaz de reproducir los resultados de libro, y me costó lo suyo aunque la final lo saqué). Per ovamos, eso, que si a uno le plantan el lagrangiano del sector geométrico ya sabe que de ahí salen, mediante variaciones, el tensor de Einstein. Y si le plantan el lagrangiano de la la materia pues entonces puede “aplicar la receta”. Realmente son tareas precisas, y metódicas, y pueden hacerse con un ordenador. Para mathemática hay mcushos scripts de cálculo tensorial. máxima lo trae incorporado. no sé si hay scripts que calculen el tensor energía-momento a partir de un lagrangiano pero no se me ocurre motivos para que no pueda haberlos.
En definitiva, que puede ser engañosamente fácil la inclusión de la materia, pero sospecho, puede haber ahí mucha sutileza oculta.

Pero dejemos la relativdad y sigamos con Riemann. Tras eso el libro se pone a hablar de su trabajo en funciones elípticas. Ahí el libro entra en muchos detalles. Hace una introducción al tema desde el principio, definiendo las integrales elípiticas, y otras similares mas sencillas. Luego hace un repaso de los trabajos previos de los Benouilli, euler, Legendre, Abel y Jacobbi (y cómo Gauss ya tenía estos últimos trabajos antes que esos dos, pero sin publicar). Y luego, claro, explica el trabajo de Riemann. Realmente no puede usarse cómo libro de texto sobre funciones elípticas (una introducción a las ideas mas habituales y de mas uso viene en libros de física matemática, cómo , por ejemplo. El Mathews Walker). Es curioso eso de las funciones elípticas. Aunque he leído sobre ellas, por completitud, la verdad es que no me las pusieron nunca en un plan de estudios ni en física ni en matemáticas (y eso que en matemáticas cogí, mala elección a la postre ya que de las partes que me interesaban del temario no se dió nada, variable compleja II). La verdead es que no tengo claro sí siguen siendo importantes en alguna rama de las matemáticas hoy día o si son algo así como una “abandonamath”. Sé que existen las funciones automórficas y modulares, y me parece que, de algún modo, tiene algo que ver con las funciones elípticas. Pero el caso es que asistí en la complutense a un curso (abierto a todo el público) de funciones automorfas y modulares y si hay alguna relación no se mencionó.

La última parte del libro, cómo podría esperarse, trata de la famosa hipótesis de Riemann, Ahí se trata las propiedades de la función z de Rieman y de las partes pertinentes de la teoría de números (dsitribución de los números primos basicamente)

Hay algún aspecto más en el libro que no he mencionado (funciones hipergeométricas, por ejemplo). Y poco he dicho de los aspectos biográficos. Quien quiera los detalles que lea el libro, que merece mucho la pena ;).

Introducción a la supersimetría II: El modelo de Wess-Zumino

julio 14, 2014

Continúo con el tema de los posts de supersimetría traídos del otro blog. En realidad este se ve correctamente allí porque ya había añadido matajax, que por ahora sigue funcionando, a mi plantilla de blogspot, pero por completitud, y en previsión de que termine fallando el plugin, lo dejo por aquí también.

Continuo el tema introduciendo una realización de dicha supersimetría en términos de un lagrangiano sencillo, lo que se conoce como el modelo de Wess-Zumino. Quien no tenga muy recientes sus conocimientos de teoría cuántica de campos, y en particular los tipos posibles de spinores, puede leer sobre ello en esta entrada.

Este va a constar de dos campos, un campo escalar complejo \phi formado por dos campos reales A y B, \phi=(A+iB/\sqrt{2}) y un campo spinorial de Majorana \psi . Ambos campos van a carecer de masa. El motivo para ello es que en la naturaleza no se ha observado la supersimetría, lo cuál indica que caso de existir, la supersimetría debe estar rota. Se supone que las partículas supersimétricas de las partículas conocidas habrán adquirido masa a través de un proceso de ruptura de esta supersimetría. Con estos ingredientes el término cinético de nuestro lagrangiano será.

1.L= \partial^{\mu} \phi^*\partial_{\mu}\phi ~ + ~ 1/2i\bar\Psi\displaystyle{\not} \partial \Psi

Ese lagrangiano es invariante bajo una transformación SUSY global:

2. \delta A=\bar\epsilon\psi \delta B=i\bar \epsilon\gamma_5 \psi

\delta \psi=-i\gamma^\mu[\partial_\mu (A + i \gamma_5B)]\epsilon

Donde \epsilon es el generador infinitesimal (asumo que el lector esta familiarizado con como surgen los generadores infinitesimales de simetrías en mecánica cuántica y su relación con las simetrías globales a través de la exponenciación) de la supersimetría, un spinor infinitesimal de Majorana.

Puede verse que, como se espera de una supersimetría, esta transformación nos cambia campos bosónicos en campos fermiónicos. Para ser supersimétrica el lagrangiano debe ser invariante bajo esta transformación. Se puede verificar que bajo ese cambio la variación del lagrangiano es:

3. \delta L=\partial_\mu[1/2\bar\epsilon\gamma^\nu(\displaystyle{\not}\partial(A + i\gamma_5 B))\psi]

Este delta L es una derivada total y por tanto no contribuye a la variación total de la acción y , como anunciaba, hace que 1 sea un lagrangiano supersimétrico. En general los lagrangianos supersimétricos no pueden ser invariantes bajo supersimetría, salvo que sean constantes, y siempre debe entenderse la invarianza en el sentido de que su variación es una derivada total.

Este lagrangiano es adecuado para partículas libres. Si añadimos interacciones se encuentra que le conmutador de dos transformaciones no es cerrado fuera de la capa de masas, y por tanto no es adecuado. Para paliar eso deben añadirse dos campos bosónicos extra, normalmente designados F y G, cuyo lagrangiano es:

4. L= 1/2F^2 + 1/2 G^2

La solución de la ecuación de Euler Lagrange asociada al lagrangiano 4 es F=G=0 y por tanto estos campos no tiene estados en la capa de masas, intervienen en la teoría sólo como partículas virtuales intermedias.

Se ha descrito hasta ahora como sería el lagrangiano para partículas sin masa. Nada impide construir el lagrangiano para partículas con masa. El término de masa tendría la forma:

5. L _m= m(FA + GB -1/2\bar\psi \psi)

La forma mas general de un término de interacción -renormalizable sería.

6. L_i= g/\sqrt{2}[FA^2 - FB^2 + 2GAB - \bar\psi(A - i\gamma_5B)\psi]

Este sería el modelo elemental de Wess-Zumino. Si uno pretende hacer teorías de campos supersimétricas realistas debería trabajar con fermiones quirales zurdos. No es especialmente complicado hacerlo, y repitiendo los pasos uno llegaría a una expresión de los lagrangianos anteriores en términos de esos fermiones quirales. El aspecto más interesante de ese desarrollo es que uno termina con un lagrangiano que puede expresarse de la forma:

7.L = L_K - |\partial W/\partial \phi|^2 ~ - ~ 1/2(\partial^2 W/\partial \phi^2\psi^T_L C \psi_L + herm.conj)

Aquí L_k sería el término cinético para los campos correspondientes y W sería lo que se conoce como el superpotencial. Este juega un papel importante en muchas discusiones sobre supersimetría y será tratado con mas detalle en ulteriores entradas. Por ahora decir que para el modelo sencillo que estamos considerando aquí su expresión más general sería:

8.W= 1/2m\phi^2 ~ + ~ 1/3 g\phi^3

En esta entrada se ha presentado el que posiblemente sea el tratamiento mas sencillo posible de la supersimetría. Actualmente es muy común usar el formalismo de supercampos. Este se basa en la noción de superespacio. El superespacio es el resultado de añadir a las componentes geométricas normales unas componentes “fermiónicas” representadas como variables de Grassman. Un supercampo dependería de ambos tipos de variables. Dadas las peculiares propiedades de las variables de grassman es muy sencillo ver que un desarrollo en serie en términos de las mismas es finito y que, por tanto, se puede dar una expresión general para un supercampo. Cuando se hace eso para campos que solamente tengan spin 1/2 y y 0 se puede ver que el modelo de supercampos obtenido es equivalente a el modelo de Wess-Zumino presentado aquí. Si además se impone que los campos fermiónicos sean quirales se obtiene la versión quiral del modelo de Wess-Zumino. El supercampo que cumple esas características es conocido cómo “supercampo quiral”. Por supuesto se pueden hacer construcciones supersimétricas para campos gauge y, de ese modo, teorías gauge supersimétricas y análogos supersimétricos del modelo standard. La extensión supersimétrica mas sencilla de el modelo standard se conoce como MSSSM (minimal supersymetric stadard modell).

Aquí hemos tratado la supersimetría global. Cuando esta se hace local aparece de manera natural la gravitación y tendríamos teorías de supergravedad. Dado que la supersimétria no esta realizada en el modelo standard se asume que si el universo presenta supersimetría debe hacerlo en una versión con supersimetría rota. La ruptura de supersimetría es un tópico complejo, y juega un papel fundamental en la mayoría de modelos fenomenológicos que se postulan para extender el modelo standard de partículas. Indirectamente eso significa que también juegan un papel en las teorías de cuerdas, en sus diversas variantes. Por ejemplo la teoría F, la mas desarrollada a nivel fenomenológico utiliza una variante del mecanismo de supersimetría conocido como modelo de guidicce-massiero.

Se irán tratando esos tópicos en posteriores entradas.

Finalizo diciendo que estos posts siguen principalmente el libro de texto de P.D. B. Collins, A.D. Martin y E.J Squires “Particle physics and cosmology”. A eso he añadido información adicional de los libros de M. Dine “Supersymmetry and superstrings” y el volumen III de el libro de teoría cuántica de campos de Steven Weinberg.

Introducción a la supersimetría

julio 14, 2014

Continúo con la tarea de rescate de entradas del otro blog que han quedado inoperantes por aquello de que en blogspot no hay soporte nativo para latex, ahora toca un par de entradas sobre supersimetría.

Mucho se ha hablado de supercuerdas. Esta palabra consta de dos partes. La parte de “cuerdas” más o menos es algo que todo el mundo puede entender en el sentido de que todo el mundo tiene la idea intuitiva de lo que es una cuerda. La parte “rara” es la de super.

El prefijo “super” se usó mucho en física en una época. Los casos más destacados probablemente sean los superconductores y la supersimetría. Pese a la coincidencia en el nombre no tiene nada que ver uno con otro. Vamos a ver, inevitablemente muy por encima, cómo avanza el tópico, qué es la supersimetría, SUSY para los amigos.

La motivación inicial para esta teoría provino del problema de la jerarquía. ¿Cuál es este problema? En el marco de las teorías de gran unificación, hay una gran diferencia de energía entre la escala de la ruptura de la simetría electrodébil y la de la de la ruptura de la teoría unificada(SU(5) o la que fuera). Si uno se mete en los tecnicismos del mecanismo de Highs esto requiere un ajuste muy fino de parámetros. Y esto es algo que siempre desagrada.

Una forma de solventarlo es la existencia de cierto tipo de campos escalares de masa 0. Pero no hay ninguna buena razón para esto. Lo que si hay es una buena razón para la existencia de fermiones quirales (o quasiquirales), el hecho de que se hayan observado (son los neutrinos). Estos fermiones quirales tiene masa 0. Si hubiera de algún modo una partícula de spin 0 ligada a ellos tendríamos resuelto el problema pués esa partícula debería tener masa 0.

Para esto uno busca que pueda existir una simetría que transforme bosones en fermiones, y viceversa. denotémosla por Q, i.e.

1.  Q|F>=|B>  Q|B>=|F>

Para ilustrar algunas propiedades clave de la supersimetría cojamos un ejemplo muy sencillo basado en un oscilador armónico cuántico que incluya bosones a y fermiones b, que satisfacen las relaciones de conmutación (y anticonmutación):

2.  [a, a^+]=1, [a,a]=[a^+,a^+]=0

\{b, b^+\}=1, \{b,b\}=\{b^+,b^+\}=0

Dónde, por si alguien no lo conoce {x,y}=x.y +y.x.

El hamiltoniano para este sistema es:

3. H=1/2w_B\{a^+,a\} + 1/2w_F[b^+,b]

Siendo un oscilador armónico sabemos cuál va a ser su energía:

4. E=w_B(n_B + 1/2) + w_F(n_F - 1/2)= w(n_F + n_F)

Dónde en el último paso hemos asumido que las w fermiónica y bosónica sean iguales.

Se puede ver fácilmente que que cada estado tiene una degeneración con el mismo número de grados de libertad bosónicos y fermiónicos.

Edto indica que debe haber algún tipo de (super)simetría en el hamiltoniano. Y en efecto, uno puede comprobar que los operadores:

5. Q=\sqrt{2w}a^+b,   Q^+=\sqrt{2w}b^+a

conmutan con el hamiltoniano, es decir:

6. [Q,H]=[Q+,H]=0

Obviamente los operadores Q y Q+ claramente intercambian un fermión por un bosón y viceversa.

Además tenemos que:

7. {Q,Q+}=2H

Pués bien, esta es la esencia de los operadores de SUSY expresados para un caso sencillo de mecánica cuántica no relativista. Pero claramente estamos interesados en mecánica cuántica relativista, i.e. teoría de campos.

Dejaré para otra ocasión cómo se realiza el álgebra SUSY en teoria de campos. Señalar solamente una característica específica de la SUSY no mencionada hasta ahora que tiene un cierto interés.

Desde que empezó a surgir el interés por las teorías gauge, puede que incluso antes, se planteó la cuestión de si había alguna forma de tener un grupo que mezclara las simetrías internas con la simetría del grupo de Poincaré. Coleman y Mandula en 1967 demostraron que bajo supuestos muy generales esto era imposible.

Pués bien, la superismetría escapa este teorema “no-go” pués aparte del los generadores P_{\nu} (momento lineal) y M_{\mu\nu} (momento angular) y Ta (generadores del grupo gauge) incluye los generadores de la supersimetría.

De hecho estos estarán relacionados con el operador momento por la relación:

8. 

Por cierto, para los posibles lectores de exactas decir que en términos matemáticos la supersimetría tiene la estructura de una álgebra de Lie graduada.

Bien, este ha sido un primer contacto con la supersimetría. En la siguiente entrada hablaré del modelo supersimétrico más sencillo, el de Wess-Zumino.

One string to rule them all

julio 6, 2014

Visto que en blogspot las diversas soluciones para el latex son inestables rescato para este blog una entrada de hace ya unos años en la que hago una primera introducción a lo más básico de la teoría de cuerdas.

Empezamos por lo más sencillo, explicar que es una cuerda dentro de esta teoría. Bien, en realidad es la cosa mas sencilla del mundo, una cuerda (bosónica), matemáticamente, es una curva (real) que evoluciona en el tiempo. ¿Por que alguien se preocupó de trabajar en una cuerda cómo un objeto fundamental en vez de hacerlo con partículas puntuales? La respuesta, curiosamente, es “nadie”. La primera motivación para ocuparse de una teoría de cuerdas proviene de la cromodinámica cuántica, o más bien al estatus de la física de hadrones antes de aparecer la cromodinámica cuántica. Sin entrar en muchos detalles señalar que se sabe que el neutrón y el protón, las partículas que forman el núcleo atómico no son partículas elementales, estan formadas por (3) quarks. Esos quarks se describen por una teoría gauge, la SU(3). Lo curioso es que si los quarks, y las partículas que median su interacción, los gluones, deben formar estados ligados (protones, neutrones, y en realidad todas las partículas hadrónicas) debe haber algo que impida que haya quarks libres, que nunca se han observado. Eso llevó a que en un momento dado se propusiera un modelo fenomenológico bastante descriptivo. Los quarks estaban unidos por algún tipo de cuerda, es decir, existían cuerdas que tenían un quark en cada uno de sus extremos, el confinamiento (ausencia de quarks libres) se debería a que si se estiraba demasiado esa cuerda se rompía en dos nuevas cuerdas cada una con su pareja de quarks, en realidad un quark y un antiquark, en sus extremos (para el protón o neutron era necesario tres cuerdas unidas por un extrem oentre sí y con un quark en los otros extremos). Hacia falta ponerle mates a esa idea, y es lo que se hizo allá por el 75. El problema es que esa teoria tenía un “inconveniente”, en su espectro aparecía una partícula de spin 2 que claramente no encajaba en el modelo de quarks, más adelante se reinterpreta la teoria de cuerdas cómo una teoría fundamental y esa partícula de spin 2 pasa a ser el gravitón. He hblado que en el espectro de una teoria de cuerdas hay partículas, bien, esto significa, hablando de manera simplificada, que las cuerdas vibran y que cada modo de vibración se identifica con algún tipo de partícula. Según esto cada partícula conocida sería un modo de vibración de una cuerda. Como ese rango de partículas incluye los fermiones (por así decirlo las partículas que forman la “materia”) y los bosones (las partículas que median las interacciones entre la materia) tenemos que la teoría de cuerdas sería una teoría que explicaría toda la física conocida, sería una teoría unificada. Y además sólo tiene un parámetro libre, la tensión de la cuerda, así pués con la media de un sólo parámetro se tendría el valor de todos los demás parámetros de la física pués sería deducibles matemáticamente a partir de esa tensión. Tras este previo sobre fenomenológia, no especialmente riguroso, vamos con algo de mates.

En matemáticas, geometría diferencial básica (sin usar formalismo de variedades), una curva es un lugar del espacio de dimensión uno que puede, en un sistema de coordenadas, describirse mediante una caracterización.

X^\nu(\sigma)

Aquí σ es el parámetro que describe la curva y las Xμ son las coordenadas. El índice μ varia desde 0 hasta D-1, dónde D es la dimensión del espacio-tiempo donde se sitúa la cuerda. Bien, esto es una curva, una cuerda es una curva que se deja evolucionar en el tiempo, es decir, que aparte de la dependencia en σ hará una dependencia en τ (tiempo propio).

X^\nu(\sigma, \tau)

Bien, esto es la “cinemática” de la cuerda, nada particularmente complicado, pasemos a la dinámica. Cómo se ha discutido por aquí, y es bien sabido, en física la dinámica suele inferirse a través de una función lagrangiana, ¿que lagrangiana debe describir la cuerda? Bien, hay dos posibles, la más sencilla, conocida cómo la de Nambu-Goto surge de generalizar el lagrangiano de una partícula libre en relatividad especial, que recordemos es:

S = -m \int d{\tau} \sqrt{- \dot{X}^{\mu}\dot{X}_{\mu}}

dónde, cómo es habitual en física, el punto sobre la coordenada denota derivación respecto al tiempo. Esta acción representa la longitud de la línea de universo de la partícula relativista, es decir, una partícula puntual, matemáticamente un punto, al evolucionar en el espacio-tiempo describe una trayectoria, parametrizada por el tiempo τ. La acción es la longitud (en la métrica de Minkowsky) de esa curva. Pués bien, una partícula al evolucionar en el tiempo describe una curva. Una curva al evolucionar en el tiempo describe una superficie, ergo la acción de Nambu-Goto de la cuerda va a ser el área (minkowskiana) de esa superficie:

S_{NG}[X^{\mu}]=-{1\over 2 \pi {\alpha}'} \int d\tau d\sigma\sqrt{-det({\partial}_a X^{\mu} {\partial}_b X^{\nu})}

Bien, esta acción es sencilla de entender, mera generalización de la acción de la partícula clásica. El problema es que aparece una raíz cuadrada, y eso, cuando se quiere proceder a tareas de cuantización, es algo muy molesto. Así pués se prefiere usar otra acción, la de Polyakov. El truco es expresar el área mediante una métrica intrínseca de la superficie, denotada por h, en concreto tenemos:

S_P[X^{\mu},h_{ab}] = - {1\over 4 \pi {\alpha}'} \int d^2 \sigma\sqrt{-h}h^{ab}\partial_a X^{\mu} \partial_b X^{\nu} \eta_{\mu \nu}

dónde la forma concreta para h es:

h_{ab}={\partial}_aX^{\mu}{\partial}_bX^{\nu} \eta_{\mu \nu}

Bien, esta es la forma de la acción. En mecánica clásica una vez que tenemos la acción normalmente lo siguiente que hacemos es calcular las ecuaciones de movimiento asociadas a ella (ecuaciones de Euler-Lagrange). Pero antes de hacer eso hace falta señalar unos aspectos importantes. Esta acción, cómo muchas otras que aparecen en teoría cuántica de campos, tiene simetrías, es decir, existe un grupo de transformaciones de los campos que dejan invariante la acción. La acción de Polyakov tiene tres simetrías:

(i) Invariancia Poincaré , (ii) invariancia bajo difeomorfismos de la Worldsheet , y (iii)invariancia Weyl (invariancia de escala).

Estas invarianzas se expresan matemáticamente en términos del tensor energía-momento, análogo al de la relatividad general, cuya expresión es:

T^{ab}:= {1 \over \sqrt{- h}} {\delta S_P \over \delta h_{ab}}={1\over 4 \pi {\alpha}'} \bigg({\partial}^a X^{\mu}{\partial}^b X_{\mu}-

{1\over 2}{h}^{ab} h^{cd} {\partial}_c X^{\mu}{\partial}_d X_{\mu} \bigg)

La invarianza bajo difeomorfismos implica que este tensor (que nos da cuenta de la energía y el momento de la cuerda) debe conservarse, es decir:

{\nabla}_aT^{ab}=0

La invarianza Weyl se traduce en: T^a_a=0" .

Bien, esto concluye la breve por ahora el análisis de las simetrías, vamos a poner la ecuación de movimiento:

* \partial_a \bigg( \sqrt{-h} h^{ab} \partial_b X^{\mu} \bigg) = 0

Una vez se tiene la ecuación de movimiento se debe proceder a resolverla.

Habíamos dicho que teníamos siemtrías. La invariancia de la acción bajo esas simetría se traduce en que hay grupos de soluciones equivalentes. Necesitamos un modo de deshacernos de las soluciones redundantes, eso esta relacionado con las ligaduras de las que hablé en los post de LQG. No obstante sin necesidad de saber los detalles de la teoria de ligaduras de dirac podemos entender bastantes cosas, sigamos.

Cuando queremos resolver ecuaciones diferenciales (en este caso en derivadas parciales) se imponen condiciones de contorno. En este caso estas condiciones tiene interpretación cómo condiciones en los extremos de las cuerdas, tenemos cuerdas abiertas {\partial}_{\sigma}X^{\mu} {\mid}^{\ell=\pi}_0=0 (condiciones de Neuman) y cerradas X^{\mu} (\tau , \sigma )=X^{\mu}(\tau , \sigma + 2 \pi)  (Diritlech).

En realidad más adelante se comprobó que había mas detalles a tener en cuenta en esto en relación con la teoría de branas, pero no merece la pena ocuparse de ello en esta introducción.

Tenemos las condiciones de contorno, vamos a proceder a encontrar soluciones a la ecuación de movimiento (*). Para hacerlo hay primero que fijar un gauge, elegimos el conocido como gague conforme h_{ab} = \eta_{ab}  ahí la ecuación de movimiento se reduce a la ecuación de Laplace y la solución nos queda para la cuerda cerrada:

X^{\mu} = X^{\mu}_0 + {1 \over \pi T} P^{\mu}\tau + {i \over 2\sqrt{\pi T}} \sum_{n \neq 0}{1\over n} { \alpha^{\mu}_n exp(-i2n(\tau - \sigma)) + \tilde{\alpha}^{\mu}_n exp(-i2n(\tau + \sigma ))}

y para la cuerda abierta:

X^{\mu}(\tau , \sigma )= X^{\mu}_0 +

{1 \over \pi T}P^{\mu}\tau +{i\over \sqrt{\pi T}}\sum_{n \neq 0} {1 \over n} {\alpha}^{\mu}_nexp \big(-in\tau\big) \cos (n\sigma )

dónde  X^{\mu}_0 y P^{\mu}  son la posición y el momento del centro de masas de la cuerda.

Bien, hasta aquí lo básico, la parte clásica. En la cuantización, que no trataré en este post, los α de las dos últimas ecuaciones se convertirán en operadores de creación/aniquilación que se corresponderían con las partículas observadas en la física del modelo standard. Habrá que imponer la anulación de la derivada del tensor de energía momento lo quedará lugar a la famosa álgebra de Virasoro. Y además habrá que comprobar que las simetrías de la teoría clásica se respetan, esto no es algo precisamente trivial, todo lo contrario, esas simetrías sólo se respetan si la dimensión (conocida como dimensión crítica) en que se propaga la cuerdas es distinta de 4. Aquí he estado explicando la cuerda mas sencilla posible, la cuerda bosónica; para esta cuerda la dimensión crítica es 26 (25+1). En realidad la cuerda bosónica no es realista, para empezar, cómo su nombre indica, no tiene nada mas que bosnoes en su espectro. Cuerdas realistas requieren fermiones, eso implica introducir supersimetría y así entramos en el reino de las supercuerdas, par estas la dimensión crítica es 10 (9+1). Desde luego hay muchísimo más que decir sobre la teoría de cuerdas, no en vano un libro de 750 páginas tiene algunos capítulos que más que un libro de texto parece un rápido review de resultados, pero creo que lo expuesto puede servir de orientación de a que nos estamos enfrentando al hablar de teoría de cuerdas.

Algunas vueltas de tuerca a la teoría de cuerdas

julio 4, 2014

Una de las cosas mas deprimentes del estado actual de la física de altas energías es la tremenda cantidad de posibilidades a estudiar. En los 80 había el sueño de una teoría unificada, en la que unos principios básicos, grupos de simetría gauge mas amplios cómo el SU(5) y supersimetría nos dieran una teoría única de la que se pudiera sacar todo. Posteriormente la teoría de cuerdas se vió cómo un paso extra hacia la unificación porque en un sólo objeto, la cuerda relativista cuantizada, con aderezo de supersimetría, se tenía que un único objeto (bueno, casi, que había 5 teorias de cuerdas, type I A y B, type II A y B y la heterótica) daba el espectro de todas las partículas. En los 90, con el descubrimiento de las dualidades, que venían a demostrar que esas diversas teorías de cuerdas eran (con matices) equivalentes pareció surgir un nuevo nivel de unificación. Al principio se pensó que la teoría M sería esa gran teoría unificada.

Pero las cosas no fueron por dónde se suponía. Las teorías Gauge de gran unificación empezaron a encontrarse con problemas, la más sencilla, el SU(5), predecía que el protón era inestable y los experimentos que buscan esa inestabilidad han invalidado el modelo. Se han construido variantes, flipped SU(5), SO(10), etc, que producen valores compatibles con la no observación de la desintegración del protón. Luego está el tema de los monopolos (distintos a los de Dirac, aquí son cuasipartículas asociadas a temas de naturaleza topológica-solitones-) que también predicen esa teorías y no se observan. Ahí la solución viene de la mano de la inflación, que habría diluido la densidad de solitones hasta un número de alrededor de uno por unidad observable del universo. Ahora, a raíz de el descubrimiento de modos tensoriales en el fondo de microondas por el experimento BICEP2, parece que hay una evidencia experimental sólida -aún sinconfirmar totalmente- y bastante directa de la inflación, así que ese punto quedaría más o menos zanjado.

En el terreno de la teoría de cuerdas la cosa se fué complicando mucho. En los 80 el paradigma era que se daría con una compactificación de las dimensiones extra de la cuerda heterótica que permitirían obtener el modelo standard, y que, además, nos darían pistas, o incluso todos los detalles, sobre cómo iría todo hasta energías superiores. Pero aunque se ha llegado muy cerca de tener un modelo standard a partir de la heterótica, con bastantes de los detalles, resulta que la forma de obtenerlo no es única, y cada variante predice a altas energías cosas diferentes. También, usando nuevos objetos aparecidos en los 90, las D-branas, y generalizaciones (M-branas de la teoría M, la 7-brana de la teoría F- otra variante de la teoría de cuerdas introducida por Cunrum Vafa) dieron nuevas maneras de obtener el modelo standard, con similar detalle, pero con un comportamiento más allá del modelo standard totalmente distinto entre ellas (aunque todas podrían agruparse en el paradigma de “mundos brana” dónde, simplificando, las partículas del modelo standard viven en 4 dimensiones y el gravitón en más) y completamente diferente al heterótico. Vale, hay dualidades, pero eso no significa que se pueda decir que son “moralmente iguales” esos escenarios, la física según sube la energía cambia totalmente, en algunos de ellos hacia un SU(5).

Y el descubrimiento de la constante cosmológica ya lo lía aún más, y terminamos con un montón de opciones tremendo. Por ejemplo, en el 2008 Vafa y colaboradores hicieron un auténtico tour de force con la teoría F, con bastantes artículos, algunos de más de 100 páginas, que hacían predicciones para el LHC que, lástima, predecían una masa del Higgs en unos márgenes que son incompatibles, por poco eso sí, con lo observado. Y, claro, si estás con un trabajo fijo (una tenure) en una universidad te puedes permitir embarcarte en esa odisea y que luego no salga nada. Pero sí eres un doctorando que intenta hacer algo que te de una plaza, es posiblemente deprimente.

Total, no daré mas detalles, que hay tantas posibilidades, para una teoría general, o incluso para relativamente pequeños campos (cuál es el modelo concreto de inflación, o no digamos ya que partículas forman la materia oscura), que uno se puede perder de mil maneras, sin ningún tipo de guía unificador. Hemos pasado de la gran unificación a la gran diversificación.

Envista de eso, aparte de mantenerse al día en lo que se va haciendo, yo, personalmente, intento pensar si hay algo que, sin renegar porque sí de lo que ya está hecho, si puede todavía haber alguna clave que guíe entre tantas posibilidades, por supuesto sin un éxito remarcable hasta ahora.

Voy a indicar ahora algunas de las ideas que he venido considerando, en particular las centradas en la teoría de cuerdas.

La idea más arriesgada es plantearse la misma teoría, pero con un cambio de paradigma. En vez de considerar que hay un espacio-tiempo y dentro de el unos objetos, las cuerdas, me planteo una opción diferente, pero que lleva a similar matemática.

En las ecuaciones de Einstein R_{\nu\mu} - g_{\nu\mu}R=T_{\nu\mu} tenemos dos elementos, a la izquierda un elemento puramente geométrico, la curvatura, y a la derecha uno asociado totalmente a la materia, el tensor energía momento, asociado a las partículas. Entre esas partículas estaría el gravitón, que sería una fluctuación de la métrica. Digamos que el gravitón da la reacción del espacio-tiempo a si mismo. En la gravedad cuántica inicial, con partículas puntuales, se parte de una descomposición de una descomposición de la métrica en dos partes g_{\nu\mu}= \eta_{\nu\mu} + h_{\nu\mu}. Aquí \eta_{\nu\mu} sería el término de background (en el caso sencillo la métrica minkowsky), y h una fluctuación que, convenientemente cuantizada, sería el gravitón. Antes de seguir una reflexión algo tonta. Esa perturbación de la métrica tiene los mismos grados de libertad que una partícula de spin 2, y por eso se identifica una métrica, la característica de la gravedad con una partícula de spin 2. Lo curioso es que una métrica en geometría es una forma bilineal (o cuadrática, según se mire). Digamos que uno podría plantearse sí no debería pensarse que el observable básico de la gravedad cuántica, que es la métrica, no debería tal vez ser un objeto bilineal en vez de uno lineal. Pero claro, en cuántica los operadores deben ser lineales, y los intentos de hacer una teoría con operadores no lineales tiene muchos problemas, tanto prácticos como conceptuales. Por eso es más sencillo dejarlo correr y quedarse tranquilo con la identificación de la métrica con una partícula de spin 2, que es algo que tiene mas respaldos (teoría de Fierz-Pauli, en la que, recursivamente, a partir de gravitones se llega, más o menos a la relatividad general). La teoria para un gravitón inspirado en una partícula puntual es no renormalizable, pero en su variante en la que el gravitón aparece cómo uno de los modos de vibración de la cuerda da lugar a una teoría consistente, y eso es algo de agradecer.

En todo caso, seguimos teniendo dos objetos, el espacio-tiempo y la cuerda, y, en última instancia, el objeto mas interesante -para justificar la teoría cuanto menos- de la cuerda, el gravitón, es geométrico. Mi idea es ponerlo todo en el terreno del espacio-tiempo. La idea sería darle una cualidad extra, probablemente de naturaleza geométrica, a ese espaciotiempo para dotarlo de una naturaleza dinámica. Si pensamos en esa propiedad extra cómo una especie de “tensión” (con las adecuadas propiedades buenas de transformación) lo que tendríamos es que en el espacio-tiempo habría líneas de tensión. Y, cómo deberían tener propiedades buenas de covarianza esas líneas de tensión serían equivalentes matemáticamente a las cuerdas bosónicas. Digamos que matemáticamente serían el mismo objeto, pero conceptualmente cambiarían. en vez de ser unos entes que están ahí no se sabe porque, y que son extensos, y no se disgregan, por arte de magia, aparecerían de manera natural por resultado de una dinámica del propio espacio-tiempo. Por supuesto ahí habría un punto extra, una dinámica mas fundamental del espacio-tiempo que da lugar a que en este aparezcan líneas de tensión que podemos describir mediante las cuerdas. En este sentido las cuerdas serían sólo una descripción aproximada y habría algo más fundamental.

Por supuesto esa idea tiene muchos problemas. Para empezar porque ese paradigma funciona bien para la cuerda bosónica, pero se complica para la supercuerda. En realidad, si uno parte de un superespacio (añadir coordenadas de Grassman, que están asociadas a fermiones, al espacio-tiempo ordinario) uno podría obtener la supercuerda, aunque, desde luego, la matemática es complicada. Normalmente las supercuerdas se obtienen mediante la imposición de supersimetría en el worldsheet y luego imponiendo condiciones varias, se llega a que hay supersimetría en el espacio target. Pero vamos, en principio se puede obtener un lagrangiano supersimétrico desde el superespacio, y lo mismo para una supercuerda. Si partimos de una teoría gravitatoria en el superespacio podríamos jugar al juego anterior, de líneas de tensión en el superespacio, que serían las cuerdas. Pero, claro, en realidad se puede demostrar que la teoria de cuerdas en su formulación habitual, tiene cómo limites de baja energía las teorías de supergravedad. En ese sentido la cuerda es mas fundamental que la supergravedad. En el paradigma que propongo sería mas rebuscado. Hay una dinámica, que no sabemos, que se asemeja a la supergravedad (da un superespacio al menos), pero que en principio es distinta, y mas complicada. Esa teoría permite hablar de “tensiones” en el superespacio, que, identidificadas cómo cuerdas, dan lugar a una teoría cuyo límite a bajas energías es la supergravedad. Eso nos daría una condición complicada de consistencia.

En fín, realmente no sé si, con lo que he contado hasta ahora, este punto de vista aporta algo, salvo, tal vez que sea mas “natural” y unificado. Ya no hay dos cosas, espacio-tiempo y cuerdas, sólo una, el espacio-tiempo, ergo es más unificado. Y es mas “natural” porque no hay que postular algo tan exótico cómo una cuerda que no se disgrega ¿por qúe no?.

Por supuesto, lo divertido, es que en esa teoría surgen generalizaciones “naturales” que no lo son tanto en la teoría de cuerdas. Para empezar ya no hay motivo natural para imponer que la tensión sea la misma en todos los puntos y, por tanto, en el lagrangiano de la cuerda la T dependería de x T(x). Puesto que la tensión es el único parámetro (en última instancia, no en la práctica) libre de la cuerda, y aquí es simplemente algo que varía de punto a punto, al menos en principio, se pierde la idea de que si supiéramos T, y la suficiente matemática, podríamos deducir todo lo demás, las constantes de la física de bajas energías, correspondientes a compactificaciones/braneworlds concretas. Pero es de suponer que en la teoría geométrica que da lugar a esa tensión habría una constante, y se recuperaría el status quo.

Más divertido aún es pensar en que no hay que pensar que la T deba ser positiva. Habría que plantearse las T’s negativas. Si interpretamos la T cómo densidad de energía, es lo habitual, tendríamos que las cuerdas con T negativa tendrían energía negativa y, por tanto, podrían ser “materia exótica” en el sentido del término usado habitualmente en la literatura de agujeros de gusano.

Y, para cerrar esta entrada, dejo un link a un artículo publicado hoy en arxiv que trata precisamente de la posibilidad de tratar la tensión cómo algo dinámico en la teoría de cuerdas Dynamical String Tension in String Theory with Spacetime Weyl Invariance. Por supuesto en ese enlace el planteamiento y los detalles no están en nada relacionados con lo que yo planteo. Dos de los autores Steindard y Turok, son bien conocidos, aunque no necesariamente bien considerados por todo el mundo (están en la lista negra de Lubos, por ejemplo xD). Digamos que la publicación de ese artículo, que he empezado a leer, y seguiré leyendo ahora, me ha animado a escribir esta entrada, centrándome en las ideas relacionadas con lo que se plantea. Hay mas cosas que me gustaría comentar sobre la teoría de cuerdas, pero ya será cuando se presente la ocasión propicia.

Ingredientes de una “cronomecánica cuántica”

marzo 13, 2014

Una amiga, a raíz de ver la película “El efecto mariposa” me preguntó como podía interpretarse la película en términos de la mecánica cuántica. La pregunta es interesante porque, al fín y a la postre, uno de los alicientes de las películas de ciencia ficción es intentar especular sobre la parte científica que normalmente sólo se suele esbozar, y generalmente de mala manera. Aparte de la película había mas alicientes para pensar en el tema del tiempo en física dónde tenemos cosas como soluciones de la relatividad general que implican trayectorias que llevan hacia atrás en el tiempo (son sus consecuentes paradojas), taquiones, que, de existir, podrían enviar señales al pasado (ver Taquiones y viajes en el tiempo, o la ecuación de Wheler-de Whitt, que resulta de poner la relatividad general en un formalismo canónico en la cuál, en cierto modo, no existe el tiempo. De hecho en un momento dado un grupo de inversores amigos de la especulación en física con tintes filosóficos, la FQXI, dedicó uno de sus premios anuales a la cuestión de la física del tiempo, sin gran éxito ya que en mi opinión ninguno de los artículos enviados era particularmente bueno. De hecho, espero, esta entrada debería ser mas interesante que cualquiera de esos artículos ;). Y eso que ni siquiera pretendo que sea del todo seria xD.

images

Bien, en la película tenemos un chaval, estudiante de psicología, que a raíz de unos experimentos con bichos adquiere una habilidad para conseguir que cada vez que hay un aspecto trágico en su vida desencadenado de manera muy clara por un acontecimiento concreto es capaz de enlazar con una realidad en la que el acontecimiento sucedió de manera diferente y vivir las consecuencias de esa versión alternativa. Supongo que los autores de la película pueden haberse inspirado en la interpretación de Everett de la mecánica cuántica en la que cada vez que se produce una medida cuántica hay una división de la realidad de tal forma que se forma un universo diferente para cada una de los posibles resultados de la medida. Claramente eso lleva a intentar enfocar el tema del tiempo desde una perspectiva cuántica, y eso es lo que hice. Desde entonces, a ratos libres, he ido perfilando un poco más el asunto, entre otras cosas porque, de tanto en tanto, alguien me lo recuerda. He intentado escribir algo sobre el tema en el pasado, pero siempre que me había planteado escribir me ponía a reanalizar el asunto y siempre se me ocurrían cosas nuevas que considerar y terminaba por no escribir nada. Ahora, ya por fín, me decido a dejar algunos detalles de cómo he ido enfocando el tema.

El punto de partida es a la vez sencillo y delicado. Recordemos la base de la mecánica cuántica no relativista elemental. Si alguien no sabe nada de cuántica puede probar a leerse mi post de introducción a la misma Introducción a la mecánica cuántica Tenemos una función de onda \phi( x,y,z,t) cuyo valor al cuadrado nos da la probabilidad de encontrar la partícula que representa esa función en el punto (x,y,z) en el instante t. Aquí t es el tiempo “newtoniano” que existe de manera universal y es igual en cualquier punto del universo. Por supuesto algo así no existe ya que la física Newtoniana debe ser sustituida por la de la relatividad general, en la cuál el tiempo forma parte de un cuadrivector. Pero por ahora ignoremos esa parte relativista. El planteamiento que hago es muy ingenuo, reinterpreto esa función de onda cómo la probabilidad de encontrar la función de onda en el punto (x,y,z) y, esta es la novedad, en el instante t. Por supuesto tras esta propuesta ingenua a nivel de lenguaje se esconde una gran dosis de sutileza ¿Cómo es eso de no poder saber en que instante se encuentra la partícula? Al fín y al cabo si estoy en un laboratorio tengo un reloj, y puedo saber en que momento he detectado la partícula. Vale, tenemos el principio de incertidumbre de Heisenberg tiempo-Energía que afirma (mas adelante entraré en las sutilezas de esta relación) que no podemos saber con total precisión a la vez el tiempo y la energía. Pero, al fin y al cabo, si tenemos suficiente energía, podemos medir con precisión arbitraria el momento de la medida.

Definitivamente en el universo newtoniano la propuesta no tiene mucho sentido, y es necesario ya meter conceptos de relatividad dónde tenemos las transformaciones de Lorentz (relatividad especial) y, mas generalmente, el efecto de la masa cómo ralentizadora del paso del tiempo (el tiempo transcurre mas lento cerca de un cuerpo pesado que en el espacio libre). En estas circunstancias no hay tiempo universal y debemos hablar de el tiempo propio relativista (asumo que todo el mundo conoce la paradoja de los gememolos y demás cosas típicas de la relatividad así que no daré explicaciones al respecto). \tau=\frac{t}{\sqrt(1-v^2/c^2)} en relatividad especial, o, mas generalmente \tau=g_{00}\dot (x^0) + \frac{g_{0i}}{\sqrt(g{00})} en relatividad general.

Bien, entonces, con el concepto de tiempo propio, ya tenemos un ingrediente para una forma posible (hay más) de interpretar eso de “probabilidad de hallar la partícula en el tiempo t”. La otra cosa que necesitamos es el concepto de reloj cuántico. Realmente es un concepto sencillo pero encontrar una forma rigurosa de exponerlo es ligeramente mas complejo. La idea es tener un dispositivo que tenga una parte con un comportamiento periódico y otra que permita construir a partir de ese comportamiento un número que represente el tiempo transcurrido desde que el dispositivo empezó a funcionar. Y, se supone, que ese chisme debe ser lo bastante pequeño para que los efectos cuánticos sean apreciables claro, que sino cualquier reloj convencional valdría. Siendo un sistema cuántico compuesto de varias partículas lo vamos a poder representar por una función de onda conjunta \phi(\vec(r_1), \vec(r_2), ..., \vec(r_n), t) Bien, aquí se supone que todas las partículas del reloj están en el mismo tiempo. Esto lo interpretamos cómo que no tenemos ningún dispositivo más pequeño que el propio reloj que nos permita medir el tiempo de manera separada para cada una de las partículas. Asumimos, además, que las partículas del reloj se mantienen siempre confinadas en un volumen concreto (el tamaño del reloj) y que dentro de ese volumen el campo gravitatorio es aproximadamente constante. En esas condiciones el reloj lo que hace es medir su propio tiempo propio, y ese t sería el \tau .

Con el tiempo propio, y el reloj cuántico para poder medirlo, ya podemos dar sentido a eso de “probabilidad de hallar la partícula (sistema cuántico) en el tiempo t). Imaginemos que hacemos un experimento de doble rendija con nuestro reloj cuántico, pero con una pequeña variante. Por una rendija el reloj viaja por un espacio-tiempo plano, por la otra pasa cerca de un miniagujero negro (o cualquier otra cosa lo bastante densa para introducir un retraso temporal que puede discernir el reloj cuántico). Obviamente si pasa por el espacio-tiempo plano el tiempo propio que le lleva al reloj llegar desde el punto de partida al final va a ser mayor que si pasa por la rendija cercana al microagujero negro. Pero, claro, cómo en cualquier experimento de doble rendija no sabemos por dónde pasó exactamente el reloj cuántico y lo que tenemos es que en el resultado final vamos a encontrar que una vez medimos un valor t1 y otra un valor t2 (en realidad, si tenemos un microagujero negro, podríamos tener muchos valores posibles si al pasar por la rendija del agujero negro el reloj pudiera pasar por diferentes distancias al mismo). Visto así, no podemos medir el tiempo propio y el tiempo no está determinado. Esta idea es un poco discutible ya que podría argumentarse que hay una cierta redundancia. Al fin y al cabo lo que tenemos es que la función de onda conjunta estaría en un estado de superposición entre dos de autovalores posibles que consideramos cómo “marca temporal”. En realidad, como veremos, el “tiempo” normalmente va a ser una información menos detallada que un autoestado así que tal vez se podría obviar ese posible criticismo. Aunque esta exposición de el concepto de reloj cuántico la he elaborado yo en su totalidad soy consciente de que hay mas gente que ha trabajado en esta idea y que incluso se ha hecho alguna implementación experimental de la idea. Recuerdo que Sabine Hossénfander mencionó en su blog ese experimento , pero no he dado con el link al post en concreto.

Para poner un ejemplo concreto podríamos considerar que nuestro reloj cuántico fuese un conjunto pequeño de átomos con algunos electrones excitados en algún estado metaestable. Con el paso del tiempo estos electrones irían decayendo al estado fundamental (el periodo de decaimiento al estado fundamental sería el ingrediente “periódico” del reloj) y podríamos usar el número de electrones medidos en el estado fundamental cómo “el tiempo transcurrido”. Aquí hay varios autoestados compatibles con un número concreto de electrones en el estado fundamental (porque no nos importa en que núcleo concreto se ha producido la caída al estado excitado). Es interesante el hecho de que aquí el tiempo es discreto, mientras que en física siempre es una variable continua. En teoría siempre podemos hacer un “reloj cuántico” mas preciso (al menos hasta llegar al tiempo de Planck, y según mucha gente incluso más allá) pero, en la práctica, podríamos argumentar que para estudiar nuestro sistema no podemos contar con mas información temporal que la que nos da el reloj cuántico mas preciso que tenemos.

La cosa se vuelve mas divertida cuando usamos estos relojes cuánticos en este tipo de casos para tomar medidas temporales de otros acontecimientos. Tomemos el caso de dos naves espaciales. Una viaja de A a B por una zona plana y otra cerca de un agujero negro. Esas naves usan relojes atómicos para medir el tiempo. Cómo esos relojes no tienen bien definido el tiempo cualquier evento lleva automáticamente indefinido el tiempo y así las funciones de onda que representen procesos cuánticos en esas naves no tendrían el tiempo bien definido. Dejo al lector que rellene los detalles de experimentos concretos que ilustren de forma rigurosa esta idea, que no voy a hacerlo todo yo :P.

Vale, asumamos que lo explicado anteriormente se sostiene (es un tema abierto a discusión, claro). En ese caso vamos a proceder a hacer un formalismo naive para añadir eso y crear nuestra “cronomecánica cuántica”. Recordemos que en mecánica cuántica tenemos dos operadores fundamentales, el operador momento \hat p \phi=-\frac{i\hbar\partial_x }{2m} \phi y el operador posición \hat x\phi=x.\phi . La justificación del operador x, básicamente, es la de obtener el valor mas probable de la posición, y eso en una variable estadística, es la media (osea, multiplicar por x y sumar/integrar x multiplicado por la distribución estadística, osea, la función de onda. Otra gente interpreta ese operador cómo trasladar en una distancia x la función de onda, pero, la verdad, yo prefiero la interpretación probabilística. Cómo quiera que se vea eso permite que, inmediatamente, el operador “posición temporal” sea multiplicar la función por t, i.e. \hat t \phi= t.\phi .

El operador análogo al operador momento es mas delicado. El operador momento se interpreta cómo el generador infinitesimal de las traslaciones (ver, por ejemplo Operadores de la mecánica cuántica. Entonces, podríamos decir que el operador “Cronos” \hat c= -\frac{i\hbar}{2m}\partial_t genera las traslaciones en el tiempo. Si admitimos eso podríamos hallar las relaciones de conmutación entre los dos operadores y comprobar que son las mismas que entre los operadores x y p i.e. [\hat x, \hat p]= \hat x \hat p - \hat p \hat x= i\hbar es decir [\hat t, \hat c]= i\hbar . Hasta aquí todo parece sencillo y sin sutilezas. El problema surge cuando uno se da cuenta que ya hay un operador casi idéntico a lo que yo he llamado operador Cronos, el “operador energía” que es igual en todo excepto en el factor de 2m dividiendo. Este “operador energía” aparece en la ecuación de Schröedinger dependiente del tiempo \hat H \phi = -i \hbar \partial_t \phi y en la ecuación de Klein-Gordon, dónde es mas evidente que juega el papel de la energía ya que ahí se coge la relación clásica entre el trimomento y la energía: E^2= p^2 + m^2 c^4 y se sustituye la E por el “operador energía” para obtener la ecuación de Klein-Gordon (para mas detalles ver en la wiki la Ecuación de Klein-Gordon.

Esto del “operador energía”, cómo digo, es algo curioso. Al fin y al cabo en mecánica cuántica la energía es el hamiltoniano. Además, resolviendo la ecuación de Schröedinger dependiente del tiempo se puede ver que el hamiltoniano es lo que genera la evolución temporal del sistema cuántico, en analogía al operador momento que general la traslación espacial. Resulta curioso también que el “operador energía” no incluya la masa. Mi “operador cronos” si incluye esa masa, y, formalmente, uno podría pensar que también debería generar las traslaciones en el tiempo. Sobre la presencia o no de la masa se puede argumentar que en un sistema general la masa si influye y no evolucionan en el tiempo de la misma manera dos partículas de distinta masa (eso sólo pasa en el campo gravitatorio, pero no en, por ejemplo, un campo magnético) por lo cuál sería mejor “operador energía” mi operador cronos que el normal. Por otro lado, si se hace eso, no se obtiene la ecuación de K-G.

Que el operador cronos se pudiera interpretar como una energía sería interesante porque aquí la incertidumbre tiempo-energía tendría la misma interpretación que en el caso de la posición y el momento. Normalmente la relación de incertidumbre tiempo-energía, se interpreta cómo que en una transición entre dos estados separados por una energía E si queremos medir esa energía con una precisión dada necesitamos al menos un tiempo de observación que cumpla esa relación de incertidumbre. Eso también lleva al concepto de partícula virtual en la que si no “miramos” durante un tiempo t se puede formar una partícula con energía E compatible mediante la relación de incertidumbre con el tiempo que estamos sin “mirar”.

Cómo, por supuesto, esta teoría no pretende ser totalmente seria no he examinado a fondo estos aspectos, tampoco he mirado otras temas de compatibilidad ¿conmutan estos operadores que he introducido con el hamiltoniano para poder ser observables?

En todo caso, asumiendo que hay una relación entre mi operador C y la energía podemos ir un poco más allá. El operador C tiene, en general, espectro continuo con valores negativos y positivos, como el operador t. Eso vendría a interpretarse cómo que tenemos partículas yendo hacia delante y hacia atrás en el tiempo, y tendríamos una visión de las antipartículas cómo los autoestados negativos del operador C. Una vez más no he analizado a fondo el asunto, y dejo en manos de alguien potencialmente interesado que lo haga si le apetece divertirse con un tema desenfadado cómo es este.

Vale, una vez expuesto el “formalismo” de la cronomecánica cuántica vamos a aplicarlo a jugar un poco más con él. Cuando tenemos algún caso de paradojas temporales, es decir, que viajamos por una curva de tiempo cerrada y partiendo de un tiempo t1 llegamos a un tiempo t2 dónde t2th a otro t1<th. Aquí ya tenemos un problema posible al intentar hacer superposiciones cuánticas ya que las partículas antes y después del th no son iguales. Por ejemplo, un bosón vectorial Z tiene masa después de th y es de masa 0 antes de th. Sí hacemos volver una partícula Z en el tiempo a través de una de esas curvas de tiempo cerrado tendríamos que considerar un estado de superposición entre una partícula sin masa y otra con masa, y con distintos grados de liberad además. En realidad en cuántica de campos el observable es el campo y podríamos decir que en t<th crea partículas sin masa y despúes partículas con masa. En cualquier caso eso de hacer superposiciones de estados que pertenecen a vacíos distintos es algo que se supone que está prohibido en cuántica por las reglas de superselección y no debería poder hacerse. Entonces, si conectamos estados temporales dónde el vacío cuántico ha cambiado nuestro formalismo de superposición cuántica de estados ya no valdría y deberíamos buscar algo más sofisticado.

descarga

Otro tema mas divertido aún en esto de las paradojas temporales y la definición del tiempo es jugar con cuerdas. Imaginemos que la teoría de cuerdas es correcta y que cogemos una cuerda elemental y la hacemos crecer hasta un cierto tamaño macroscópico (esto es algo que Witten argumentó que podría haber ocurrido en el periodo inflaccionario y tener cuerdas cósmicas que fuesen cuerdas elementales agrandadas en vez de las asociadas a rupturas de la simetría, que son el otro tipo de cuerdas cósmicas posibles). Se supone que una cuerda tiene un tiempo bien definido. Ahora bien, si extendemos una cuerda macroscópica en una curva de tiempo cerrada sus diversos puntos estarían, en general, en tiempos diferentes, y, si la hacemos girar, estaría mandando hacia atrás en el tiempo a una parte de si misma. Por supuesto esto es un ejemplo muy tramposo porque el propio campo gravitatorio de esta cuerda cósmica fundamental seguramente sería lo bastante intenso para romper la geometría que permite la existencia de esas curvas de tiempo cerradas. En realidad existe algo llamado el principio de protección cronológica, introducido por Hawking, que argumenta (pero no demuestra) que siempre va a haber efectos cuánticos que arruinan la geometría clásica con curvas de tiempo cerradas. En su libro de agujeros de gusano Matt Visser hace un cálculo de teoría cuántica de campos que demuestra (al menos en buena parte) que esos efectos cuánticos destruyen el agujero de gusano cuando este intenta usarse cómo máquina del tiempo.

Otras cosa que, por ejemplo, se podría considerar con este formalismo que he introducido es ¿que pasa con el operador de ordenación temporal en teoría cuántica de campos? Y bastantes otras cosas (he considerado unos cuantos aspectos más, pero me llevaría demasiado espacio discutirlos). En cualquier caso, la verdad, no creo que el tema merezca meterse en tantas profundidades. Considero este "formalismo" cómo una guía práctica para tratar con algo de sentido, y un criterio concreto, las paradojas temporales que le gusta analizar a la gente de CF y poco más. Pero si alguien quiere profundizar en el tema y exprimir más el formalismo libre es ;).

Teorías de Kaluza-Klein

marzo 2, 2014

Voy a exponer cómo la teoría clásica del electromagnetismo, y otras teoría gauge, puede surgir de las dimensiones adicionales. Es lo que se conoce como el modelo de Kaluza, publicado allá por el 1919, con la RG recién salidita del horno.
Antes de ello hablar un poco del electromagnetismo en si mismo. La idea es sencilla, existen en la naturaleza unos campos E y B (eléctrico y magnético respectivamente) que afectan a unos cuerpos que tiene la característica de estar cargados eléctricamente.

El campo eléctrico y magnético se describen por las ecuaciones de Maxwell

\vec{ \nabla } \cdot \vec{E} = \rho \\
\vec{ \nabla } \times \vec{E} = - \frac{\partial \vec{B}}{\partial t} \\
\vec{ \nabla } \cdot \vec{B} = 0 \\ .
\vec{ \nabla } \times \vec{B} = \vec{j} + \frac{\partial \vec{E}}{\partial t}

Dónde \rho es la densidad de carga y j la densidad de corriente (la corriente está asociada a que la carga se desplaza).
Bien, estas ecuaciones implican a los campos. Pero esos campos pueden derivarse de unos potenciales. La idea sencilla es que la variación de esos campos en el espacio de un punto a otro es lo que genera que haya una fuerza. Esa variación de un punto a oro se traduce en la derivada, claro. Así pues podemos expresar B y E en términos, respectivamente, de un potencial (tri)vector A y un potencial escalar V. Con estos podemos formar un cuadripotencial vector A4=(-V,A3).
La expresión exacta de los E y B en términos de los A y V es:

\bf{B}=\nabla \times \bf{A}

\bf{E}=\frac{\partial{\bf{A}}}{\partial t}-\nabla V

Lo interesante es que esas ecuaciones que definen E y B en términos de A y V no cambian si modificamos :

\bf{A}+\nabla G

V-\frac{\partial G}{\partial t}

Dónde aquí G es una función arbitraria de x,y,z, t. Pués bien, es esta indeterminación de los capos en términos de los potenciales lo que se conoce cómo invariancia gauge. En el caso del electromagnetismo surgió de manera ad hoc. Venia incorporada al introducir el concepto de potenciales. En otro post veremos cómo se puede relacionar esa invariancia con una invariancia bajo fases locales de una función de onda cuántica.

Lo primero es introducir el concepto de compactificar una dimensión. El primero en hacer esto fué Oscar Klein (no confundir con el célebre matemático Felix Klein). Si tenemos un campo escalar $ \Phi (x,y) $ dónde x representa el espaciotiempo normal e y una dimensión adicional de tipo espacial requerimos:

\Phi (x,y)= \Phi(x,y + 2\pi)

De esto se sigue que podemos expandir \Phi en serie de Fourier

\Phi(x,y)= \sum_{n=-\infty }^{n= \infty } \Phi_n(x)e^{iny/r}

A consecuencia de la teoría cuántica, en un estado con un n dado la componente y del momento debe ser O(|n|\hbar/r) . Así para un radio lo suficientemente pequeño, r, sólo el estado n=0 aparecerá en el mundo de la física de “bajas energías” (i.e. E\ll\hbar c/r ).

En su versión moderna las teorías de Kaluza-Klein se materializan en las dimensiones extra de las teorías de cuerdas. En las primeras versiones, previas a la “segunda string revolution”, se consideraba que el radio de compactificación debía de ser del orden de la longitud de Planck, es decir:

r \approx l_P \equiv (\hbar G_N / c^3 )^{1/2} \approx 1.6 \times 10^{-35} m

De ese modo la masa de los estados excitados ( n \not= 0) serían del orden de la masa de Planck M_P \approx 10^{19} GeV/c^2 , lo cuál sería imposible de obtener con los colisionadores actuales, o los fabricables en un futuro cercano. En la segunda “string revolution” se introdujeron objetos cómo las D-branas, se comprobaron dualidades entre diversas teorias de cuerdas, surgió la teoría M, etc. Algunos de esas ideas llevaron a que la gente considerase la posiblidad de que alguna, o algunas, de las dimensiones extra del espacio-tiempo pudiera tener una dimensión mesoscópica (a medio camino entre lo macroscópico, digamos algo submilimétrico, y la longitud de Planck). En ese caso, entre otras cosas, los modos de Kaluza-Kklein de algunas partículas (los modos con $late n \not= 0 $, podrían tener masas similares a las alcanzables en el LHC. Hasta ahora no se ha observado ningún signo de esos modos en las colisiones efectuadas a 8 TeV, así que hay límites severos para el tamaño de esas dimensiones mesoscópicas.

El modelo de Kaluza parte de considerar un espacio de 4 dimensiones espaciales y una temporal y compactificar en un círculo una de las espaciales. Denoto con M, N índices en 5 dimensiones y con \nu \mu en 4.

Tenemos por tanto una métrica en 5 dimensiones g_{MN} que vista desde 4 dimensiones se descompone del siguiente modo:

1. g_{\nu\mu} La métrica habitual en 4 dimensiones.

2.g_{\nu4}=g_{4\nu} Un campo vectorial en 4 d.

3.g_{44} Un campo escalar en 4 d.

Denotamos x4 cómo y. Kaluza impuso la siguiente condición:

4.\frac{\partial g_{MN}}{\partial y}=0

¿Por qué? Bien, esto simplemente implica que los campos no dependen de la coordenada y. Por supuesto la coordenada y esta compactificada a un círculo, es decir se identifican los puntos y e y +2.pi.r .

Cómo puede sospecharse fácilmente adónde queremos llegar es a que se puede identificar el campo vectorial de la ecuación 1 con el cuadripotencial del campo electromagnético A_\nu .

Para que la idea funciones se expande la métrica en términos de una serie de Fourier en la coordenada y:

5.g_{MN}(x,y)=\sum_n g_{MN}^n(x) .e^{iny/r}

Ahora lo que se hace es una parametrización de la métrica, digamos una descomposición en la que queda:

6. g_{44}=k. \Phi
7.g_{4\nu}=k.\Phi.A_\nu (y el antisimétrico)
8. g_{MN}=k.g_{\nu\mu} + \Phi.A_\nu

y dónde k=\Phi^{-1/3}

Escrito en forma matricial esto es

g_{MN}^{(0)} = \phi^{-1/3} \left( \begin{array}{cc}  g_{\nu\mu} + \phi.A_\nu & \phi A_{\nu}  \\  \phi A_{\nu} &  \phi   \end{array} \right)

Bien, esta es la métrica, pero la métrica es sólo parte de la historia. Lo que nos da la dinámica es la acción. Partimos de la acción para la ecuación de Einstein en 5 d que básicamente, y salvo factorcillos, es la integral de el escalar de Ricci asociado a esa métrica.

Lo interesante es que en las ecuaciones 6,7, 8 hemos descompuesto la métrica 5 d en términos de cantidades 4d.Si calculamos el escalar de Ricci manteniendo explícitamente la presencia de esos campos 4 d obtenemos que la acción queda de la forma:

S=-(2\pi.r)\int d^4xe/2G^2_5\left[ R + 1/4   \phi F_{\nu\mu}F^{\nu\mu} + 1/6\phi^2\partial^\nu\phi\partial_\nu\phi \right]

Dónde F_{\nu\mu} es cómo podría esperarse el tensor campo electromagnético asociado al cuadrivector A_\nu Y G es la constante gravitatoria en 5 dimensiones.

Así pues la invariancia bajo GCT (general coordinates transformations) de la gravedad en 5 dimensiones se traduce en que cuando una coordenada se compactifica en la aparición de un campo que cumples las mismas ecuaciones que el campo electromagnético y que por tanto tiene una invariancia gague local. Es decir, una invariancia interna aparece en este formalismo como una consecuencia de una invariancia externa al compactificar.

No he puesto todos los detalles, que llevaría mucho tiempo, pero espero que con esto se coja bien la idea.

De todos modos esta idea es sólo una pequeña parte del asunto de la compactificación. Nos hemos ocupado solamente de qué pasa cuando la métrica se compactifica, pero ¿qué pasa cuando se copactifica un campo cúantico fermionico sin masa? Más interesante aún ¿qué pasa si se compactifica un campo que ya en 5 dimensiones es un campo gauge?

En fín, muy rico el mecanismo este de la compactificación, sirva este post para coger una mínima idea de las posibilidades y complejidades que conlleva.

Running Schwarschild radio

febrero 12, 2014

El caso mas sencillo de agujero negro es el de Scharschild, que describe un agujero negro sin carga y que no rota sobre si mismo. Su horizonte de sucesos, la superficie desde la cuál no se puede salir (ignoraré aquí cualquier sutileza sobre diversos tipos de horizontes que se pueden definir o la reciente afirmación de Hawking de que el horizonte de sucesos no es bueno para describir agujeros negros en los que los efectos cuánticos son importantes). Esta superficie, para el caso de Schwarschild es esférica, y tiene un radio el radio de Schwarschild que viene dado por R_s= \frac{2GM}{c^2}.

Cuando he hablado de efectos cuánticos al referirme a Hawking me refería, por supuesto, a su famosa teoría en la que usando técnicas de cuantización en espacios curvos mostraba que un agujero negro emite radiación, conocida cómo radiación Hawking. Podéis leer algunos detalles sobre esa radiación (pero no la deducción de la misma) en la entrada inglesa de la wiki Hawking’s radiation. Unas ideas muy elementales sobre cuantización en espacios curvos la tenéis (en español, aunque la mayor parte del blog esté en inglés) en mi otro blog: Ideas básicas sobre cuantización en espacios curvos.

Cómo se puede leer en esas entradas un agujero negro que esté aislado de todo y no se “alimente” como resultado de esa emisión de radiación va perdiendo energía, y por tanto masa, y su radio de Schwarschild se va haciendo mas pequeño, es decir, el agujero negro se va evaporando. Podría pensarse que el título de la entrada haga referencia a este efecto, pero considero que a estas alturas el tema de la desintegración Hawking es algo sobradamente conocido por cualquiera interesado en estos temas así que el propósito de esta entrada es ligeramente diferente. El término “running” seguramente pueda dar una pista a la gente que conozca teoría cuántica de campos con un cierto nivel y, por tanto, haya oído hablar de las “running coupling constants”. He mantenido el término en inglés porque no se me ocurre ninguna traducción realmente buena del término running, quizás lo que más podría acercarse es “deslizante”.

Cuando empecé a escribir la entrada pensaba despachar la explicación del grupo de renormalización, la ecuación de Callan-Symanzsky y la teoría de las “constantes de acoplo deslizantes” con entradas a la wiki española (o a algún blog en español que tratase el tema), pero he visto que la wiki tiene un tratamiento muy pobre, siendo generoso, del asunto y no he visto ningún blog que lo trate. Supongo que la mayor parte de gente que me lea se manejará bien con el inglés (después de todo suelo poner vínculos a sitios en inglés casi siempre) y podrá leer la entrada de la wiki inglesa: renormalizción. En todo caso me sirve para darme cuenta que tal vez debería hacer un esfuerzo y escribir algo sobre renormalización en el futuro. En todo caso ahora daré las ideas mínimas sobre renormalización para que se pueda entender lo que pretendo exponer.

En QFT el objetivo final, normalmente, es calcular amplitudes de transición entre estados asintóticos. Es decir, uno tiene, un grupo inicial de partículas libres con unos momentos dados que interaccionan por un tiempo finito y se convierten, en general, en otras partículas con otros momentos distinto. La idea es calcular las probabilidades de esas transiciones. Los cálculos de esas probabilidades se suelen hacer usando los diagramas de Feynman. Discutí algo sobre ello en la entrada sobre el amplithuedron. Cómo explico ahí los diagramas se organizan en función del número de loops. Los que no tienen loops se denominan “tree level” y normalmente suelen reproducir las secciones eficaces clásicas (las secciones eficaces son unos objetos que sirven para expresar los procesos de colisión y están relacionados con las amplitudes de transición que comentaba antes). A nivel tree los diagramas de Feynman dan resultados finitos. Sin embargo, en cuanto nos vamos a diagramas con loops los resultados se vuelen infinitos y hay que ver si se puede lidiar con esos infinitos de algún modo para obtener respuestas finitas. Sí ello es posible se dice que la teoría es renormalizable.

Para entender un poco mejor el tema usemos el ejemplo de la wiki, el lagrangiano de la QED.

Ese lagrangiano consta de tres partes básicas. Una es el lagrangiano de Dirac que describe un fermión libre standard (no quiral). Otro término L_{em}=\frac{1}{4}F_{\nu \mu}F^{\nu \mu} (lo he escrito omitiendo las B’s) es el que describe el campo electromagnético libre. El otro término, el que, operando para dejarlo por separado, vendría a ser L_{int}=ieA^{\nu}\Phi es el que describe la interacción. La e que aparece multiplicando sería la constante de acoplo que en el caso del electromagnetismo es la constante de estructura fina, que suele escribirse con la letra alpha, pero bueno, mantengo la notación de la wikipedia. Según decía, y como comentan en la wikipedia, los diagramas con uno y mas loops suelen dar resultados divergentes cuando se calculan. Eso se debe a que en el cálculo hay que efectuar integrales indefinidas que resultan no estar acotadas. Hay diversas técnicas de regularización y renormalización (Pauli-Villards, dimensional, función z, etc). Todas ellas tienen una estrategia común. Hay un parámetro, llamémoslo u, y la integral se divide en dos partes, una hasta un valor de inferior a u, y otra desde u hasta infinito (esto es muy transparente en la técnica de Pauli-villars dónde ese u es un momento, denominado momento de corte. En la regularización dimensional se calcula la integral en el plano complejo, cambiando el momento p por p + iu, y luego se hace tender u a 0). Una de las partes de la integral dará un resultado finito, el otro un resultado infinito. La idea de la renormalización es que tenemos que añadir al lagrangiano original unos términos que den un nuevo diagrama de Feynman que anule la parte infinita de el diagrama original. Eso se va a poder hacer siempre, lo malo es que esos nuevos términos, en general, van a tener su propia constante de acoplo. Y luego, por cada nuevo loop, tendremos que añadir mas contratérminos, con mas constantes. En general una teoría con estas características va a ser inútil porque si bien término por término va a tener resultados finitos resulta que cada nuevo término añade una nueva constante que debe ser medida experimentalmente y, por consiguiente, se vuelve no predictiva.

En el caso de las teorías renormalizables los contratérminos tienen la misma forma que el término de interacción orginal. Eso hace que podamos anular los resultados infinitos mediante cambios en el valor de los campos, masas y consantes de acoplo. Se supone que el lagrangiano original “desnudo” (bare en inglés, de ahí la B que añade la wiki a los términos del lagrangiano) no puede observarse porque debido a fluctuaciones cuánticas un electrón va a estar rodeado de una nube de pares electrón/positron virtuales que apantallan la carga desnuda. Por ese motivo, la carga, la masa, la función de onda, y, lo más importante, las constantes de acoplo, van a depender de la energía a la que se mide la interacción. Por eso se habla de “running coupling constants”. Dependiendo de la energía a la que se midan van a tener un valor distingo. Esto es el proceso de renormalización, pero si uno va un poco más allá llega a una ecuación que deben cumplir en general esas constantes de acoplo, la ecuación de Callan-Szymansky. Esa ecuación, usando los resultados a un loop, se puede resolver y nos da el flujo de las constantes de acoplo según cambia la energía. Estos resultados son los que dan la idea de teorías de unificación porque se observa que las constantes de acoplo del electromagnetismo, de la nuclear débil y de la nuclear fuerte casi convergen a un valor común en el que todas las constantes valdrían lo mismo y, por tanto, habría una única interacción. Eso da la idea de teorías de gran unificación (GUT en inglés). Si uno incorpora supersimetría esa casi convergencia se convierte en convergencia, y es uno de los muchos motivos por los que se cree que la supersimetría es importante, pese a no haberse observado.

Bien, ahora ya tenemos (espero) una idea de lo que es eso de “las constantes de acoplo deslizantes”. Al hablar de las GUT he mencionado tres interacciones, pero, aparte de esas, hay otra, la gravedad. Tanto en la teoría de Newton cómo en la de Einstein la constante de acoplo de la gravedad es la G de la fórmula de Newton de la gravitación universal F=G \frac{m.m'}{R^2} . En QFT tenemos partículas “materiales” descritas por la ecuación de K-G (partículas escalares cómo el bosón de Higgs) o por la ecuación de Dirac (fermiones no quirales, cómo el electrón o los quarks) o algún tipo de ecuación (Weyl o Majorana para fermiones quirales, cómo el neutrino. Las interacciones viene medidas por partículas virtuales que van a ser partículas vectoriales. Para el electromagnetismo esa partícula es el fotón, para las nucleares fuertes son los gluones y para la nuclear débil los bosones W+, W- y Z0). En las entradas de este blog dedicadas a QFT, por ejemplo la anterior, se pueden encontrar mas detalles. Feynman, uno de los creadores de la QED, y el que desarroló la técnica de los diagramas que lleva su nombre intentó cuantizar la teoría de la gravedad de Einstein por procedimientos análogos a los de la QED. Más adelante de Witt continuó su trabajo y formuló las reglas para los diagramas de Feynman de la relatividad general.

El truco está en que la métrica de la relatividad general (una introducción desde o a relatividad especial y general la tenéis en este blog Minicurso de Relatividad General ) se divide en dos partes g_{\nu \mu} = \eta_{\nu \mu} + h_{\nu \mu} La primera parte, la \eta de esta división puede pensarse que es la métrica de minkowsky que describe la relatividad especial (aunque, en realidad, puede ser cualquier otra métrica que cumpla las ecuaciones de Einstein que se considera una métrica de fondo que no se cuantiza) y la parte con la h es la que describe las fluctuaciones cuánticas. Se supone que esas fluctuaciones corresponden al intercambio de gravitones. El problema es que la teoría cuántica que se obtiene al hacer eso es no renormalizable y uno debe buscar una teoría cuántica de la gravedad de otra manera. La respuesta mas desarrollada de la gravedad cuántica es la teoría de cuerdas. Esta describe la propagación de gravitones y es una teoría renormalizable.

Bien, ya vamos llegando a la idea de la entrada. Sí tenemos una teoría cuántica de la gravedad deberíamos tener que, de forma análoga al resto de constantes, la contante gravitatoria G va a depender de la energía a la que se mide y que es una “running coupling constant”. Lo cierto es que no es un tema que haya visto (al menos que recuerde) tratado en ningún libro standard, ni de QFT, ni de cuerdas, ni tampoco en artículos de introducción a la gravedad cuántica y su problemática. De hecho ha sido mientras pensaba en otros asuntos cuando he caído en que esto podría pasar. Las consecuencias de una “running G” serían varias, pero inicialmente se me ocurrió relacionarlo con los agujeros negros. El planetamiento es muy simple: si el radio de Schwarschild depende de G, y esta varía con la energía, el radio de Schwarschild debería depender de la energía. Esto hay que concretarlo un poco, claro. Una idea sería que cuando hago chocar dos partículas a alta energía estas ven una G renormalizada y, por consiguiente, su radio de Schwarschild debería calcularse con esa Gren y no con la G de bajas energías. Otra idea sería que un agujero negro astrofísico (o uno primordial, formado en los momentos inmediatamente posteriores al big bang) cuando se estuviese terminando de evaporar llegaría a un tamaño en el que “probaría” tamaños muy pequeños, y por tanto energías muy grandes (recordemos, por causa de la relación de incertidumbre de Heisenberg para probar tamaños pequeños necesitamos energías muy grandes). Por tanto, una vez más, ahí podría jugar su papel la Gren.

Bien, una vez que se me ocurrió la idea me puse a buscar si alguien la había considerado ya, y sí, algo he encontrado. Está, por ejemplo, éste artículo On the running of the gravitational constant. Es del 2011 y analiza trabajos previos sobre el asunto. Afirma que no se puede dar una definición universalmente válida para esa “running G”. Ahora bien, sí uno mira los cálculos observa que están hechos con la gravedad cuántica mas sencilla, la cuantización directa de la gravedad de Einstein, que sabemos que no es renormalizable. Todos los demás artículos que he visto sobre el tema también hacen algo similar. Eso, por supuesto, es muy chocante. ‘t Hoof demostró que si bien la gravedad pura (sin términos de materia) es renormalizable a 1 loop no lo es si se introducen términos de materia (y desde luego no lo es a 2-loops, incluso sin materia). Eso hace que, salvo que se usaran para calcular la “running G” diagramas de interacción entre dos gravitones no se podría hacer nada en el sentido habitual. Y, de hecho, por lo que he visto, los cálculos usan interacción de materia con la gravedad. No he seguido los detalles, pero si está claro que no pueden seguir los pasos habituales. De hecho en ese artículo ya aclaran que es precisamente por no ser renormalizable la teoría por lo que no hay una definición universalmente válida de esa “running G”.

El caso, y esto es lo que me sorprende, si uno va a teorías de supergravedad, que son teorías de campo ordinarias. Se tiene cree que en general la teoría no es renormalizable. En los 70-80 se encontraron argumentos que así lo afirmaban, aunque en la década pasada se han revisado esos argumentos y, al menos por un tiempo, hubo esperanza de que tal vez, las mas supersimétricas, de ellas, si fuesen teorías renormalizables después de todo. ahora ya no está tan claro, y, en cualquier caso, aunque fuesen renormalizables se sabe que no podrían incorporar el modelo standard mediante mecanismo de Kaluza-Klein. En todo caso estas teorías de supergravedad, incluso con una carga supersimétrica, sí son rernormalizables a 1-loop, y creo que a mas loops, incluso interactuando con materia. Siendo así me pregunto porque no se usan esas teoris de supergravedad para calcular esa “running G”. Y, desde luego, la teoría de cuerdas da una teoría cuántica de la gravedad renormalizable ¿Por qué no usan la integral de Polyakov y demás para obtener esa “running G? Estoy revisando material, a ver si encuentro respuestas.

En cualquier caso hay muchos indicios de que una teoría perturbativa no va a incorporar todos los aspectos de la gravedad cuántica. En el cálculo de la entropía de un agujero negro en teoría de cuerdas se usaron objetos no perturbativos de esta teoría, las black branas (objetos de la supergravedad que generalizan a los agujeros negros, que son obtenibles cómo límite de las supercuerdas) formadas por apilamiento de D-branas. Más adelante se vió que, en realidad, la clave está en el cómputo de la entropía de una teoría conforme que describe la proximidad del horizonte y que no son necesarios todos esos detalles finos de la teoría de cuerdas. No obstante hasta que esos grados nuevos de libertad se vuelvan importantes yo creo que la “running G” sería válida. Estoy mirando material para precisar los límites esos, ya veré que saco.

Pese a todas estas consideraciones uno podría pensar que, después de todo, el resultado obtenido en una teoría completa de la gravedad cuántica no debería diferir mucho de lo que se obtiene por los métodos imperfectos que usa esta gente. Y como quiera que en ese artículo dan un resultado concreto (que coincide con el obtenido en otros artículos) uno podría usar, a modo de estimación, esa expresión y ver cómo afecta eso a la creación de agujeros negros en colisiones de partículas, y, por otro lado a la desintegración de agujeros negros “grandes”. Estoy ahora mismo terminando los cálculos, y pondré una entrada cuando los termine y tenga tiempo. Por supuesto que nadie se tome esto terriblemente en serio. Son cálculos relativamente sencillos, y es divertido. Anticipo ya que, con menos detalle, otra gente ha hecho algo similar y, según ellos, y cómo yo sospechaba por estimaciones groseras, con esa G renormalizada los agujeros negros empiezan a formarse con menos energía. En particular en un artículo afirman que podría ser que, incluso con 4 dimensiones (sin necesidad a recurrir a dimensiones extra mesoscópicas cómo en los modelos de braneworlds inspirados en teoría de cuerdas) a la escala de unos pocos TeV podrían formarse agujeros negros. Y, sospecho, por estimaciones groseras que he hecho, que la radiación Hawking se debilita conforme el agujero se empequeñece haciendo que estos agujeros sean mas estables de lo que se pensaba. Pero vamos, insisto, todo esto está traído por los pelos y es especulación sin una base demasiado sólida, así que recomiendo al lector que trate esta entrada, y la que debería venir después cómo algo pedagógico sobre aspectos ya conocidos en la que, además, se presenta algo ligeramente nuevo, cómo una especulación poco sería, aunque, eso espero, entretenida de considerar.

Sobre la naturaleza de la masa

febrero 3, 2014

Sin duda el que mejor nos podría aclarar este tema es el físico Bruce Banner, más conocido por su alterego Hulk, la masa en castellano, pero cómo no está localizable en estos momentos tendré que hacer mis propia exposición del asunto ;).

Tal vez, dado que el año pasado se concedió el nobel a Higgs por su trabajo teórico, corroborado por el descubrimiento del famoso bosón este año pueda parecer, según se comenta en la divulgación, que el tema está resuelto: el higgs es lo que da masa a las partículas. Pero, la verdad es que el asunto es mucho mas sutil. Voy a explicar primero porqué el mecanismo de Higgs no nos dice gran cosa, a nivel fundamental, sobre la naturaleza de la masa.

En teoría cuántica de campos la masa aparece cómo una constante en las ecuaciones o en los lagrangianos. Por ejemplo, en el caso de una partícula escalar, regida por la ecuación de Klein-Gordon, es una constante que multiplica al término cuadrático en el campo.

\frac{1}{c^2}\frac{\partial^2}{\partial t^2}\Phi - \nabla^2\Phi+ \frac{mc^2}{\hbar}\phi = 0

Algo similar ocurre en la ecuación de Dirac.

\left( i \hbar c\sum_{\nu=0}^3 \gamma^{\mu} \frac{\partial}{\partial x^{\mu}} \Psi + i m c^2 \right) \Psi = 0

Aquí he escrito las ecuaciones manteniendo todas las unidades y evitando el uso de las unidades naturales (h=c=G=1) para que se entienda mejor porque hablamos de un término de masa. En ambas ecuaciones tenemos un primer término “cinético”, que contiene las derivadas de la función de onda. El siguiente término contiene unas constantes que multiplica a la función. Escribiendo las ecuaciones es difícil ver porque surgen esas constantes concretas y habría que atender a la derivación de las ecuaciones. Es más fácil verlo desde el lagrangaino.

El Lagrangiano de K-G es:

dónde \mu=\frac{mc}{h}

Y el de Dirac:

Aquí los términos de masa aparecen multiplicando a los términos cuadráticos en las correspondientes funciones de onda. El motivo de que se interpreten como términos de masa proviene del análisis diménsional en cuyos detalles no voy a entrar, aunque no son muy complejos. La idea es que el lagrangiano debe ser adimensional y que las funciones de onda de los campos tienen unas dimensiones naturales. Los términos que multiplican a las funciones deben tener una dimensión tal que cada término sea adimensional. Y, en el caso de los términos cuadráticos eso significa que lo que los multiplica debe tener dimensión de masa (o más bien energía, nótese el factor c^2).

Bien, eso significa que podemos poner un valor arbitrario a m, y tener partículas bosónicas escalares (ecuación de Klein-Gordón) y fermiónicas (ecuación de Dirac) con un valor arbitrario de su masa. Y, desde luego, no necesitamos para nada el bosón de Higgs. Esas ecuaciones describen partículas libres, pero si acoplamos las mismas a el campo electromagnético, lo que vendría a ser la electrodinámica cuántica (QED, por sus siglas en inglés) nos valdrían los mismos términos y seguiríamos teniendo que la masa no es nada más que una constante que aparece multiplicando a un término del lagrangiano y, una vez más, no es necesario el bosón de Higgs. Cierto es que la QED no describe nuestro universo porque en ella no se incluyen las fuerzas nucleares fuertes y débiles (y mucho menos la gravedad), pero es una teoría cuántica de campos perfectamente válida.

El problema viene cuando uno quiere incluir bosones vectoriales masivos. El electromagnetismo viene descrito por los campos eléctrico y magnético. Estos pueden derivarse respectivamente de un potencial escalar y un potencial vectorial. En relatividad general estos se combinan en un cuadripotencial que es el que aparecería en el lagrangiano. Ese campo electromagnético describe fotones, bosones vectoriales, que son partículas sin masa. Y esa es la clave, la ausencia de masa. Si queremos introducir bosones vectoriales con masa podemos hacerlo de manera similar a lo que se hace con la ecuaciónde Klein Gordon y la de Dirac y llegaríamos a la ecuación de Proca y su correspondiente Lagrangiano:

El problema de esta ecuación es que si se intenta introducir una interacción entre los campos vectoriales masivos que describe esa ecuación y un campo de Klein-gordon, o uno de Dirac, siguiendo el mismo procedimiento que se hace en QED se llega a que la teoría obtenida no es renormalizable, y por tanto inválida ya que no es predictiva.

Bien, ahí es cuando ya sí aparece el mecanismo de Higgs. No he explicado, ni en esta entrada ni en ninguna anterior, cómo surgen en general los bosones vectoriales de una forma general, dentro de lo que se conoce cómo teorías de Yang mills. Quien quiera leer detalles que consulte en la wiki sobre yang mills theory La idea general es que cuando uno tiene un lagrangiano que es invariante bajo una simetría global (la misma transformación de simetría en todos los puntos del espacio-tiempo) y la hace local (el mismo tipo de simetría, pero actuando localmente en cada punto del espacio-tiempo) uno debe introducir, para que el lagrangiano siga siendo invariante bajo la simetría local, unos campos que compensan ese cambio. Esos campos van a ser los bosones vectoriales. Cuando la simetría es el grupo de Lie U(1) se obtiene que el campo asociado es el electromagnetismo. Cuando es SU(3) se obtiene que la teoría es la QCD (Quantum cromodynamics, la teoría cuántica de las interacciones nucleares fuertes). La interacción nuclear débil está asociada al grupo SU(2), combinado con el grupo U(1), pero ahí ya inerviene de manera fundamental el mecanismo de Higgs. En las teorías de Yang-Mills todos los bosones vectoriales que aparecen son de masa nula. Eso no es problema para el electromagnetismo com oya hemos dicho. pero las interacciones nucleares son de muy corto alcance y, por consiguiente, uno espera que las partículas mediadoras de esa interacción, los bosones vectoriales, tengan mucha masa, y, cómo hemos dicho, la teoría deYang-Mills, que por lo demás es muy elegante, no nos sirve de nada. La teoría de Proca, con términos de masa directos para los bosones tampoco.

Bien, el mecanismo de Higgs, en cuyos detalles no entraré aquí (ver mecanismo de higgs en la wiki) lo que hace es que partiendo de una teoría de Yang-Mills con bosones sin masa acoplados a una teoría de Klein-Gordon que describe un bosón (el bosón de Higgs), con masa y un término potencial elegido de manera apropiada, nos lleva a que cuando se produce un fenómenoo conocido como ruptura espontánea de simetría. La idea es que el grupo de simetría inicial se ve reducido cuando el bosón de Higgs toma un nuevo valor de vacío correspondiente a un valor de mínimo (se supone que inicialmente estaba en un valor de máximo inestable). Cuando uno reescribe el lagrangiano desarrollado alrededor del nuevo vacío del bosón de Higgs resulta que los campos vectoriales han obtenido un término de masa, relacionado con el potencial del bosón de Higgs, y que la teoría resultante si es renormalizable. Digamos que, si quiere verse así, la masa de los bosones vectoriales se obtiene a partir de la energía potencial del bosón de Higgs. Realmente los detalles son algo mas complejos, pero,, más o menos, esa es una parte esencial de la idea.

Eso está bien, un término de masa está originado en un término de energía potencial. Y, desde luego, nos da una teoría renormalizable que en la práctica nos permite obtener el modelo standard SU(3)xSU(2)xU(1), pero el caso es que el bosónde Higgs sigue teniendo su término de masa, de cuyo origen nada sabemos, y tampoco sabemos porque el potencial de Higgs tiene esa forma (no tenemos ninguna teoría fundamental que nos sugiera de dónde sale esa forma para el potencial, al menos hasta dónde yo sé). Por cierto, he mencionado que el Higgs da masa a los bosones vectoriales. Si uno hace los detalles de la teoría electrodébil se ve que también da términos de masa paara los fermiones. Sin embargo no toda la masa de los fermiones del modelo standard surge del mecanimso de Higgs. Hay mas mecanismos implicados en cuyos detalles no voy a entrar.

En definitiva, el mecanismo de Higgs es algo útil, pero, en mi opinión no da una idea fundamental de qué es la masa. En entradas sucesivas intentaré reflexionar más sobre el asunto, aportando algunas ideas propias al respecto que si bien no creo que vayan a ser de gran trascendencia creo que pueden resultar entretenidas y tal vez ayuden a reflexionar sobre el particular.


Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 28 seguidores