String technology: brane bombs, rayos desintegradores, escudos ultrarresistentes…

octubre 26, 2014

Cómo ya he dicho mas veces hace unas décadas la ciencia ficción imaginaba nuevas tecnologías, muchas de las cuales se han visto realizadas, y muchas otras, posiblemente algunas de las más interesantes, no.

Hoy en día la mayoría de los autores de ciencia ficción están muy por detrás de la ciencia actual y son incapaces de concebir cosas que sean medianamente basadas en física seria y sean novedosas. En vista de ello voy a dedicar esta entrada a explicar algunas ideas para posibles nuevas tecnologías basadas en la teoría de cuerdas. El nivel va a ser a nivel de ciencia ficción hard, con conceptos más o menos firmes, y alguna fórmula. Son todo ideas propias aunque supongo que cualquiera que domine la teoría de cuerdas podría tener ideas similares o mejores.

Por supuesto antes de exponer las ideas necesito explicar bastante cosas de ciencia. Muchas de estas ideas ya han sido expuestas en este blog, pero en mor de intentar la mayor autocompletitud posible se volverán a exponer.

El concepto de brane bomb (sería mejor hablar de bombs, porque habría varios tipos) no sé si ha sido considerado con anterioridad. Se me ha ocurrido a mí, y no he consultado aún si hay algo hecho en esa línea. Está, como su nombre sugiere, basado en el concepto de branas (sobre todo Dn-branas) de la teoría de cuerdas.

Una Dn-brana viene a ser un objeto de n dimensiones (hay varios valores, entre 1 y 9 posibles para n). Esas branas serían zonas en las que se pueden mover los extremos de una cuerda abierta. Eso llevó al concepto de braneworld, consistente en que el universo de 3+1 dimensiones sería una D3-brana en el que se moverían las partículas del modelo standard, que serían cuerdas abiertas, y sólo el gravitón, que es una cuerda cerrada, podría moverse en las dimensiones extra (recordar que las cuerdas requieren un universo de 9+1 dimensiones.

El concepto más sencillo de braneworld admite muchas generalizaciones. En todo caso los elementos genéricos que necesitan conocerse para entender lo que sería una brane bomb necesitan que explique alguna cosa más recordemos que la forma más simple de reconciliar las dimensiones extra de la teoría de cuerdas con el universo de 3+1 dimensiones es hacer que esas dimensiones sobrantes sean de un tamaño inapreciable (del orden de la longitud de Planck en el caso más típico). Se dice que esas dimensiones están compactificadas. Las propiedades de la física del modelo standard (que es una teoría cuántica de toda la física observada experimentalmente, excepto la gravedad, la materia oscura y la energía oscura) depende de las propiedades de esa compactificación: por ejemplo, el número de familias de partículas sería el número de Euler de la variedad en que se compactifican las dimensiones.

En torno a esas dimensiones dobladas sobre si mismas podría haber Dn-branas que se enrollasen en ellas total o parcialmente. En De ese modo se conjugan los modelos más sencillos con los de d-branas. Es importante notar que el tamaño de esas dimensiones extra debe mantenerse bajo control. Ese tamaño y forma está asociado a unos campos escalares llamados moduli, en referencia a los moduli de geometría algebraica. Un moduli sería un parámetro que nos daría información sobre la forma de una familia de superficies. El caso mas sencillo posible seguramente sea el moduli de un toro. En este caso el móduli sería un cociente entre los dos radios del toro. En teoría de cuerdas ese moduli matemático sería un campo escalar cuyo valor fijaría las proporciones y tamaños de la compatificación.

Para que el tamaño esté fijado debe generarse un potencial para esos moduli. Caso de no ser así habría una inestabilidad potencial y cualquier pequeña perturbación podría hacer que alguna, o todas de esas dimensiones extras creciera o decreciera sin control. En una versión mas refinada se tendría lo que se conoce cómo el problema de polony. Los moduli, por argumentos relacionados con la supersimetría, y en concreto la energía en la que se rompe la supersimetría Msusy. En concreto tendrían una masa del orden de m=c.M_{susy} dónde c es un parámetro del orden de M_{susy}/M_{planck}. Con esa masa los modelos cosmológicos indican que los moduli aportarian demasiada energía en el inicio del universo conduciendo a una sobreclausura. Para evitar ese problema se debe general algún potencial para los moduli Ese potencial lo generaría el flujo, una generalización del concepto del flujo magnético, de unos campos antisimétricos que tendrían su fuente en las Dn-branas. Entrar en mas detalles haría que el post se volviese demasiado técnico. Un buen review, relativamente sencillo, de la teoría de compactificaciones de flujo es Pyhsics of String Flux compactifications

Es importante entender que las constantes de acoplo del modelo standard (las que deciden la intensidad de las interacciones) dependerían del tamaño de esas dimensiones extra. Por ejemplo, en el caso mas trivial posible, el modelo de Kaluza-klein del electromagnetismo, muy anterior a la teoría de cuerdas (1919) la constante de estructura fina está relacionada con el radio R de compactificación por la expresión \alpha=\frac{4l_p^4}{\Phi R^2}  Aquí \Phi es el dilatón, el campo que fija el tamaño de la compactificación, y sería, por tanto, un moduli, aunque uno muy especial. Aclaro que las cosas no son tan sencillas en un escenario realista. Sabemos por el modelo standard (verificado al haberse descubierto el bosón de Higgs) que el fotón está asociado a una simetría gauge que proviene de la ruptura de simetría de un grupo SU(2)xU(1) electrodébil. El U(1) de antes de la simetría no es el mismo U(1) del electromagnetismo. El fotón es una combinación del campo Z (bosón electrodébil neutro) sin masa antes de la ruptura de la simetria, y el bosón del U(1) original. Podríamos irnos a alguna realización”stringy” del modelo standard SU(3)xSU(2)xU(1) que, en principio, nos daría las constante de acoplo de los diversos grupos gauge directamente a partir de los tamaños de compactificación y luego, echando para atrás, a partir de los ángulos de Weinberg y de los valores observados de las constantes deducir el tamaño de cada una de esas compactificaciones. Por supuesto los detalles matemáticos serían horribles, y, además, nada nos garantiza que ese modo de obtener el modelo standard a partir de la teoría de cuerdas es el que ha seguido la naturaleza. El problema del landscape nos dice que podría haber una cantidad enorme, el número que se suele dar es 10^500, formas de obtener el modelo standard a partir de las cuerdas. Pero eso, para los propósitos de lo que quiero discutir aquí no es tan importante.

La idea que nos interesa es que, sí de algún modo pudiéramos controlar los flujos que regulan el potencial de los moduli podríamos cambiar el valor de las constantes de acoplo. Claro, el valor observado de las constantes depende de elementos circunstanciales (a que escala se rompió la supersimetría, el valor de vacío que tomó el bosón de Higgs, etc), y no es nada sencillo imaginar que pasaría exactamente sí se lograra cambiar algún móduli concreto, entre otras cosas porque no sabemos experimentalmente nada más allá del modelo standard, que ni siquiera tiene supersimetría. Pero, en principio, una física más avanzada que conociese esas cosas (suponiendo que la supersimetría y la teoría de cuerdas son la descripción correcta de esa física) podría predecir ese tipo de cosas.

Para más dificultad, y ya a modo de explicar mas cosas sobre cuerdas, señalar que los escenarios concretos que se pueden dar en teoría de cuerdas son muy variados. Puede haber varias Dn-branas, de diferentes dimensiones, enrolladas sobre diferentes “agujeros” de las dimensiones compactificadas, y que unos campos gauge vivan en membranas diferentes, con los fermiones viviendo en las intersecciones de dichas branas, claro. Es complica aún más los cálculos, pero bueno, a los físicos se nos paga (o debería pagar) por ese tipo de cosas.

Vamos ahora con los conceptos pertinentes de las bombas. Una bomba siempre está asociada a una reacción exoenergética espontánea. Esto se da cuando se tiene un estado estable, que deja de serlo al cambiar las condiciones por ejemplo, al añadir un nuevo reactivo) o uno metastable es decir, qué puede llegar a otro estado de menos energía, pero para ello se requiere un aporte de energía para superar un gap que impide alcanzar el nuevo vacío. Es importante, además, que la diferencia de energía entre ambos vacíos sea menor que la del gap. De ese modo se puede dar una “reacción en cadena” en la que parte de la energía liberada cuando una zona concreta de la sustancia alcanza el nuevo vacío se usa para que otra parte de la sustancia supere a su vez el gap. Los detalles cambian, pero cualquier bomba (o ya puestos, fuente de energía, al fín y al cabo la diferencia entre una bomba y una fuente de energía es básicamente la velocidad de la reacción) se basa en esos principios.

Un caso muy típico es el de las reacciones nucleares. Hay una fórmula, la fórmula semiempírica de masas, que nos da las masas (relacionadas con las energías de ligadura) de los núcleos en función de su número Z. Esta es la gráfica de esa relación.

He sacado la imagen de una página que explica los detalles de esa fórmula. NIELS BOHR Y LA FISIÓN NUCLEAR

La idea es que hay un máximo de la energía de ligadura para un cierto Zc (un valor relativamente pequeño). Para átomos con un Z menor que Zc es favorable una fusión de los mismos para tener una ligadura mas fuerte (valor mas estable) y para átomos con Z mayor que Zc es favorable que se dividan en otros mas pequeños.

Bien, entonces tenemos ya los ingredientes para los rayos desintegradores, brane bombs y demás. Vamos a ir con ello.

Imaginemos que logramos modificar, en una zona concreta del espacio, el valor de una constante fundamental, por ejemplo la constante de fermi G_F (el modelo de fermi es un modelo fenomenológico que describe muchos de los procesos de desintegración nuclear débil, y puede ponerse en términos de las constantes del modelo de Weinberg-Salan SU(2)xU(1)). Eso podría hacer que las desintegraciones nucleares ocurriesen a un ritmo muchísimo mas veloz que el actual. La mayoría de los núcleos son inestables, aunque su ritmo de desintegración es totalmente despreciable. Pero sí se hace que G_F sea lo bastante grande cualquier cosa se podría desintegrar en un tiempo arbitrariamente pequeño.

Y ahí ya entramos un poco en imponderables. Lo normal sería que para crear esa zona con G_F enorme tuviéramos que aportar muchísima mas energía de la que producirían los núcleos al desintegrarse. En ese caso habríamos creado una zona del espacio que desintegraría la materia. Sí esa zona la podemos expandir en forma de rayo, pues sí, tendríamos un rayo desintegrador. No tengo claro cómo sería de energético el proceso de desintegración en sí. Una bomba de fisión nuclear genera mucha energía en poco tiempo porque es una reacción autocatalizada, y que ocurre en un tiempo infinitésimal. Sí ajustamos los valores para que, en promedio, los átomos de un cuerpo macroscópico típico se desintegren en, digamos 5 segundos, y teniendo en cuenta que los núcleos normalmente estables lo son porque están relativamente cerca de el máximo de energía de ligadrua, y que, por tanto, el gap de energía al desintegrarse sería pequeño, supongo que el cuerpo se desintegraría “limpiamente” y no en una explosión que aniquilaría todo lo de alrededor, pero tampoco estoy muy seguro. Sería un ejercicio interesante para un examen de un curso introductorio de física nuclear ;-).

Vamos ahora a ver un modelo posible de “bomba brana”. Imaginemos que vivimos en un mundo dónde las branas están enrolladas sobre una de las dimensiones extra. Sí en un punto hacemos crecer el valor del flujo lo suficiente podríamos plantearnos la posibilidad de “pinchar la brana” en ese punto. Aclaro que ese concepto no tengo claro que esté contemplado en detalle (o incluso si está contemplado) en la ortodoxia. En principio creo que sería posible, y que podría intentar calcular la energía necesaria usando la acción de Bron-Infield que describe el comportamiento de la brana, pero ni me planteo ahora meterme a analizar los detalles. Bien, sí eso es posible se generaría, imagino, una onda de Shock en la brana. Esa onda se transmitiría por la brana desde le punto de “pinzamiento”. La brana, dentro de la cuál vivimos, respondería a esa onda calentándose a grandes temperaturas. Eso es al menos lo que se propone en el modelo cosmológico conocido como modelo ekpirótico en el que el “big bang” se debería a una colisión de la brana que vivimos con una paralela. El modelo en sí está bastante desacreditado, pero los cálculos de lo que ocurriría sí una brana choca con otra debería ser similar a lo que produciría la onda generada por un pinzamiento, imagino.

Los efectos de esa hipotética “bomba brana” sería que en una zona del espacio-tiempo, expandiéndose cómo una onda desde el punto de pinzamiento (punto de la “explosión”) la temperatura alcanzaría un valor elevadísimo (cuanto depende de los detalles). Ese calor, al estar en la brana, y está en el propio espacio-tiempo, actuaría desde dentro de los cuerpos sólidos, no desde fuera. Sin meterme a calcular se puede estimar que las energías y temperaturas deberían ser mucho mas elevadas que las de cualquier bomba nuclear. Además, la “explosión” iría por “dentro del espacio-tiempo” y no serviría de nada ningún tipo de barrera o escudo.

Y vamos con el último punto, los escudos ultrarresistentes (pero inútiles contra bombas brana xD). La idea seria crear una zona dónde la constante electromagnética alpha fuese mas grande (sin tocar el resto de constantes de acoplo). Eso, en principio, dejaría la materia estable, pero permitiría que los átomos se pudieran agrupar mucho mas cerca unos de otros. Para hacernos una idea de los órdenes de magnitud con los que podríamos jugar esta bien esta visualización. Sí hiciéramos crecer un núcleo atómico al tamaño de un balón de fútbol el átomo tendría el tamaño de la provincia de Madrid. Cómo no se pueden agrupar átomos mas cerca de su tamaño atómico, y la masa del átomo está casi toda en el núcleo, tenemos que la materia sólida es, en cierto modo, increíblemente porosa y muy poco empaquetada. Si hacemos crecer alpha lo bastante tendríamos que podríamos empaquetar la materia muchísimo más. Y no sólo eso, los enlaces electromagnéticos, de los que dependen las propiedades de consistencia de la materia ordinaria, serían mucho mas fuertes, y tendríamos por tanto una materia muy densa y muy resistente, ideal para construir materiales que sirvieran de escudos, bien contra bombas nucleares, bien contra rayos cósmicos. Esto último serviría para evitar que los astronautas recibieran demasiada radiación en largos viajes espaciales. Bueno, y también, supongo, se podría hacer escudos capaces de resistir el impacto contra micrometeorítos (aunque no sé yo sí con eso bastaría para asegurar la supervivencia del astronauta pues aunque no se rompiera el escudo la deceleración podría ser lo bastante como para pulverizar al astronauta contra el caso de la nave, sería cuestión de hacer los cálculos).

Obviamente todo lo que he dicho es muy, muy hipotético, empezando porque la propia teoría de cuerdas es hipotética en si misma. Pero incluso dentro de la teoría de cuerdas hago muchas suposiciones. Además, no explico, porque no tengo ni idea, cómo podríamos controlar el campo de flujo que nos permitiría cambiar el valor de los moduli, y por tanto de las constante de acoplo. Incluso sí esto estuviera bien tampoco analizo los detalles exactos que sí se podrían calcular usando la física conocida. Todo eso llevaría muchísimo tiempo, y no tengo claro que fuese algo que se pudiera incluir en ningún programa de investigación “vendible” a una universidad.

Con todo creo que puede ser interesante para estimular un poco la imaginación de que tipo de tecnologías se podrían crear basadas en la teoría de cuerdas (sí esta resulta ser cierta) y que son imposibles en el marco de otras teorías. Y, además, me ha servido de excusa para divulgar un montón de conceptos interesantes en si mismos. Espero que una cantidad suficiente de lectores hayan entendido lo suficiente, porque admito que no es un asunto para nada sencillo, pero, hey, es ciencia ficción basada en el cutting-edge de la física actúal, algo que hecho muchísimo en falta en la literatura de género actual. Dejo total libertad a que cualquier escritor de CF use estas ideas (aunque caso de hacerlo agradecería que dejase referencia). Por supuesto si cualquiera usa estas ideas para construir una bomba brana y destruir el planeta tierra yo declino toda responsabilidad ;-).

Los resultados de BICEP2 casi desmentidos por los datos de Planck

septiembre 22, 2014

Hace unos meses el experimento BICEP2 proclamó haber encontrado evidencias de ondas gravitacionales primordiales, producidas por la inflación, siendo pues una evidencia también de la existencia de la inflación. Esto se había logrado al encontrar modos B en el fondo cósmico de microondas. Este tipo de ondas significan que un ratio, llamado r, tenía un valor 0.2, mucho mayor que lo esperado según los modelos considerados hasta ese momento.

Desde la publicación de ese anuncio el arxiv ha visto una media de tres artículos diarios sobre inflación (eso he leído, habiendo seguido el arxiv casi a diario yo diría que más). Yo, en su momento, no puse nada sobre la noticia por un sencillo motivo: en el pasado he dejado constancia de muchos posibles descubrimientos, y, excepto el Higgs, todos han resutltado quedar en nada (vale, también es que para cuando había entendido bien que eran los dichosos modos B, el índice r, y el resto de detalles la noticia ya había dejado de serlo xD).

El caso es que cuando se publicó el resultado ya se avisó que era necesario que otros experimentos relacionados, y en particular el satélite Planck, contrastaran la observación. Hoy el experimento Planck se ha pronunciado, y lo que ha dicho es que el resultado de BICEP2 podría ser debido exclusivamente a polarización del fondo de microondas provocado por polvo interestelar en la zona de cielo observada y no debido a ondas primordiales. El problema es que BICEP2 medía la polarización exclusivamente en una frecuencia, y dependía de modelos teóricos para estimar el fondo. Planck usa medidas en 5 frecuencias, y mira una zona mas amplia del cielo, y no tiene ese problema.

El artículo de Planck en cuestión es éste: Planck intermediate results. XXX. The angular power spectrum of polarized dust emission at intermediate and high Galactic latitudes.

Se puede leer más sobre el tema en el blog de Sean Carrol, preprosperous universe: Planck Speaks: Bad News for Primordial Gravitational Waves? o, también, en un blog que no conocía de nada, cuyo link ha dado Peter Woit ‘Big Bang Signal’ Could All Be Dust. Este último blog da muchos detalles, y no me cabe duda de que la mayoría de los blogs famosos tendrán entrada al respecto, así que recomiendo ojearlos.

De haberse confirmado este experimento habría significado un premio nobel teórico para los proponentes de la inflacción (Allan Guth y Andre Linde), y otro para el grupo experimental, bien por la medida de la inflación o bien por las ondas gravitacionales (al fín y al cabo sería la primera evidencia casi directa de la existencia de las mismas), o incluso uno nobel por cada uno de los descubrimientos, vaya. Pero, en vista de lo que ha publicado hoy Planck parece que va a quedarse en nada, lo cuál, con la escasez de descubrimientos positivos en física y cosmología fundamental, es siempre algo antipático. De hecho esta contumaz costumbre de resultados experimentales a medias, que siempre terminan siendo desmentidos, que tenemos en la última década es lo que hace que cada vez me de mas pereza publicar sobre lo que se está haciendo hoy día y me divierta más escribir sobre ideas propias, que aunque no sean tan importantes cómo lo que pueda hacerse por ahí, me resulta mas entretendio exponer. Aún así seguiré poniendo de vez en cuando noticias sobre temas que me resulten llamativos y también seguiré con otras entradas didácticas sobre temas ya establecidos.

Juegos formales: Masas tensoriales I (planteamiento).

septiembre 13, 2014

Debo decir que las cosas que se están haciendo últimamente en física teórica, a nivel mas innovativo, no me entusiasman terriblemente, así que por eso estoy esforzándome en reflejar lo que se está haciendo. Además, ya está el blog de Lubos y otra gente. Uno de los artículos más interesantes en bastante tiempo, que no puedo dejar de recomendar, es éste:
Vafa: supergroups, non-unitary cousins of CFT, and black hole puzzles en el que comenta este artículo de el famoso Cumrum Vafa (posiblemente el físico de cuerdas mas prestigioso después de Ed Witten, con permiso de Juan Maldacena) Non-Unitary Holography.

Hay alguna cosa más, que ya iré mencionando según vaya leyendo y analizando, pero hoy me voy a centrar en algo que estuve haciendo hace un tiempo, y que creo puede resultar entretenido, y que ayuda a replantearse cosas, pasar de una física en la que la masa es una constante a ser una magnitud tensorial.

Lo primero es indicar las motivaciones iniciales para considerar esa posiblidad. La primera idea la tuve a raíz de un polémico experimento de PODKLETNOV y su presunta máquina de antigravedad . La verdad es que el experimento y la polémica quedaron en nada, al menos hasta dónde sé. Pero la idea que me planteé es la siguiente. Sí uno piensa en que en una zona de la tierra hay una máquina de antigravedad eso significaría que el campo gravitatorio resultante perdería su simetría esférica. En el límite en que se hace que la masa que provoca el campo sea puntual tendríamos que en vez de un punto sin estructura en la que estuviera toda la masa tendríamos algo que tendría una distribución angular, bien en forma de vector, o de tensor de segundo orden (o alguna forma mas complicada como un desarrollo en serie de términos tensoriales de orden creciente, pero vamos, mejor empezar por las generalizaciones mas sencillas.

Bien, esa es la primera idea. La segunda sería ¿Y cómo sería el comportamiento inercial de esa masas vectoriales o tensoriales? Por supuesto sabemos que, al menos en promedio, la masa no tiene estructura. Ahora bien, pensemos en un electrón (o cualquier otra partícula subatómica). Imaginemos que moverlo en una dirección sea ligeramente mas difícil que moverlo en alguna otra, pero que la orientación de ese vector, o tensor masa, varíe de un electrón a otro. Así, en promedio, para una cantidad macroscópica de electrones, no habrá ninguna dirección privilegiada. Luego, si vamos a el caso del análisis de un electrón aislado, al ser cuántico y no seguir una trayectoria, pues ya no tiene mucho sentido el estudio clásico y habría que ir a el caso cuántico. La verdad es que imagino que habrá límites experimentales que, desde ya, se pueden hacer a la posible asimetría vectorial/tensorial de la masa de las subpartículas, aunque siempre se podría argumentar que sí son muy pequeños no serían observables si no se busca específicamente.

Una consecuencia práctica de este posible carácter vectorial/tensorial de la materia sería la siguiente. Sí se pudiera “polarizar” la materia de tal forma que todas las subpartículas, orientadas de manera aleatoria, alinearan sus masas en una dirección concreta tendríamos una situación interesante. La “masa total” (el módulo del vector, o sí es un tensor, alguna norma matricial adecuada) se mantendría, pero resultaría que mover un objeto en la dirección del menor valor de la masa sería mas sencillo que en las otras. Así, si realmente la materia tuviera esa naturaleza, y supiéramos cómo polarizarla, podríamos, dependiendo del grado de asimetría, hacer que mover un cuerpo en una dirección requiriese muy poca fuerza (y por consiguiente gasto energético) a costa de que fuese mas difícil de maniobrar, debido a la mayor masa en las otras direcciones. Sí, por ejemplo, la asimetria pudiera ser de un 30% eso significaría que ahorraríamos un 30% de gasto en transporte.

Ok, hasta ahí consideraciones muy mundanas. Vamos a ir a algo mas abstracto. En relatividad general el campo gravitatorio newtoniano pasa a ser la geometria del espacio-tiempo, y en concreto su métrica, un tensor de orden 2 (una matriz, para entendernos). A partir de la métrica (que generaliza el potencial, la componente 00 de la métrica está relacionada con el potencial newtoniano clásico) se obtiene el tensor de curvatura de Ricci, otro tensor de orden 2. Cómo ya mencioné en la entrada anterior, comentando el libro sobre Riemman, la parte de geometría diferencial estaba hecha en 1902 o así, y la idea de que el espacio podría ser curvo llega hasta, cuanto menos, Gauss, y ya un físico formuló una idea de que la materia curvaba el espacio a mediados del siglo XIX. El éxito de Einstein fué pasar de esas consideraciones etéreas a algo mas concreto. En concreto, sospecho, la gran dificultad de la RG, que pasa desapercibida, y no se hace suficiente énfasis, es
cómo relacionar esas ideas geométricas con la materia. La solución, desde el punto de vista actual, es el tensor de energía momento. Una introducción muy detallada a las ideas básicas de ese tensor la podéis encontrar en el estupendo blog sobre la teoría de la relatividad, en concreto esta entrada. En física teórica se suele definir una fórmula general para obtener ese tensor a partir del lagrangiano de un campo. Ese campo puede ser el campo electromagnético, o un campo cuántico genérico, cómo el campo de klein-gordon o el de Dirac. Estos últimos surgen de la idea de tomar la “función de onda” de una partícula que cumpla las respectivas ecuaciones cómo un campo “clásico” cuyo valor se interpreta cómo la probabilidad de crear una partícula que cumpla esas ecuaciones (el bosón de Higgs seguiría la ecuación de Klein-Gordon, el electrón la de Dirac). Lo interesante es que esos lagrangianos, cuando tienen una masa en el término cinético, es una masa “escalar”. Uno se podría plantear que tal vez sea mas “natural” que ya de principio la masa sea un tensor, cómo el lado derecho de la ecuación, el tensor de Ricci. Desde luego no es esta la idea mas habitual. Lo que la gente ha buscado es que la materia sea en si misma algo con estructura geométrica. En esa línea lo último que he visto es un trabajo del famoso matemático (galardonado con la medalla fields), Michael Atiya Geometric Models of Matter que, la verdad, no ha tenido una gran repercusión.

Aparte de estas justificaciones “abstractas” otra motivación mas pragmática y fenomenológica vendría de la posibilidad de que sí vivimos en un “braneworld” en el que la materia está restringida a moverse en una brana tal vez haya alguna asimetría en la brana, que varíe de un punto a otro, y que esa asimetría cause esa “masa tensorial”. O, tal vez, podríamos pensar en un mecanismo de Higgs alterado, con un Higgs que no sea escalar sino vectorial, y que no represente una simetría interna sino externa. La verdad es que esto está muy traído por los pelos y, en última instancia, es casi mas interesante el juego conceptual, y lo que se puede aprender siguiéndolo, que la parte práctica, aunque nunca se sabe ;-).

Bien, entonces tras esta exposición de las motivaciones pasaré, en la siguiente entrada, a exponer cómo implementar la idea, y lo que se aprende en el intento.

RIEMANN: UNA VISION NUEVA DE LA GEOMETRIA

agosto 12, 2014

De vez en cuando me gusta leer biografías de científicos famosos (preferentemente físicos y matemáticos).Este verano he leído de la de Riemann, escrita por Jose Luís Muñoz.

El libro mantiene un muy buen equilibrio entre los aspectos biográficos (especialmente los pertinentes a la parte académica, lógicamente), y los de la matemática.

Empieza por los primeros trabajos en variable compleja (ecuaciones de Cauchy-Rieman para determinar si una función es analítica, superficies de Riemann para funciones complejas multivaluadas, y su utilidad), y en teoría de la integral (integral de Riemann, claro xD) haciendo hincapié no tanto en la definición en sí (se supone que el lector debería tener cuanto menos una base de bachillerato y conocerla) cómo en las implicaciones de esta par aformalizar y poner en base firme muchos resultados anteriores, y posreriores (hasta la llegada de la integral de Lebesgue, y la teoría genera de la medida e integral, que serían necesarias mas adelante, pero eso no quita que la definición de Riman siga siendo muy válida en muchos casos).

Luego pasa a la parte que da al libro su subtítulo. Ahí habla de cómo para obtener una plaza de profesor debe hacer una lectura para conseguir una plaza de profesor permanente. Según la tradición propone 3 temas el último de los cuales era la geometría. Entre el jurado está Gauss, del cuál Riemann había sido alumno. Cómo quiera que Gauss había publicado muy recientemente su trabajo en geometría. Este versaba principalmente geometría intrínseca de superficies, de gran importancia, culminado por su “teorema egregio” que vincula la integral de su curvatura intrínseca -no depende del “embeding” de la superficie en \mathbb{R} ^3 con una propiedad topológica de la superficie, el género, que había aparecido en el trabajo de Riemann en superficies de Riemann compactas. El caso es que bien sea por mala uva (algo siempre posible en Gauss) o porque tenía curiosidad de ver que aportaba alguien tan brillante cómo Riemann al tema decidió que el trabajo versara sobre la tercera opción (cuando siempre se había mantenido la tradición de que versase sobre la primera).

El caso es que, con gran estrés, Riemann preparó una lectura magistral dónde generalizó los resultados de gauss a un número arbitrario de dimensiones. Para ello introdujo el concepto de variedad. Eso sí, cómo el trabajo debía leerse ante un público amplio que, aparte de matemáticos, incluía físicos, biólogos, geólogos, etc, no entraba en muchos detalles. Sea por eso, o por que el autor del libro así lo decidió, la verdad es que apenas comenta ningún punto técnico al respecto.

No obstante, pese a esa falta de detalles técnicos, si hay dos punto muy curiosos. Por un lado menciona a Kingdon Clifford, muy conocido por las álgebras que llevan su nombre, pero mucho menos (yo desde luego lo ignoraba) por su teoría de la gravitación basada en la geometría. Cierto es que ya Gauss había comentado que determinar en que geometría vivimos debería ser algo empírico, y basado en medidas locales (de ahí su geometría intrínseca, inspirada por su trabajo cómo cartógrafo). Pero Clifford va mas allá y afirma que es la materia la que curva el espacio. Esto lo publica en 1870, 45 años antes de que Einstein desarrollase la relatividad general. Por supuesto su teoría es mas una idea filosófica que algo bien desarrollado física y matemáticamente. Y aún estaba lejos el concepto de espacio-tiempo, en el que el tiempo y el espacio es algo que depende del espectador (manteniéndose invariante la velocidad de la luz, o la métrica de minkowsky).

También habla de dos discípulos Italianos (en el final de su vida Riemann fué a dar clase a Italia, por motivos de salud) de Riemmann, Cristoffel y Levi-Civitta. Estos continuarían su trabajo en geometría y construirían el cálculo tensorial que luego usaría Einstein en su relatividad general. Lo curioso es que ese trabajo ya estaba hecho en 1901. Con eso nos quedamos con que el 1870 ya se había sugerido que la materia curvaba el espacio. Muy poco tiempo después, 1907, de publicar su relatividad especial Herman Minkowsky pondría esa teoría en un formalismo geométrico, creando el concepto de espacio tiempo con una métrica constante. En conclusión, Einstein ya tenía en 1907 todos los ingredientes para cocinar su relatividad general. De hecho en la presentación actual el paso de un espacio-tiempo plano a uno curvo es algo tan “autoevidente” que resulta hasta extraño creer que le llevase tanto tiempo dar el salto. Admitamos que Einstein no conociera esa matemática. Pero el cálculo tensorial tampoco es tan complicado de entender (al menos sí lo explica alguien que sepa). Se puede tardar, en la forma en que se presentaba en esa época, unos 4 meses, cómo mucho. Realmente con clases privadas de un experto (cómo fué le caso de Einstein) yo creo que se podría reducir el tiempo a un mes o menos (realmente no sé l oque tardó, a lo mejor visto desde la perspectiva actual parece mas sencillo de lo que era en la época).

Entonces sí todo parecía tan predeterminado ,y estaban todos los ingredientes, y Einstein era tan listo, una vez más ¿Por qué tardó tanto? Bueno, supongo que por un lado porque las cosas parecen mas sencillas después. Y, por otro, porque estaba listo todo el aparato matemático de la geometría. Lo que no estaba nada, nada claro, sospecho, es cómo relacionar la materia con esa geometría. Además, Einstein trabajaba con observadores. Desde un punto de vista geométrico las cosas se ven de una forma, y desde los observadores de otra. Supongo que uno podría plantearse que pasa con observadores con aceleración lineal constante primero, y luego con una aceleración centrípeta constante (he leído varias biografías de Einstien, y me parece recordar que en parte si hizo eso). De hecho es pensando en observadores cómo sale el famoso experimento mental del ascensor, y de ahí la idea de la geometría cómo campo gravitatorio (en realidad hay mas factores históricos, pero eso es otro asunto). Pero, insisto, yo creo que la parte que fué mas difícil es la de la inclusión de la materia. Realmente uno puede saltarse toda esa búsqueda de Einstien y tener una forma de trabajo “operativa”. Aprende a calcular el tensor de Einstein y luego sabe que al otro lado está el tensor energía-momento. Se puede quedar con que para un fluido (algo importante en cosmología) tiene la forma que tiene (sí le apetece se lee los detalles de porque eso está relacionado con la teoría de fluidos standard). Y, luego para cuando se empieza de un lagrangiano, uno se queda con que del lagrangiano se saca el tensor energía momento mediante variaciones. Es algo realmente latoso el cálculo de ese tensor, no confundir con el tensor de energía-momento de nóether, con aquello de calcular las variaciones respecto a la métrica, y hay que usar varias formulilas para poner eso en forma tratable y etc, etc (yo hice hace poco el cálculo del tensor energía-momento de una cuerda bosónica, para ver si era capaz de reproducir los resultados de libro, y me costó lo suyo aunque la final lo saqué). Per ovamos, eso, que si a uno le plantan el lagrangiano del sector geométrico ya sabe que de ahí salen, mediante variaciones, el tensor de Einstein. Y si le plantan el lagrangiano de la la materia pues entonces puede “aplicar la receta”. Realmente son tareas precisas, y metódicas, y pueden hacerse con un ordenador. Para mathemática hay mcushos scripts de cálculo tensorial. máxima lo trae incorporado. no sé si hay scripts que calculen el tensor energía-momento a partir de un lagrangiano pero no se me ocurre motivos para que no pueda haberlos.
En definitiva, que puede ser engañosamente fácil la inclusión de la materia, pero sospecho, puede haber ahí mucha sutileza oculta.

Pero dejemos la relativdad y sigamos con Riemann. Tras eso el libro se pone a hablar de su trabajo en funciones elípticas. Ahí el libro entra en muchos detalles. Hace una introducción al tema desde el principio, definiendo las integrales elípiticas, y otras similares mas sencillas. Luego hace un repaso de los trabajos previos de los Benouilli, euler, Legendre, Abel y Jacobbi (y cómo Gauss ya tenía estos últimos trabajos antes que esos dos, pero sin publicar). Y luego, claro, explica el trabajo de Riemann. Realmente no puede usarse cómo libro de texto sobre funciones elípticas (una introducción a las ideas mas habituales y de mas uso viene en libros de física matemática, cómo , por ejemplo. El Mathews Walker). Es curioso eso de las funciones elípticas. Aunque he leído sobre ellas, por completitud, la verdad es que no me las pusieron nunca en un plan de estudios ni en física ni en matemáticas (y eso que en matemáticas cogí, mala elección a la postre ya que de las partes que me interesaban del temario no se dió nada, variable compleja II). La verdead es que no tengo claro sí siguen siendo importantes en alguna rama de las matemáticas hoy día o si son algo así como una “abandonamath”. Sé que existen las funciones automórficas y modulares, y me parece que, de algún modo, tiene algo que ver con las funciones elípticas. Pero el caso es que asistí en la complutense a un curso (abierto a todo el público) de funciones automorfas y modulares y si hay alguna relación no se mencionó.

La última parte del libro, cómo podría esperarse, trata de la famosa hipótesis de Riemann, Ahí se trata las propiedades de la función z de Rieman y de las partes pertinentes de la teoría de números (dsitribución de los números primos basicamente)

Hay algún aspecto más en el libro que no he mencionado (funciones hipergeométricas, por ejemplo). Y poco he dicho de los aspectos biográficos. Quien quiera los detalles que lea el libro, que merece mucho la pena ;).

Introducción a la supersimetría II: El modelo de Wess-Zumino

julio 14, 2014

Continúo con el tema de los posts de supersimetría traídos del otro blog. En realidad este se ve correctamente allí porque ya había añadido matajax, que por ahora sigue funcionando, a mi plantilla de blogspot, pero por completitud, y en previsión de que termine fallando el plugin, lo dejo por aquí también.

Continuo el tema introduciendo una realización de dicha supersimetría en términos de un lagrangiano sencillo, lo que se conoce como el modelo de Wess-Zumino. Quien no tenga muy recientes sus conocimientos de teoría cuántica de campos, y en particular los tipos posibles de spinores, puede leer sobre ello en esta entrada.

Este va a constar de dos campos, un campo escalar complejo \phi formado por dos campos reales A y B, \phi=(A+iB/\sqrt{2}) y un campo spinorial de Majorana \psi . Ambos campos van a carecer de masa. El motivo para ello es que en la naturaleza no se ha observado la supersimetría, lo cuál indica que caso de existir, la supersimetría debe estar rota. Se supone que las partículas supersimétricas de las partículas conocidas habrán adquirido masa a través de un proceso de ruptura de esta supersimetría. Con estos ingredientes el término cinético de nuestro lagrangiano será.

1.L= \partial^{\mu} \phi^*\partial_{\mu}\phi ~ + ~ 1/2i\bar\Psi\displaystyle{\not} \partial \Psi

Ese lagrangiano es invariante bajo una transformación SUSY global:

2. \delta A=\bar\epsilon\psi \delta B=i\bar \epsilon\gamma_5 \psi

\delta \psi=-i\gamma^\mu[\partial_\mu (A + i \gamma_5B)]\epsilon

Donde \epsilon es el generador infinitesimal (asumo que el lector esta familiarizado con como surgen los generadores infinitesimales de simetrías en mecánica cuántica y su relación con las simetrías globales a través de la exponenciación) de la supersimetría, un spinor infinitesimal de Majorana.

Puede verse que, como se espera de una supersimetría, esta transformación nos cambia campos bosónicos en campos fermiónicos. Para ser supersimétrica el lagrangiano debe ser invariante bajo esta transformación. Se puede verificar que bajo ese cambio la variación del lagrangiano es:

3. \delta L=\partial_\mu[1/2\bar\epsilon\gamma^\nu(\displaystyle{\not}\partial(A + i\gamma_5 B))\psi]

Este delta L es una derivada total y por tanto no contribuye a la variación total de la acción y , como anunciaba, hace que 1 sea un lagrangiano supersimétrico. En general los lagrangianos supersimétricos no pueden ser invariantes bajo supersimetría, salvo que sean constantes, y siempre debe entenderse la invarianza en el sentido de que su variación es una derivada total.

Este lagrangiano es adecuado para partículas libres. Si añadimos interacciones se encuentra que le conmutador de dos transformaciones no es cerrado fuera de la capa de masas, y por tanto no es adecuado. Para paliar eso deben añadirse dos campos bosónicos extra, normalmente designados F y G, cuyo lagrangiano es:

4. L= 1/2F^2 + 1/2 G^2

La solución de la ecuación de Euler Lagrange asociada al lagrangiano 4 es F=G=0 y por tanto estos campos no tiene estados en la capa de masas, intervienen en la teoría sólo como partículas virtuales intermedias.

Se ha descrito hasta ahora como sería el lagrangiano para partículas sin masa. Nada impide construir el lagrangiano para partículas con masa. El término de masa tendría la forma:

5. L _m= m(FA + GB -1/2\bar\psi \psi)

La forma mas general de un término de interacción -renormalizable sería.

6. L_i= g/\sqrt{2}[FA^2 - FB^2 + 2GAB - \bar\psi(A - i\gamma_5B)\psi]

Este sería el modelo elemental de Wess-Zumino. Si uno pretende hacer teorías de campos supersimétricas realistas debería trabajar con fermiones quirales zurdos. No es especialmente complicado hacerlo, y repitiendo los pasos uno llegaría a una expresión de los lagrangianos anteriores en términos de esos fermiones quirales. El aspecto más interesante de ese desarrollo es que uno termina con un lagrangiano que puede expresarse de la forma:

7.L = L_K - |\partial W/\partial \phi|^2 ~ - ~ 1/2(\partial^2 W/\partial \phi^2\psi^T_L C \psi_L + herm.conj)

Aquí L_k sería el término cinético para los campos correspondientes y W sería lo que se conoce como el superpotencial. Este juega un papel importante en muchas discusiones sobre supersimetría y será tratado con mas detalle en ulteriores entradas. Por ahora decir que para el modelo sencillo que estamos considerando aquí su expresión más general sería:

8.W= 1/2m\phi^2 ~ + ~ 1/3 g\phi^3

En esta entrada se ha presentado el que posiblemente sea el tratamiento mas sencillo posible de la supersimetría. Actualmente es muy común usar el formalismo de supercampos. Este se basa en la noción de superespacio. El superespacio es el resultado de añadir a las componentes geométricas normales unas componentes “fermiónicas” representadas como variables de Grassman. Un supercampo dependería de ambos tipos de variables. Dadas las peculiares propiedades de las variables de grassman es muy sencillo ver que un desarrollo en serie en términos de las mismas es finito y que, por tanto, se puede dar una expresión general para un supercampo. Cuando se hace eso para campos que solamente tengan spin 1/2 y y 0 se puede ver que el modelo de supercampos obtenido es equivalente a el modelo de Wess-Zumino presentado aquí. Si además se impone que los campos fermiónicos sean quirales se obtiene la versión quiral del modelo de Wess-Zumino. El supercampo que cumple esas características es conocido cómo “supercampo quiral”. Por supuesto se pueden hacer construcciones supersimétricas para campos gauge y, de ese modo, teorías gauge supersimétricas y análogos supersimétricos del modelo standard. La extensión supersimétrica mas sencilla de el modelo standard se conoce como MSSSM (minimal supersymetric stadard modell).

Aquí hemos tratado la supersimetría global. Cuando esta se hace local aparece de manera natural la gravitación y tendríamos teorías de supergravedad. Dado que la supersimétria no esta realizada en el modelo standard se asume que si el universo presenta supersimetría debe hacerlo en una versión con supersimetría rota. La ruptura de supersimetría es un tópico complejo, y juega un papel fundamental en la mayoría de modelos fenomenológicos que se postulan para extender el modelo standard de partículas. Indirectamente eso significa que también juegan un papel en las teorías de cuerdas, en sus diversas variantes. Por ejemplo la teoría F, la mas desarrollada a nivel fenomenológico utiliza una variante del mecanismo de supersimetría conocido como modelo de guidicce-massiero.

Se irán tratando esos tópicos en posteriores entradas.

Finalizo diciendo que estos posts siguen principalmente el libro de texto de P.D. B. Collins, A.D. Martin y E.J Squires “Particle physics and cosmology”. A eso he añadido información adicional de los libros de M. Dine “Supersymmetry and superstrings” y el volumen III de el libro de teoría cuántica de campos de Steven Weinberg.

Introducción a la supersimetría

julio 14, 2014

Continúo con la tarea de rescate de entradas del otro blog que han quedado inoperantes por aquello de que en blogspot no hay soporte nativo para latex, ahora toca un par de entradas sobre supersimetría.

Mucho se ha hablado de supercuerdas. Esta palabra consta de dos partes. La parte de “cuerdas” más o menos es algo que todo el mundo puede entender en el sentido de que todo el mundo tiene la idea intuitiva de lo que es una cuerda. La parte “rara” es la de super.

El prefijo “super” se usó mucho en física en una época. Los casos más destacados probablemente sean los superconductores y la supersimetría. Pese a la coincidencia en el nombre no tiene nada que ver uno con otro. Vamos a ver, inevitablemente muy por encima, cómo avanza el tópico, qué es la supersimetría, SUSY para los amigos.

La motivación inicial para esta teoría provino del problema de la jerarquía. ¿Cuál es este problema? En el marco de las teorías de gran unificación, hay una gran diferencia de energía entre la escala de la ruptura de la simetría electrodébil y la de la de la ruptura de la teoría unificada(SU(5) o la que fuera). Si uno se mete en los tecnicismos del mecanismo de Highs esto requiere un ajuste muy fino de parámetros. Y esto es algo que siempre desagrada.

Una forma de solventarlo es la existencia de cierto tipo de campos escalares de masa 0. Pero no hay ninguna buena razón para esto. Lo que si hay es una buena razón para la existencia de fermiones quirales (o quasiquirales), el hecho de que se hayan observado (son los neutrinos). Estos fermiones quirales tiene masa 0. Si hubiera de algún modo una partícula de spin 0 ligada a ellos tendríamos resuelto el problema pués esa partícula debería tener masa 0.

Para esto uno busca que pueda existir una simetría que transforme bosones en fermiones, y viceversa. denotémosla por Q, i.e.

1.  Q|F>=|B>  Q|B>=|F>

Para ilustrar algunas propiedades clave de la supersimetría cojamos un ejemplo muy sencillo basado en un oscilador armónico cuántico que incluya bosones a y fermiones b, que satisfacen las relaciones de conmutación (y anticonmutación):

2.  [a, a^+]=1, [a,a]=[a^+,a^+]=0

\{b, b^+\}=1, \{b,b\}=\{b^+,b^+\}=0

Dónde, por si alguien no lo conoce {x,y}=x.y +y.x.

El hamiltoniano para este sistema es:

3. H=1/2w_B\{a^+,a\} + 1/2w_F[b^+,b]

Siendo un oscilador armónico sabemos cuál va a ser su energía:

4. E=w_B(n_B + 1/2) + w_F(n_F - 1/2)= w(n_F + n_F)

Dónde en el último paso hemos asumido que las w fermiónica y bosónica sean iguales.

Se puede ver fácilmente que que cada estado tiene una degeneración con el mismo número de grados de libertad bosónicos y fermiónicos.

Edto indica que debe haber algún tipo de (super)simetría en el hamiltoniano. Y en efecto, uno puede comprobar que los operadores:

5. Q=\sqrt{2w}a^+b,   Q^+=\sqrt{2w}b^+a

conmutan con el hamiltoniano, es decir:

6. [Q,H]=[Q+,H]=0

Obviamente los operadores Q y Q+ claramente intercambian un fermión por un bosón y viceversa.

Además tenemos que:

7. {Q,Q+}=2H

Pués bien, esta es la esencia de los operadores de SUSY expresados para un caso sencillo de mecánica cuántica no relativista. Pero claramente estamos interesados en mecánica cuántica relativista, i.e. teoría de campos.

Dejaré para otra ocasión cómo se realiza el álgebra SUSY en teoria de campos. Señalar solamente una característica específica de la SUSY no mencionada hasta ahora que tiene un cierto interés.

Desde que empezó a surgir el interés por las teorías gauge, puede que incluso antes, se planteó la cuestión de si había alguna forma de tener un grupo que mezclara las simetrías internas con la simetría del grupo de Poincaré. Coleman y Mandula en 1967 demostraron que bajo supuestos muy generales esto era imposible.

Pués bien, la superismetría escapa este teorema “no-go” pués aparte del los generadores P_{\nu} (momento lineal) y M_{\mu\nu} (momento angular) y Ta (generadores del grupo gauge) incluye los generadores de la supersimetría.

De hecho estos estarán relacionados con el operador momento por la relación:

8. 

Por cierto, para los posibles lectores de exactas decir que en términos matemáticos la supersimetría tiene la estructura de una álgebra de Lie graduada.

Bien, este ha sido un primer contacto con la supersimetría. En la siguiente entrada hablaré del modelo supersimétrico más sencillo, el de Wess-Zumino.

One string to rule them all

julio 6, 2014

Visto que en blogspot las diversas soluciones para el latex son inestables rescato para este blog una entrada de hace ya unos años en la que hago una primera introducción a lo más básico de la teoría de cuerdas.

Empezamos por lo más sencillo, explicar que es una cuerda dentro de esta teoría. Bien, en realidad es la cosa mas sencilla del mundo, una cuerda (bosónica), matemáticamente, es una curva (real) que evoluciona en el tiempo. ¿Por que alguien se preocupó de trabajar en una cuerda cómo un objeto fundamental en vez de hacerlo con partículas puntuales? La respuesta, curiosamente, es “nadie”. La primera motivación para ocuparse de una teoría de cuerdas proviene de la cromodinámica cuántica, o más bien al estatus de la física de hadrones antes de aparecer la cromodinámica cuántica. Sin entrar en muchos detalles señalar que se sabe que el neutrón y el protón, las partículas que forman el núcleo atómico no son partículas elementales, estan formadas por (3) quarks. Esos quarks se describen por una teoría gauge, la SU(3). Lo curioso es que si los quarks, y las partículas que median su interacción, los gluones, deben formar estados ligados (protones, neutrones, y en realidad todas las partículas hadrónicas) debe haber algo que impida que haya quarks libres, que nunca se han observado. Eso llevó a que en un momento dado se propusiera un modelo fenomenológico bastante descriptivo. Los quarks estaban unidos por algún tipo de cuerda, es decir, existían cuerdas que tenían un quark en cada uno de sus extremos, el confinamiento (ausencia de quarks libres) se debería a que si se estiraba demasiado esa cuerda se rompía en dos nuevas cuerdas cada una con su pareja de quarks, en realidad un quark y un antiquark, en sus extremos (para el protón o neutron era necesario tres cuerdas unidas por un extrem oentre sí y con un quark en los otros extremos). Hacia falta ponerle mates a esa idea, y es lo que se hizo allá por el 75. El problema es que esa teoria tenía un “inconveniente”, en su espectro aparecía una partícula de spin 2 que claramente no encajaba en el modelo de quarks, más adelante se reinterpreta la teoria de cuerdas cómo una teoría fundamental y esa partícula de spin 2 pasa a ser el gravitón. He hblado que en el espectro de una teoria de cuerdas hay partículas, bien, esto significa, hablando de manera simplificada, que las cuerdas vibran y que cada modo de vibración se identifica con algún tipo de partícula. Según esto cada partícula conocida sería un modo de vibración de una cuerda. Como ese rango de partículas incluye los fermiones (por así decirlo las partículas que forman la “materia”) y los bosones (las partículas que median las interacciones entre la materia) tenemos que la teoría de cuerdas sería una teoría que explicaría toda la física conocida, sería una teoría unificada. Y además sólo tiene un parámetro libre, la tensión de la cuerda, así pués con la media de un sólo parámetro se tendría el valor de todos los demás parámetros de la física pués sería deducibles matemáticamente a partir de esa tensión. Tras este previo sobre fenomenológia, no especialmente riguroso, vamos con algo de mates.

En matemáticas, geometría diferencial básica (sin usar formalismo de variedades), una curva es un lugar del espacio de dimensión uno que puede, en un sistema de coordenadas, describirse mediante una caracterización.

X^\nu(\sigma)

Aquí σ es el parámetro que describe la curva y las Xμ son las coordenadas. El índice μ varia desde 0 hasta D-1, dónde D es la dimensión del espacio-tiempo donde se sitúa la cuerda. Bien, esto es una curva, una cuerda es una curva que se deja evolucionar en el tiempo, es decir, que aparte de la dependencia en σ hará una dependencia en τ (tiempo propio).

X^\nu(\sigma, \tau)

Bien, esto es la “cinemática” de la cuerda, nada particularmente complicado, pasemos a la dinámica. Cómo se ha discutido por aquí, y es bien sabido, en física la dinámica suele inferirse a través de una función lagrangiana, ¿que lagrangiana debe describir la cuerda? Bien, hay dos posibles, la más sencilla, conocida cómo la de Nambu-Goto surge de generalizar el lagrangiano de una partícula libre en relatividad especial, que recordemos es:

S = -m \int d{\tau} \sqrt{- \dot{X}^{\mu}\dot{X}_{\mu}}

dónde, cómo es habitual en física, el punto sobre la coordenada denota derivación respecto al tiempo. Esta acción representa la longitud de la línea de universo de la partícula relativista, es decir, una partícula puntual, matemáticamente un punto, al evolucionar en el espacio-tiempo describe una trayectoria, parametrizada por el tiempo τ. La acción es la longitud (en la métrica de Minkowsky) de esa curva. Pués bien, una partícula al evolucionar en el tiempo describe una curva. Una curva al evolucionar en el tiempo describe una superficie, ergo la acción de Nambu-Goto de la cuerda va a ser el área (minkowskiana) de esa superficie:

S_{NG}[X^{\mu}]=-{1\over 2 \pi {\alpha}'} \int d\tau d\sigma\sqrt{-det({\partial}_a X^{\mu} {\partial}_b X^{\nu})}

Bien, esta acción es sencilla de entender, mera generalización de la acción de la partícula clásica. El problema es que aparece una raíz cuadrada, y eso, cuando se quiere proceder a tareas de cuantización, es algo muy molesto. Así pués se prefiere usar otra acción, la de Polyakov. El truco es expresar el área mediante una métrica intrínseca de la superficie, denotada por h, en concreto tenemos:

S_P[X^{\mu},h_{ab}] = - {1\over 4 \pi {\alpha}'} \int d^2 \sigma\sqrt{-h}h^{ab}\partial_a X^{\mu} \partial_b X^{\nu} \eta_{\mu \nu}

dónde la forma concreta para h es:

h_{ab}={\partial}_aX^{\mu}{\partial}_bX^{\nu} \eta_{\mu \nu}

Bien, esta es la forma de la acción. En mecánica clásica una vez que tenemos la acción normalmente lo siguiente que hacemos es calcular las ecuaciones de movimiento asociadas a ella (ecuaciones de Euler-Lagrange). Pero antes de hacer eso hace falta señalar unos aspectos importantes. Esta acción, cómo muchas otras que aparecen en teoría cuántica de campos, tiene simetrías, es decir, existe un grupo de transformaciones de los campos que dejan invariante la acción. La acción de Polyakov tiene tres simetrías:

(i) Invariancia Poincaré , (ii) invariancia bajo difeomorfismos de la Worldsheet , y (iii)invariancia Weyl (invariancia de escala).

Estas invarianzas se expresan matemáticamente en términos del tensor energía-momento, análogo al de la relatividad general, cuya expresión es:

T^{ab}:= {1 \over \sqrt{- h}} {\delta S_P \over \delta h_{ab}}={1\over 4 \pi {\alpha}'} \bigg({\partial}^a X^{\mu}{\partial}^b X_{\mu}-

{1\over 2}{h}^{ab} h^{cd} {\partial}_c X^{\mu}{\partial}_d X_{\mu} \bigg)

La invarianza bajo difeomorfismos implica que este tensor (que nos da cuenta de la energía y el momento de la cuerda) debe conservarse, es decir:

{\nabla}_aT^{ab}=0

La invarianza Weyl se traduce en: T^a_a=0" .

Bien, esto concluye la breve por ahora el análisis de las simetrías, vamos a poner la ecuación de movimiento:

* \partial_a \bigg( \sqrt{-h} h^{ab} \partial_b X^{\mu} \bigg) = 0

Una vez se tiene la ecuación de movimiento se debe proceder a resolverla.

Habíamos dicho que teníamos siemtrías. La invariancia de la acción bajo esas simetría se traduce en que hay grupos de soluciones equivalentes. Necesitamos un modo de deshacernos de las soluciones redundantes, eso esta relacionado con las ligaduras de las que hablé en los post de LQG. No obstante sin necesidad de saber los detalles de la teoria de ligaduras de dirac podemos entender bastantes cosas, sigamos.

Cuando queremos resolver ecuaciones diferenciales (en este caso en derivadas parciales) se imponen condiciones de contorno. En este caso estas condiciones tiene interpretación cómo condiciones en los extremos de las cuerdas, tenemos cuerdas abiertas {\partial}_{\sigma}X^{\mu} {\mid}^{\ell=\pi}_0=0 (condiciones de Neuman) y cerradas X^{\mu} (\tau , \sigma )=X^{\mu}(\tau , \sigma + 2 \pi)  (Diritlech).

En realidad más adelante se comprobó que había mas detalles a tener en cuenta en esto en relación con la teoría de branas, pero no merece la pena ocuparse de ello en esta introducción.

Tenemos las condiciones de contorno, vamos a proceder a encontrar soluciones a la ecuación de movimiento (*). Para hacerlo hay primero que fijar un gauge, elegimos el conocido como gague conforme h_{ab} = \eta_{ab}  ahí la ecuación de movimiento se reduce a la ecuación de Laplace y la solución nos queda para la cuerda cerrada:

X^{\mu} = X^{\mu}_0 + {1 \over \pi T} P^{\mu}\tau + {i \over 2\sqrt{\pi T}} \sum_{n \neq 0}{1\over n} { \alpha^{\mu}_n exp(-i2n(\tau - \sigma)) + \tilde{\alpha}^{\mu}_n exp(-i2n(\tau + \sigma ))}

y para la cuerda abierta:

X^{\mu}(\tau , \sigma )= X^{\mu}_0 +

{1 \over \pi T}P^{\mu}\tau +{i\over \sqrt{\pi T}}\sum_{n \neq 0} {1 \over n} {\alpha}^{\mu}_nexp \big(-in\tau\big) \cos (n\sigma )

dónde  X^{\mu}_0 y P^{\mu}  son la posición y el momento del centro de masas de la cuerda.

Bien, hasta aquí lo básico, la parte clásica. En la cuantización, que no trataré en este post, los α de las dos últimas ecuaciones se convertirán en operadores de creación/aniquilación que se corresponderían con las partículas observadas en la física del modelo standard. Habrá que imponer la anulación de la derivada del tensor de energía momento lo quedará lugar a la famosa álgebra de Virasoro. Y además habrá que comprobar que las simetrías de la teoría clásica se respetan, esto no es algo precisamente trivial, todo lo contrario, esas simetrías sólo se respetan si la dimensión (conocida como dimensión crítica) en que se propaga la cuerdas es distinta de 4. Aquí he estado explicando la cuerda mas sencilla posible, la cuerda bosónica; para esta cuerda la dimensión crítica es 26 (25+1). En realidad la cuerda bosónica no es realista, para empezar, cómo su nombre indica, no tiene nada mas que bosnoes en su espectro. Cuerdas realistas requieren fermiones, eso implica introducir supersimetría y así entramos en el reino de las supercuerdas, par estas la dimensión crítica es 10 (9+1). Desde luego hay muchísimo más que decir sobre la teoría de cuerdas, no en vano un libro de 750 páginas tiene algunos capítulos que más que un libro de texto parece un rápido review de resultados, pero creo que lo expuesto puede servir de orientación de a que nos estamos enfrentando al hablar de teoría de cuerdas.

Algunas vueltas de tuerca a la teoría de cuerdas

julio 4, 2014

Una de las cosas mas deprimentes del estado actual de la física de altas energías es la tremenda cantidad de posibilidades a estudiar. En los 80 había el sueño de una teoría unificada, en la que unos principios básicos, grupos de simetría gauge mas amplios cómo el SU(5) y supersimetría nos dieran una teoría única de la que se pudiera sacar todo. Posteriormente la teoría de cuerdas se vió cómo un paso extra hacia la unificación porque en un sólo objeto, la cuerda relativista cuantizada, con aderezo de supersimetría, se tenía que un único objeto (bueno, casi, que había 5 teorias de cuerdas, type I A y B, type II A y B y la heterótica) daba el espectro de todas las partículas. En los 90, con el descubrimiento de las dualidades, que venían a demostrar que esas diversas teorías de cuerdas eran (con matices) equivalentes pareció surgir un nuevo nivel de unificación. Al principio se pensó que la teoría M sería esa gran teoría unificada.

Pero las cosas no fueron por dónde se suponía. Las teorías Gauge de gran unificación empezaron a encontrarse con problemas, la más sencilla, el SU(5), predecía que el protón era inestable y los experimentos que buscan esa inestabilidad han invalidado el modelo. Se han construido variantes, flipped SU(5), SO(10), etc, que producen valores compatibles con la no observación de la desintegración del protón. Luego está el tema de los monopolos (distintos a los de Dirac, aquí son cuasipartículas asociadas a temas de naturaleza topológica-solitones-) que también predicen esa teorías y no se observan. Ahí la solución viene de la mano de la inflación, que habría diluido la densidad de solitones hasta un número de alrededor de uno por unidad observable del universo. Ahora, a raíz de el descubrimiento de modos tensoriales en el fondo de microondas por el experimento BICEP2, parece que hay una evidencia experimental sólida -aún sinconfirmar totalmente- y bastante directa de la inflación, así que ese punto quedaría más o menos zanjado.

En el terreno de la teoría de cuerdas la cosa se fué complicando mucho. En los 80 el paradigma era que se daría con una compactificación de las dimensiones extra de la cuerda heterótica que permitirían obtener el modelo standard, y que, además, nos darían pistas, o incluso todos los detalles, sobre cómo iría todo hasta energías superiores. Pero aunque se ha llegado muy cerca de tener un modelo standard a partir de la heterótica, con bastantes de los detalles, resulta que la forma de obtenerlo no es única, y cada variante predice a altas energías cosas diferentes. También, usando nuevos objetos aparecidos en los 90, las D-branas, y generalizaciones (M-branas de la teoría M, la 7-brana de la teoría F- otra variante de la teoría de cuerdas introducida por Cunrum Vafa) dieron nuevas maneras de obtener el modelo standard, con similar detalle, pero con un comportamiento más allá del modelo standard totalmente distinto entre ellas (aunque todas podrían agruparse en el paradigma de “mundos brana” dónde, simplificando, las partículas del modelo standard viven en 4 dimensiones y el gravitón en más) y completamente diferente al heterótico. Vale, hay dualidades, pero eso no significa que se pueda decir que son “moralmente iguales” esos escenarios, la física según sube la energía cambia totalmente, en algunos de ellos hacia un SU(5).

Y el descubrimiento de la constante cosmológica ya lo lía aún más, y terminamos con un montón de opciones tremendo. Por ejemplo, en el 2008 Vafa y colaboradores hicieron un auténtico tour de force con la teoría F, con bastantes artículos, algunos de más de 100 páginas, que hacían predicciones para el LHC que, lástima, predecían una masa del Higgs en unos márgenes que son incompatibles, por poco eso sí, con lo observado. Y, claro, si estás con un trabajo fijo (una tenure) en una universidad te puedes permitir embarcarte en esa odisea y que luego no salga nada. Pero sí eres un doctorando que intenta hacer algo que te de una plaza, es posiblemente deprimente.

Total, no daré mas detalles, que hay tantas posibilidades, para una teoría general, o incluso para relativamente pequeños campos (cuál es el modelo concreto de inflación, o no digamos ya que partículas forman la materia oscura), que uno se puede perder de mil maneras, sin ningún tipo de guía unificador. Hemos pasado de la gran unificación a la gran diversificación.

Envista de eso, aparte de mantenerse al día en lo que se va haciendo, yo, personalmente, intento pensar si hay algo que, sin renegar porque sí de lo que ya está hecho, si puede todavía haber alguna clave que guíe entre tantas posibilidades, por supuesto sin un éxito remarcable hasta ahora.

Voy a indicar ahora algunas de las ideas que he venido considerando, en particular las centradas en la teoría de cuerdas.

La idea más arriesgada es plantearse la misma teoría, pero con un cambio de paradigma. En vez de considerar que hay un espacio-tiempo y dentro de el unos objetos, las cuerdas, me planteo una opción diferente, pero que lleva a similar matemática.

En las ecuaciones de Einstein R_{\nu\mu} - g_{\nu\mu}R=T_{\nu\mu} tenemos dos elementos, a la izquierda un elemento puramente geométrico, la curvatura, y a la derecha uno asociado totalmente a la materia, el tensor energía momento, asociado a las partículas. Entre esas partículas estaría el gravitón, que sería una fluctuación de la métrica. Digamos que el gravitón da la reacción del espacio-tiempo a si mismo. En la gravedad cuántica inicial, con partículas puntuales, se parte de una descomposición de una descomposición de la métrica en dos partes g_{\nu\mu}= \eta_{\nu\mu} + h_{\nu\mu}. Aquí \eta_{\nu\mu} sería el término de background (en el caso sencillo la métrica minkowsky), y h una fluctuación que, convenientemente cuantizada, sería el gravitón. Antes de seguir una reflexión algo tonta. Esa perturbación de la métrica tiene los mismos grados de libertad que una partícula de spin 2, y por eso se identifica una métrica, la característica de la gravedad con una partícula de spin 2. Lo curioso es que una métrica en geometría es una forma bilineal (o cuadrática, según se mire). Digamos que uno podría plantearse sí no debería pensarse que el observable básico de la gravedad cuántica, que es la métrica, no debería tal vez ser un objeto bilineal en vez de uno lineal. Pero claro, en cuántica los operadores deben ser lineales, y los intentos de hacer una teoría con operadores no lineales tiene muchos problemas, tanto prácticos como conceptuales. Por eso es más sencillo dejarlo correr y quedarse tranquilo con la identificación de la métrica con una partícula de spin 2, que es algo que tiene mas respaldos (teoría de Fierz-Pauli, en la que, recursivamente, a partir de gravitones se llega, más o menos a la relatividad general). La teoria para un gravitón inspirado en una partícula puntual es no renormalizable, pero en su variante en la que el gravitón aparece cómo uno de los modos de vibración de la cuerda da lugar a una teoría consistente, y eso es algo de agradecer.

En todo caso, seguimos teniendo dos objetos, el espacio-tiempo y la cuerda, y, en última instancia, el objeto mas interesante -para justificar la teoría cuanto menos- de la cuerda, el gravitón, es geométrico. Mi idea es ponerlo todo en el terreno del espacio-tiempo. La idea sería darle una cualidad extra, probablemente de naturaleza geométrica, a ese espaciotiempo para dotarlo de una naturaleza dinámica. Si pensamos en esa propiedad extra cómo una especie de “tensión” (con las adecuadas propiedades buenas de transformación) lo que tendríamos es que en el espacio-tiempo habría líneas de tensión. Y, cómo deberían tener propiedades buenas de covarianza esas líneas de tensión serían equivalentes matemáticamente a las cuerdas bosónicas. Digamos que matemáticamente serían el mismo objeto, pero conceptualmente cambiarían. en vez de ser unos entes que están ahí no se sabe porque, y que son extensos, y no se disgregan, por arte de magia, aparecerían de manera natural por resultado de una dinámica del propio espacio-tiempo. Por supuesto ahí habría un punto extra, una dinámica mas fundamental del espacio-tiempo que da lugar a que en este aparezcan líneas de tensión que podemos describir mediante las cuerdas. En este sentido las cuerdas serían sólo una descripción aproximada y habría algo más fundamental.

Por supuesto esa idea tiene muchos problemas. Para empezar porque ese paradigma funciona bien para la cuerda bosónica, pero se complica para la supercuerda. En realidad, si uno parte de un superespacio (añadir coordenadas de Grassman, que están asociadas a fermiones, al espacio-tiempo ordinario) uno podría obtener la supercuerda, aunque, desde luego, la matemática es complicada. Normalmente las supercuerdas se obtienen mediante la imposición de supersimetría en el worldsheet y luego imponiendo condiciones varias, se llega a que hay supersimetría en el espacio target. Pero vamos, en principio se puede obtener un lagrangiano supersimétrico desde el superespacio, y lo mismo para una supercuerda. Si partimos de una teoría gravitatoria en el superespacio podríamos jugar al juego anterior, de líneas de tensión en el superespacio, que serían las cuerdas. Pero, claro, en realidad se puede demostrar que la teoria de cuerdas en su formulación habitual, tiene cómo limites de baja energía las teorías de supergravedad. En ese sentido la cuerda es mas fundamental que la supergravedad. En el paradigma que propongo sería mas rebuscado. Hay una dinámica, que no sabemos, que se asemeja a la supergravedad (da un superespacio al menos), pero que en principio es distinta, y mas complicada. Esa teoría permite hablar de “tensiones” en el superespacio, que, identidificadas cómo cuerdas, dan lugar a una teoría cuyo límite a bajas energías es la supergravedad. Eso nos daría una condición complicada de consistencia.

En fín, realmente no sé si, con lo que he contado hasta ahora, este punto de vista aporta algo, salvo, tal vez que sea mas “natural” y unificado. Ya no hay dos cosas, espacio-tiempo y cuerdas, sólo una, el espacio-tiempo, ergo es más unificado. Y es mas “natural” porque no hay que postular algo tan exótico cómo una cuerda que no se disgrega ¿por qúe no?.

Por supuesto, lo divertido, es que en esa teoría surgen generalizaciones “naturales” que no lo son tanto en la teoría de cuerdas. Para empezar ya no hay motivo natural para imponer que la tensión sea la misma en todos los puntos y, por tanto, en el lagrangiano de la cuerda la T dependería de x T(x). Puesto que la tensión es el único parámetro (en última instancia, no en la práctica) libre de la cuerda, y aquí es simplemente algo que varía de punto a punto, al menos en principio, se pierde la idea de que si supiéramos T, y la suficiente matemática, podríamos deducir todo lo demás, las constantes de la física de bajas energías, correspondientes a compactificaciones/braneworlds concretas. Pero es de suponer que en la teoría geométrica que da lugar a esa tensión habría una constante, y se recuperaría el status quo.

Más divertido aún es pensar en que no hay que pensar que la T deba ser positiva. Habría que plantearse las T’s negativas. Si interpretamos la T cómo densidad de energía, es lo habitual, tendríamos que las cuerdas con T negativa tendrían energía negativa y, por tanto, podrían ser “materia exótica” en el sentido del término usado habitualmente en la literatura de agujeros de gusano.

Y, para cerrar esta entrada, dejo un link a un artículo publicado hoy en arxiv que trata precisamente de la posibilidad de tratar la tensión cómo algo dinámico en la teoría de cuerdas Dynamical String Tension in String Theory with Spacetime Weyl Invariance. Por supuesto en ese enlace el planteamiento y los detalles no están en nada relacionados con lo que yo planteo. Dos de los autores Steindard y Turok, son bien conocidos, aunque no necesariamente bien considerados por todo el mundo (están en la lista negra de Lubos, por ejemplo xD). Digamos que la publicación de ese artículo, que he empezado a leer, y seguiré leyendo ahora, me ha animado a escribir esta entrada, centrándome en las ideas relacionadas con lo que se plantea. Hay mas cosas que me gustaría comentar sobre la teoría de cuerdas, pero ya será cuando se presente la ocasión propicia.

Ingredientes de una “cronomecánica cuántica”

marzo 13, 2014

Una amiga, a raíz de ver la película “El efecto mariposa” me preguntó como podía interpretarse la película en términos de la mecánica cuántica. La pregunta es interesante porque, al fín y a la postre, uno de los alicientes de las películas de ciencia ficción es intentar especular sobre la parte científica que normalmente sólo se suele esbozar, y generalmente de mala manera. Aparte de la película había mas alicientes para pensar en el tema del tiempo en física dónde tenemos cosas como soluciones de la relatividad general que implican trayectorias que llevan hacia atrás en el tiempo (son sus consecuentes paradojas), taquiones, que, de existir, podrían enviar señales al pasado (ver Taquiones y viajes en el tiempo, o la ecuación de Wheler-de Whitt, que resulta de poner la relatividad general en un formalismo canónico en la cuál, en cierto modo, no existe el tiempo. De hecho en un momento dado un grupo de inversores amigos de la especulación en física con tintes filosóficos, la FQXI, dedicó uno de sus premios anuales a la cuestión de la física del tiempo, sin gran éxito ya que en mi opinión ninguno de los artículos enviados era particularmente bueno. De hecho, espero, esta entrada debería ser mas interesante que cualquiera de esos artículos ;). Y eso que ni siquiera pretendo que sea del todo seria xD.

images

Bien, en la película tenemos un chaval, estudiante de psicología, que a raíz de unos experimentos con bichos adquiere una habilidad para conseguir que cada vez que hay un aspecto trágico en su vida desencadenado de manera muy clara por un acontecimiento concreto es capaz de enlazar con una realidad en la que el acontecimiento sucedió de manera diferente y vivir las consecuencias de esa versión alternativa. Supongo que los autores de la película pueden haberse inspirado en la interpretación de Everett de la mecánica cuántica en la que cada vez que se produce una medida cuántica hay una división de la realidad de tal forma que se forma un universo diferente para cada una de los posibles resultados de la medida. Claramente eso lleva a intentar enfocar el tema del tiempo desde una perspectiva cuántica, y eso es lo que hice. Desde entonces, a ratos libres, he ido perfilando un poco más el asunto, entre otras cosas porque, de tanto en tanto, alguien me lo recuerda. He intentado escribir algo sobre el tema en el pasado, pero siempre que me había planteado escribir me ponía a reanalizar el asunto y siempre se me ocurrían cosas nuevas que considerar y terminaba por no escribir nada. Ahora, ya por fín, me decido a dejar algunos detalles de cómo he ido enfocando el tema.

El punto de partida es a la vez sencillo y delicado. Recordemos la base de la mecánica cuántica no relativista elemental. Si alguien no sabe nada de cuántica puede probar a leerse mi post de introducción a la misma Introducción a la mecánica cuántica Tenemos una función de onda \phi( x,y,z,t) cuyo valor al cuadrado nos da la probabilidad de encontrar la partícula que representa esa función en el punto (x,y,z) en el instante t. Aquí t es el tiempo “newtoniano” que existe de manera universal y es igual en cualquier punto del universo. Por supuesto algo así no existe ya que la física Newtoniana debe ser sustituida por la de la relatividad general, en la cuál el tiempo forma parte de un cuadrivector. Pero por ahora ignoremos esa parte relativista. El planteamiento que hago es muy ingenuo, reinterpreto esa función de onda cómo la probabilidad de encontrar la función de onda en el punto (x,y,z) y, esta es la novedad, en el instante t. Por supuesto tras esta propuesta ingenua a nivel de lenguaje se esconde una gran dosis de sutileza ¿Cómo es eso de no poder saber en que instante se encuentra la partícula? Al fín y al cabo si estoy en un laboratorio tengo un reloj, y puedo saber en que momento he detectado la partícula. Vale, tenemos el principio de incertidumbre de Heisenberg tiempo-Energía que afirma (mas adelante entraré en las sutilezas de esta relación) que no podemos saber con total precisión a la vez el tiempo y la energía. Pero, al fin y al cabo, si tenemos suficiente energía, podemos medir con precisión arbitraria el momento de la medida.

Definitivamente en el universo newtoniano la propuesta no tiene mucho sentido, y es necesario ya meter conceptos de relatividad dónde tenemos las transformaciones de Lorentz (relatividad especial) y, mas generalmente, el efecto de la masa cómo ralentizadora del paso del tiempo (el tiempo transcurre mas lento cerca de un cuerpo pesado que en el espacio libre). En estas circunstancias no hay tiempo universal y debemos hablar de el tiempo propio relativista (asumo que todo el mundo conoce la paradoja de los gememolos y demás cosas típicas de la relatividad así que no daré explicaciones al respecto). \tau=\frac{t}{\sqrt(1-v^2/c^2)} en relatividad especial, o, mas generalmente \tau=g_{00}\dot (x^0) + \frac{g_{0i}}{\sqrt(g{00})} en relatividad general.

Bien, entonces, con el concepto de tiempo propio, ya tenemos un ingrediente para una forma posible (hay más) de interpretar eso de “probabilidad de hallar la partícula en el tiempo t”. La otra cosa que necesitamos es el concepto de reloj cuántico. Realmente es un concepto sencillo pero encontrar una forma rigurosa de exponerlo es ligeramente mas complejo. La idea es tener un dispositivo que tenga una parte con un comportamiento periódico y otra que permita construir a partir de ese comportamiento un número que represente el tiempo transcurrido desde que el dispositivo empezó a funcionar. Y, se supone, que ese chisme debe ser lo bastante pequeño para que los efectos cuánticos sean apreciables claro, que sino cualquier reloj convencional valdría. Siendo un sistema cuántico compuesto de varias partículas lo vamos a poder representar por una función de onda conjunta \phi(\vec(r_1), \vec(r_2), ..., \vec(r_n), t) Bien, aquí se supone que todas las partículas del reloj están en el mismo tiempo. Esto lo interpretamos cómo que no tenemos ningún dispositivo más pequeño que el propio reloj que nos permita medir el tiempo de manera separada para cada una de las partículas. Asumimos, además, que las partículas del reloj se mantienen siempre confinadas en un volumen concreto (el tamaño del reloj) y que dentro de ese volumen el campo gravitatorio es aproximadamente constante. En esas condiciones el reloj lo que hace es medir su propio tiempo propio, y ese t sería el \tau .

Con el tiempo propio, y el reloj cuántico para poder medirlo, ya podemos dar sentido a eso de “probabilidad de hallar la partícula (sistema cuántico) en el tiempo t). Imaginemos que hacemos un experimento de doble rendija con nuestro reloj cuántico, pero con una pequeña variante. Por una rendija el reloj viaja por un espacio-tiempo plano, por la otra pasa cerca de un miniagujero negro (o cualquier otra cosa lo bastante densa para introducir un retraso temporal que puede discernir el reloj cuántico). Obviamente si pasa por el espacio-tiempo plano el tiempo propio que le lleva al reloj llegar desde el punto de partida al final va a ser mayor que si pasa por la rendija cercana al microagujero negro. Pero, claro, cómo en cualquier experimento de doble rendija no sabemos por dónde pasó exactamente el reloj cuántico y lo que tenemos es que en el resultado final vamos a encontrar que una vez medimos un valor t1 y otra un valor t2 (en realidad, si tenemos un microagujero negro, podríamos tener muchos valores posibles si al pasar por la rendija del agujero negro el reloj pudiera pasar por diferentes distancias al mismo). Visto así, no podemos medir el tiempo propio y el tiempo no está determinado. Esta idea es un poco discutible ya que podría argumentarse que hay una cierta redundancia. Al fin y al cabo lo que tenemos es que la función de onda conjunta estaría en un estado de superposición entre dos de autovalores posibles que consideramos cómo “marca temporal”. En realidad, como veremos, el “tiempo” normalmente va a ser una información menos detallada que un autoestado así que tal vez se podría obviar ese posible criticismo. Aunque esta exposición de el concepto de reloj cuántico la he elaborado yo en su totalidad soy consciente de que hay mas gente que ha trabajado en esta idea y que incluso se ha hecho alguna implementación experimental de la idea. Recuerdo que Sabine Hossénfander mencionó en su blog ese experimento , pero no he dado con el link al post en concreto.

Para poner un ejemplo concreto podríamos considerar que nuestro reloj cuántico fuese un conjunto pequeño de átomos con algunos electrones excitados en algún estado metaestable. Con el paso del tiempo estos electrones irían decayendo al estado fundamental (el periodo de decaimiento al estado fundamental sería el ingrediente “periódico” del reloj) y podríamos usar el número de electrones medidos en el estado fundamental cómo “el tiempo transcurrido”. Aquí hay varios autoestados compatibles con un número concreto de electrones en el estado fundamental (porque no nos importa en que núcleo concreto se ha producido la caída al estado excitado). Es interesante el hecho de que aquí el tiempo es discreto, mientras que en física siempre es una variable continua. En teoría siempre podemos hacer un “reloj cuántico” mas preciso (al menos hasta llegar al tiempo de Planck, y según mucha gente incluso más allá) pero, en la práctica, podríamos argumentar que para estudiar nuestro sistema no podemos contar con mas información temporal que la que nos da el reloj cuántico mas preciso que tenemos.

La cosa se vuelve mas divertida cuando usamos estos relojes cuánticos en este tipo de casos para tomar medidas temporales de otros acontecimientos. Tomemos el caso de dos naves espaciales. Una viaja de A a B por una zona plana y otra cerca de un agujero negro. Esas naves usan relojes atómicos para medir el tiempo. Cómo esos relojes no tienen bien definido el tiempo cualquier evento lleva automáticamente indefinido el tiempo y así las funciones de onda que representen procesos cuánticos en esas naves no tendrían el tiempo bien definido. Dejo al lector que rellene los detalles de experimentos concretos que ilustren de forma rigurosa esta idea, que no voy a hacerlo todo yo :P.

Vale, asumamos que lo explicado anteriormente se sostiene (es un tema abierto a discusión, claro). En ese caso vamos a proceder a hacer un formalismo naive para añadir eso y crear nuestra “cronomecánica cuántica”. Recordemos que en mecánica cuántica tenemos dos operadores fundamentales, el operador momento \hat p \phi=-\frac{i\hbar\partial_x }{2m} \phi y el operador posición \hat x\phi=x.\phi . La justificación del operador x, básicamente, es la de obtener el valor mas probable de la posición, y eso en una variable estadística, es la media (osea, multiplicar por x y sumar/integrar x multiplicado por la distribución estadística, osea, la función de onda. Otra gente interpreta ese operador cómo trasladar en una distancia x la función de onda, pero, la verdad, yo prefiero la interpretación probabilística. Cómo quiera que se vea eso permite que, inmediatamente, el operador “posición temporal” sea multiplicar la función por t, i.e. \hat t \phi= t.\phi .

El operador análogo al operador momento es mas delicado. El operador momento se interpreta cómo el generador infinitesimal de las traslaciones (ver, por ejemplo Operadores de la mecánica cuántica. Entonces, podríamos decir que el operador “Cronos” \hat c= -\frac{i\hbar}{2m}\partial_t genera las traslaciones en el tiempo. Si admitimos eso podríamos hallar las relaciones de conmutación entre los dos operadores y comprobar que son las mismas que entre los operadores x y p i.e. [\hat x, \hat p]= \hat x \hat p - \hat p \hat x= i\hbar es decir [\hat t, \hat c]= i\hbar . Hasta aquí todo parece sencillo y sin sutilezas. El problema surge cuando uno se da cuenta que ya hay un operador casi idéntico a lo que yo he llamado operador Cronos, el “operador energía” que es igual en todo excepto en el factor de 2m dividiendo. Este “operador energía” aparece en la ecuación de Schröedinger dependiente del tiempo \hat H \phi = -i \hbar \partial_t \phi y en la ecuación de Klein-Gordon, dónde es mas evidente que juega el papel de la energía ya que ahí se coge la relación clásica entre el trimomento y la energía: E^2= p^2 + m^2 c^4 y se sustituye la E por el “operador energía” para obtener la ecuación de Klein-Gordon (para mas detalles ver en la wiki la Ecuación de Klein-Gordon.

Esto del “operador energía”, cómo digo, es algo curioso. Al fin y al cabo en mecánica cuántica la energía es el hamiltoniano. Además, resolviendo la ecuación de Schröedinger dependiente del tiempo se puede ver que el hamiltoniano es lo que genera la evolución temporal del sistema cuántico, en analogía al operador momento que general la traslación espacial. Resulta curioso también que el “operador energía” no incluya la masa. Mi “operador cronos” si incluye esa masa, y, formalmente, uno podría pensar que también debería generar las traslaciones en el tiempo. Sobre la presencia o no de la masa se puede argumentar que en un sistema general la masa si influye y no evolucionan en el tiempo de la misma manera dos partículas de distinta masa (eso sólo pasa en el campo gravitatorio, pero no en, por ejemplo, un campo magnético) por lo cuál sería mejor “operador energía” mi operador cronos que el normal. Por otro lado, si se hace eso, no se obtiene la ecuación de K-G.

Que el operador cronos se pudiera interpretar como una energía sería interesante porque aquí la incertidumbre tiempo-energía tendría la misma interpretación que en el caso de la posición y el momento. Normalmente la relación de incertidumbre tiempo-energía, se interpreta cómo que en una transición entre dos estados separados por una energía E si queremos medir esa energía con una precisión dada necesitamos al menos un tiempo de observación que cumpla esa relación de incertidumbre. Eso también lleva al concepto de partícula virtual en la que si no “miramos” durante un tiempo t se puede formar una partícula con energía E compatible mediante la relación de incertidumbre con el tiempo que estamos sin “mirar”.

Cómo, por supuesto, esta teoría no pretende ser totalmente seria no he examinado a fondo estos aspectos, tampoco he mirado otras temas de compatibilidad ¿conmutan estos operadores que he introducido con el hamiltoniano para poder ser observables?

En todo caso, asumiendo que hay una relación entre mi operador C y la energía podemos ir un poco más allá. El operador C tiene, en general, espectro continuo con valores negativos y positivos, como el operador t. Eso vendría a interpretarse cómo que tenemos partículas yendo hacia delante y hacia atrás en el tiempo, y tendríamos una visión de las antipartículas cómo los autoestados negativos del operador C. Una vez más no he analizado a fondo el asunto, y dejo en manos de alguien potencialmente interesado que lo haga si le apetece divertirse con un tema desenfadado cómo es este.

Vale, una vez expuesto el “formalismo” de la cronomecánica cuántica vamos a aplicarlo a jugar un poco más con él. Cuando tenemos algún caso de paradojas temporales, es decir, que viajamos por una curva de tiempo cerrada y partiendo de un tiempo t1 llegamos a un tiempo t2 dónde t2th a otro t1<th. Aquí ya tenemos un problema posible al intentar hacer superposiciones cuánticas ya que las partículas antes y después del th no son iguales. Por ejemplo, un bosón vectorial Z tiene masa después de th y es de masa 0 antes de th. Sí hacemos volver una partícula Z en el tiempo a través de una de esas curvas de tiempo cerrado tendríamos que considerar un estado de superposición entre una partícula sin masa y otra con masa, y con distintos grados de liberad además. En realidad en cuántica de campos el observable es el campo y podríamos decir que en t<th crea partículas sin masa y despúes partículas con masa. En cualquier caso eso de hacer superposiciones de estados que pertenecen a vacíos distintos es algo que se supone que está prohibido en cuántica por las reglas de superselección y no debería poder hacerse. Entonces, si conectamos estados temporales dónde el vacío cuántico ha cambiado nuestro formalismo de superposición cuántica de estados ya no valdría y deberíamos buscar algo más sofisticado.

descarga

Otro tema mas divertido aún en esto de las paradojas temporales y la definición del tiempo es jugar con cuerdas. Imaginemos que la teoría de cuerdas es correcta y que cogemos una cuerda elemental y la hacemos crecer hasta un cierto tamaño macroscópico (esto es algo que Witten argumentó que podría haber ocurrido en el periodo inflaccionario y tener cuerdas cósmicas que fuesen cuerdas elementales agrandadas en vez de las asociadas a rupturas de la simetría, que son el otro tipo de cuerdas cósmicas posibles). Se supone que una cuerda tiene un tiempo bien definido. Ahora bien, si extendemos una cuerda macroscópica en una curva de tiempo cerrada sus diversos puntos estarían, en general, en tiempos diferentes, y, si la hacemos girar, estaría mandando hacia atrás en el tiempo a una parte de si misma. Por supuesto esto es un ejemplo muy tramposo porque el propio campo gravitatorio de esta cuerda cósmica fundamental seguramente sería lo bastante intenso para romper la geometría que permite la existencia de esas curvas de tiempo cerradas. En realidad existe algo llamado el principio de protección cronológica, introducido por Hawking, que argumenta (pero no demuestra) que siempre va a haber efectos cuánticos que arruinan la geometría clásica con curvas de tiempo cerradas. En su libro de agujeros de gusano Matt Visser hace un cálculo de teoría cuántica de campos que demuestra (al menos en buena parte) que esos efectos cuánticos destruyen el agujero de gusano cuando este intenta usarse cómo máquina del tiempo.

Otras cosa que, por ejemplo, se podría considerar con este formalismo que he introducido es ¿que pasa con el operador de ordenación temporal en teoría cuántica de campos? Y bastantes otras cosas (he considerado unos cuantos aspectos más, pero me llevaría demasiado espacio discutirlos). En cualquier caso, la verdad, no creo que el tema merezca meterse en tantas profundidades. Considero este "formalismo" cómo una guía práctica para tratar con algo de sentido, y un criterio concreto, las paradojas temporales que le gusta analizar a la gente de CF y poco más. Pero si alguien quiere profundizar en el tema y exprimir más el formalismo libre es ;).

Teorías de Kaluza-Klein

marzo 2, 2014

Voy a exponer cómo la teoría clásica del electromagnetismo, y otras teoría gauge, puede surgir de las dimensiones adicionales. Es lo que se conoce como el modelo de Kaluza, publicado allá por el 1919, con la RG recién salidita del horno.
Antes de ello hablar un poco del electromagnetismo en si mismo. La idea es sencilla, existen en la naturaleza unos campos E y B (eléctrico y magnético respectivamente) que afectan a unos cuerpos que tiene la característica de estar cargados eléctricamente.

El campo eléctrico y magnético se describen por las ecuaciones de Maxwell

\vec{ \nabla } \cdot \vec{E} = \rho \\
\vec{ \nabla } \times \vec{E} = - \frac{\partial \vec{B}}{\partial t} \\
\vec{ \nabla } \cdot \vec{B} = 0 \\ .
\vec{ \nabla } \times \vec{B} = \vec{j} + \frac{\partial \vec{E}}{\partial t}

Dónde \rho es la densidad de carga y j la densidad de corriente (la corriente está asociada a que la carga se desplaza).
Bien, estas ecuaciones implican a los campos. Pero esos campos pueden derivarse de unos potenciales. La idea sencilla es que la variación de esos campos en el espacio de un punto a otro es lo que genera que haya una fuerza. Esa variación de un punto a oro se traduce en la derivada, claro. Así pues podemos expresar B y E en términos, respectivamente, de un potencial (tri)vector A y un potencial escalar V. Con estos podemos formar un cuadripotencial vector A4=(-V,A3).
La expresión exacta de los E y B en términos de los A y V es:

\bf{B}=\nabla \times \bf{A}

\bf{E}=\frac{\partial{\bf{A}}}{\partial t}-\nabla V

Lo interesante es que esas ecuaciones que definen E y B en términos de A y V no cambian si modificamos :

\bf{A}+\nabla G

V-\frac{\partial G}{\partial t}

Dónde aquí G es una función arbitraria de x,y,z, t. Pués bien, es esta indeterminación de los capos en términos de los potenciales lo que se conoce cómo invariancia gauge. En el caso del electromagnetismo surgió de manera ad hoc. Venia incorporada al introducir el concepto de potenciales. En otro post veremos cómo se puede relacionar esa invariancia con una invariancia bajo fases locales de una función de onda cuántica.

Lo primero es introducir el concepto de compactificar una dimensión. El primero en hacer esto fué Oscar Klein (no confundir con el célebre matemático Felix Klein). Si tenemos un campo escalar $ \Phi (x,y) $ dónde x representa el espaciotiempo normal e y una dimensión adicional de tipo espacial requerimos:

\Phi (x,y)= \Phi(x,y + 2\pi)

De esto se sigue que podemos expandir \Phi en serie de Fourier

\Phi(x,y)= \sum_{n=-\infty }^{n= \infty } \Phi_n(x)e^{iny/r}

A consecuencia de la teoría cuántica, en un estado con un n dado la componente y del momento debe ser O(|n|\hbar/r) . Así para un radio lo suficientemente pequeño, r, sólo el estado n=0 aparecerá en el mundo de la física de “bajas energías” (i.e. E\ll\hbar c/r ).

En su versión moderna las teorías de Kaluza-Klein se materializan en las dimensiones extra de las teorías de cuerdas. En las primeras versiones, previas a la “segunda string revolution”, se consideraba que el radio de compactificación debía de ser del orden de la longitud de Planck, es decir:

r \approx l_P \equiv (\hbar G_N / c^3 )^{1/2} \approx 1.6 \times 10^{-35} m

De ese modo la masa de los estados excitados ( n \not= 0) serían del orden de la masa de Planck M_P \approx 10^{19} GeV/c^2 , lo cuál sería imposible de obtener con los colisionadores actuales, o los fabricables en un futuro cercano. En la segunda “string revolution” se introdujeron objetos cómo las D-branas, se comprobaron dualidades entre diversas teorias de cuerdas, surgió la teoría M, etc. Algunos de esas ideas llevaron a que la gente considerase la posiblidad de que alguna, o algunas, de las dimensiones extra del espacio-tiempo pudiera tener una dimensión mesoscópica (a medio camino entre lo macroscópico, digamos algo submilimétrico, y la longitud de Planck). En ese caso, entre otras cosas, los modos de Kaluza-Kklein de algunas partículas (los modos con $late n \not= 0 $, podrían tener masas similares a las alcanzables en el LHC. Hasta ahora no se ha observado ningún signo de esos modos en las colisiones efectuadas a 8 TeV, así que hay límites severos para el tamaño de esas dimensiones mesoscópicas.

El modelo de Kaluza parte de considerar un espacio de 4 dimensiones espaciales y una temporal y compactificar en un círculo una de las espaciales. Denoto con M, N índices en 5 dimensiones y con \nu \mu en 4.

Tenemos por tanto una métrica en 5 dimensiones g_{MN} que vista desde 4 dimensiones se descompone del siguiente modo:

1. g_{\nu\mu} La métrica habitual en 4 dimensiones.

2.g_{\nu4}=g_{4\nu} Un campo vectorial en 4 d.

3.g_{44} Un campo escalar en 4 d.

Denotamos x4 cómo y. Kaluza impuso la siguiente condición:

4.\frac{\partial g_{MN}}{\partial y}=0

¿Por qué? Bien, esto simplemente implica que los campos no dependen de la coordenada y. Por supuesto la coordenada y esta compactificada a un círculo, es decir se identifican los puntos y e y +2.pi.r .

Cómo puede sospecharse fácilmente adónde queremos llegar es a que se puede identificar el campo vectorial de la ecuación 1 con el cuadripotencial del campo electromagnético A_\nu .

Para que la idea funciones se expande la métrica en términos de una serie de Fourier en la coordenada y:

5.g_{MN}(x,y)=\sum_n g_{MN}^n(x) .e^{iny/r}

Ahora lo que se hace es una parametrización de la métrica, digamos una descomposición en la que queda:

6. g_{44}=k. \Phi
7.g_{4\nu}=k.\Phi.A_\nu (y el antisimétrico)
8. g_{MN}=k.g_{\nu\mu} + \Phi.A_\nu

y dónde k=\Phi^{-1/3}

Escrito en forma matricial esto es

g_{MN}^{(0)} = \phi^{-1/3} \left( \begin{array}{cc}  g_{\nu\mu} + \phi.A_\nu & \phi A_{\nu}  \\  \phi A_{\nu} &  \phi   \end{array} \right)

Bien, esta es la métrica, pero la métrica es sólo parte de la historia. Lo que nos da la dinámica es la acción. Partimos de la acción para la ecuación de Einstein en 5 d que básicamente, y salvo factorcillos, es la integral de el escalar de Ricci asociado a esa métrica.

Lo interesante es que en las ecuaciones 6,7, 8 hemos descompuesto la métrica 5 d en términos de cantidades 4d.Si calculamos el escalar de Ricci manteniendo explícitamente la presencia de esos campos 4 d obtenemos que la acción queda de la forma:

S=-(2\pi.r)\int d^4xe/2G^2_5\left[ R + 1/4   \phi F_{\nu\mu}F^{\nu\mu} + 1/6\phi^2\partial^\nu\phi\partial_\nu\phi \right]

Dónde F_{\nu\mu} es cómo podría esperarse el tensor campo electromagnético asociado al cuadrivector A_\nu Y G es la constante gravitatoria en 5 dimensiones.

Así pues la invariancia bajo GCT (general coordinates transformations) de la gravedad en 5 dimensiones se traduce en que cuando una coordenada se compactifica en la aparición de un campo que cumples las mismas ecuaciones que el campo electromagnético y que por tanto tiene una invariancia gague local. Es decir, una invariancia interna aparece en este formalismo como una consecuencia de una invariancia externa al compactificar.

No he puesto todos los detalles, que llevaría mucho tiempo, pero espero que con esto se coja bien la idea.

De todos modos esta idea es sólo una pequeña parte del asunto de la compactificación. Nos hemos ocupado solamente de qué pasa cuando la métrica se compactifica, pero ¿qué pasa cuando se copactifica un campo cúantico fermionico sin masa? Más interesante aún ¿qué pasa si se compactifica un campo que ya en 5 dimensiones es un campo gauge?

En fín, muy rico el mecanismo este de la compactificación, sirva este post para coger una mínima idea de las posibilidades y complejidades que conlleva.


Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 29 seguidores