Posts Tagged ‘especulaciones’

Algunas vueltas de tuerca a la teoría de cuerdas

julio 4, 2014

Una de las cosas mas deprimentes del estado actual de la física de altas energías es la tremenda cantidad de posibilidades a estudiar. En los 80 había el sueño de una teoría unificada, en la que unos principios básicos, grupos de simetría gauge mas amplios cómo el SU(5) y supersimetría nos dieran una teoría única de la que se pudiera sacar todo. Posteriormente la teoría de cuerdas se vió cómo un paso extra hacia la unificación porque en un sólo objeto, la cuerda relativista cuantizada, con aderezo de supersimetría, se tenía que un único objeto (bueno, casi, que había 5 teorias de cuerdas, type I A y B, type II A y B y la heterótica) daba el espectro de todas las partículas. En los 90, con el descubrimiento de las dualidades, que venían a demostrar que esas diversas teorías de cuerdas eran (con matices) equivalentes pareció surgir un nuevo nivel de unificación. Al principio se pensó que la teoría M sería esa gran teoría unificada.

Pero las cosas no fueron por dónde se suponía. Las teorías Gauge de gran unificación empezaron a encontrarse con problemas, la más sencilla, el SU(5), predecía que el protón era inestable y los experimentos que buscan esa inestabilidad han invalidado el modelo. Se han construido variantes, flipped SU(5), SO(10), etc, que producen valores compatibles con la no observación de la desintegración del protón. Luego está el tema de los monopolos (distintos a los de Dirac, aquí son cuasipartículas asociadas a temas de naturaleza topológica-solitones-) que también predicen esa teorías y no se observan. Ahí la solución viene de la mano de la inflación, que habría diluido la densidad de solitones hasta un número de alrededor de uno por unidad observable del universo. Ahora, a raíz de el descubrimiento de modos tensoriales en el fondo de microondas por el experimento BICEP2, parece que hay una evidencia experimental sólida -aún sinconfirmar totalmente- y bastante directa de la inflación, así que ese punto quedaría más o menos zanjado.

En el terreno de la teoría de cuerdas la cosa se fué complicando mucho. En los 80 el paradigma era que se daría con una compactificación de las dimensiones extra de la cuerda heterótica que permitirían obtener el modelo standard, y que, además, nos darían pistas, o incluso todos los detalles, sobre cómo iría todo hasta energías superiores. Pero aunque se ha llegado muy cerca de tener un modelo standard a partir de la heterótica, con bastantes de los detalles, resulta que la forma de obtenerlo no es única, y cada variante predice a altas energías cosas diferentes. También, usando nuevos objetos aparecidos en los 90, las D-branas, y generalizaciones (M-branas de la teoría M, la 7-brana de la teoría F- otra variante de la teoría de cuerdas introducida por Cunrum Vafa) dieron nuevas maneras de obtener el modelo standard, con similar detalle, pero con un comportamiento más allá del modelo standard totalmente distinto entre ellas (aunque todas podrían agruparse en el paradigma de “mundos brana” dónde, simplificando, las partículas del modelo standard viven en 4 dimensiones y el gravitón en más) y completamente diferente al heterótico. Vale, hay dualidades, pero eso no significa que se pueda decir que son “moralmente iguales” esos escenarios, la física según sube la energía cambia totalmente, en algunos de ellos hacia un SU(5).

Y el descubrimiento de la constante cosmológica ya lo lía aún más, y terminamos con un montón de opciones tremendo. Por ejemplo, en el 2008 Vafa y colaboradores hicieron un auténtico tour de force con la teoría F, con bastantes artículos, algunos de más de 100 páginas, que hacían predicciones para el LHC que, lástima, predecían una masa del Higgs en unos márgenes que son incompatibles, por poco eso sí, con lo observado. Y, claro, si estás con un trabajo fijo (una tenure) en una universidad te puedes permitir embarcarte en esa odisea y que luego no salga nada. Pero sí eres un doctorando que intenta hacer algo que te de una plaza, es posiblemente deprimente.

Total, no daré mas detalles, que hay tantas posibilidades, para una teoría general, o incluso para relativamente pequeños campos (cuál es el modelo concreto de inflación, o no digamos ya que partículas forman la materia oscura), que uno se puede perder de mil maneras, sin ningún tipo de guía unificador. Hemos pasado de la gran unificación a la gran diversificación.

Envista de eso, aparte de mantenerse al día en lo que se va haciendo, yo, personalmente, intento pensar si hay algo que, sin renegar porque sí de lo que ya está hecho, si puede todavía haber alguna clave que guíe entre tantas posibilidades, por supuesto sin un éxito remarcable hasta ahora.

Voy a indicar ahora algunas de las ideas que he venido considerando, en particular las centradas en la teoría de cuerdas.

La idea más arriesgada es plantearse la misma teoría, pero con un cambio de paradigma. En vez de considerar que hay un espacio-tiempo y dentro de el unos objetos, las cuerdas, me planteo una opción diferente, pero que lleva a similar matemática.

En las ecuaciones de Einstein R_{\nu\mu} - g_{\nu\mu}R=T_{\nu\mu} tenemos dos elementos, a la izquierda un elemento puramente geométrico, la curvatura, y a la derecha uno asociado totalmente a la materia, el tensor energía momento, asociado a las partículas. Entre esas partículas estaría el gravitón, que sería una fluctuación de la métrica. Digamos que el gravitón da la reacción del espacio-tiempo a si mismo. En la gravedad cuántica inicial, con partículas puntuales, se parte de una descomposición de una descomposición de la métrica en dos partes g_{\nu\mu}= \eta_{\nu\mu} + h_{\nu\mu}. Aquí \eta_{\nu\mu} sería el término de background (en el caso sencillo la métrica minkowsky), y h una fluctuación que, convenientemente cuantizada, sería el gravitón. Antes de seguir una reflexión algo tonta. Esa perturbación de la métrica tiene los mismos grados de libertad que una partícula de spin 2, y por eso se identifica una métrica, la característica de la gravedad con una partícula de spin 2. Lo curioso es que una métrica en geometría es una forma bilineal (o cuadrática, según se mire). Digamos que uno podría plantearse sí no debería pensarse que el observable básico de la gravedad cuántica, que es la métrica, no debería tal vez ser un objeto bilineal en vez de uno lineal. Pero claro, en cuántica los operadores deben ser lineales, y los intentos de hacer una teoría con operadores no lineales tiene muchos problemas, tanto prácticos como conceptuales. Por eso es más sencillo dejarlo correr y quedarse tranquilo con la identificación de la métrica con una partícula de spin 2, que es algo que tiene mas respaldos (teoría de Fierz-Pauli, en la que, recursivamente, a partir de gravitones se llega, más o menos a la relatividad general). La teoria para un gravitón inspirado en una partícula puntual es no renormalizable, pero en su variante en la que el gravitón aparece cómo uno de los modos de vibración de la cuerda da lugar a una teoría consistente, y eso es algo de agradecer.

En todo caso, seguimos teniendo dos objetos, el espacio-tiempo y la cuerda, y, en última instancia, el objeto mas interesante -para justificar la teoría cuanto menos- de la cuerda, el gravitón, es geométrico. Mi idea es ponerlo todo en el terreno del espacio-tiempo. La idea sería darle una cualidad extra, probablemente de naturaleza geométrica, a ese espaciotiempo para dotarlo de una naturaleza dinámica. Si pensamos en esa propiedad extra cómo una especie de “tensión” (con las adecuadas propiedades buenas de transformación) lo que tendríamos es que en el espacio-tiempo habría líneas de tensión. Y, cómo deberían tener propiedades buenas de covarianza esas líneas de tensión serían equivalentes matemáticamente a las cuerdas bosónicas. Digamos que matemáticamente serían el mismo objeto, pero conceptualmente cambiarían. en vez de ser unos entes que están ahí no se sabe porque, y que son extensos, y no se disgregan, por arte de magia, aparecerían de manera natural por resultado de una dinámica del propio espacio-tiempo. Por supuesto ahí habría un punto extra, una dinámica mas fundamental del espacio-tiempo que da lugar a que en este aparezcan líneas de tensión que podemos describir mediante las cuerdas. En este sentido las cuerdas serían sólo una descripción aproximada y habría algo más fundamental.

Por supuesto esa idea tiene muchos problemas. Para empezar porque ese paradigma funciona bien para la cuerda bosónica, pero se complica para la supercuerda. En realidad, si uno parte de un superespacio (añadir coordenadas de Grassman, que están asociadas a fermiones, al espacio-tiempo ordinario) uno podría obtener la supercuerda, aunque, desde luego, la matemática es complicada. Normalmente las supercuerdas se obtienen mediante la imposición de supersimetría en el worldsheet y luego imponiendo condiciones varias, se llega a que hay supersimetría en el espacio target. Pero vamos, en principio se puede obtener un lagrangiano supersimétrico desde el superespacio, y lo mismo para una supercuerda. Si partimos de una teoría gravitatoria en el superespacio podríamos jugar al juego anterior, de líneas de tensión en el superespacio, que serían las cuerdas. Pero, claro, en realidad se puede demostrar que la teoria de cuerdas en su formulación habitual, tiene cómo limites de baja energía las teorías de supergravedad. En ese sentido la cuerda es mas fundamental que la supergravedad. En el paradigma que propongo sería mas rebuscado. Hay una dinámica, que no sabemos, que se asemeja a la supergravedad (da un superespacio al menos), pero que en principio es distinta, y mas complicada. Esa teoría permite hablar de “tensiones” en el superespacio, que, identidificadas cómo cuerdas, dan lugar a una teoría cuyo límite a bajas energías es la supergravedad. Eso nos daría una condición complicada de consistencia.

En fín, realmente no sé si, con lo que he contado hasta ahora, este punto de vista aporta algo, salvo, tal vez que sea mas “natural” y unificado. Ya no hay dos cosas, espacio-tiempo y cuerdas, sólo una, el espacio-tiempo, ergo es más unificado. Y es mas “natural” porque no hay que postular algo tan exótico cómo una cuerda que no se disgrega ¿por qúe no?.

Por supuesto, lo divertido, es que en esa teoría surgen generalizaciones “naturales” que no lo son tanto en la teoría de cuerdas. Para empezar ya no hay motivo natural para imponer que la tensión sea la misma en todos los puntos y, por tanto, en el lagrangiano de la cuerda la T dependería de x T(x). Puesto que la tensión es el único parámetro (en última instancia, no en la práctica) libre de la cuerda, y aquí es simplemente algo que varía de punto a punto, al menos en principio, se pierde la idea de que si supiéramos T, y la suficiente matemática, podríamos deducir todo lo demás, las constantes de la física de bajas energías, correspondientes a compactificaciones/braneworlds concretas. Pero es de suponer que en la teoría geométrica que da lugar a esa tensión habría una constante, y se recuperaría el status quo.

Más divertido aún es pensar en que no hay que pensar que la T deba ser positiva. Habría que plantearse las T’s negativas. Si interpretamos la T cómo densidad de energía, es lo habitual, tendríamos que las cuerdas con T negativa tendrían energía negativa y, por tanto, podrían ser “materia exótica” en el sentido del término usado habitualmente en la literatura de agujeros de gusano.

Y, para cerrar esta entrada, dejo un link a un artículo publicado hoy en arxiv que trata precisamente de la posibilidad de tratar la tensión cómo algo dinámico en la teoría de cuerdas Dynamical String Tension in String Theory with Spacetime Weyl Invariance. Por supuesto en ese enlace el planteamiento y los detalles no están en nada relacionados con lo que yo planteo. Dos de los autores Steindard y Turok, son bien conocidos, aunque no necesariamente bien considerados por todo el mundo (están en la lista negra de Lubos, por ejemplo xD). Digamos que la publicación de ese artículo, que he empezado a leer, y seguiré leyendo ahora, me ha animado a escribir esta entrada, centrándome en las ideas relacionadas con lo que se plantea. Hay mas cosas que me gustaría comentar sobre la teoría de cuerdas, pero ya será cuando se presente la ocasión propicia.

Anuncios

Ingredientes de una “cronomecánica cuántica”

marzo 13, 2014

Una amiga, a raíz de ver la película “El efecto mariposa” me preguntó como podía interpretarse la película en términos de la mecánica cuántica. La pregunta es interesante porque, al fín y a la postre, uno de los alicientes de las películas de ciencia ficción es intentar especular sobre la parte científica que normalmente sólo se suele esbozar, y generalmente de mala manera. Aparte de la película había mas alicientes para pensar en el tema del tiempo en física dónde tenemos cosas como soluciones de la relatividad general que implican trayectorias que llevan hacia atrás en el tiempo (son sus consecuentes paradojas), taquiones, que, de existir, podrían enviar señales al pasado (ver Taquiones y viajes en el tiempo, o la ecuación de Wheler-de Whitt, que resulta de poner la relatividad general en un formalismo canónico en la cuál, en cierto modo, no existe el tiempo. De hecho en un momento dado un grupo de inversores amigos de la especulación en física con tintes filosóficos, la FQXI, dedicó uno de sus premios anuales a la cuestión de la física del tiempo, sin gran éxito ya que en mi opinión ninguno de los artículos enviados era particularmente bueno. De hecho, espero, esta entrada debería ser mas interesante que cualquiera de esos artículos ;). Y eso que ni siquiera pretendo que sea del todo seria xD.

images

Bien, en la película tenemos un chaval, estudiante de psicología, que a raíz de unos experimentos con bichos adquiere una habilidad para conseguir que cada vez que hay un aspecto trágico en su vida desencadenado de manera muy clara por un acontecimiento concreto es capaz de enlazar con una realidad en la que el acontecimiento sucedió de manera diferente y vivir las consecuencias de esa versión alternativa. Supongo que los autores de la película pueden haberse inspirado en la interpretación de Everett de la mecánica cuántica en la que cada vez que se produce una medida cuántica hay una división de la realidad de tal forma que se forma un universo diferente para cada una de los posibles resultados de la medida. Claramente eso lleva a intentar enfocar el tema del tiempo desde una perspectiva cuántica, y eso es lo que hice. Desde entonces, a ratos libres, he ido perfilando un poco más el asunto, entre otras cosas porque, de tanto en tanto, alguien me lo recuerda. He intentado escribir algo sobre el tema en el pasado, pero siempre que me había planteado escribir me ponía a reanalizar el asunto y siempre se me ocurrían cosas nuevas que considerar y terminaba por no escribir nada. Ahora, ya por fín, me decido a dejar algunos detalles de cómo he ido enfocando el tema.

El punto de partida es a la vez sencillo y delicado. Recordemos la base de la mecánica cuántica no relativista elemental. Si alguien no sabe nada de cuántica puede probar a leerse mi post de introducción a la misma Introducción a la mecánica cuántica Tenemos una función de onda \phi( x,y,z,t) cuyo valor al cuadrado nos da la probabilidad de encontrar la partícula que representa esa función en el punto (x,y,z) en el instante t. Aquí t es el tiempo “newtoniano” que existe de manera universal y es igual en cualquier punto del universo. Por supuesto algo así no existe ya que la física Newtoniana debe ser sustituida por la de la relatividad general, en la cuál el tiempo forma parte de un cuadrivector. Pero por ahora ignoremos esa parte relativista. El planteamiento que hago es muy ingenuo, reinterpreto esa función de onda cómo la probabilidad de encontrar la función de onda en el punto (x,y,z) y, esta es la novedad, en el instante t. Por supuesto tras esta propuesta ingenua a nivel de lenguaje se esconde una gran dosis de sutileza ¿Cómo es eso de no poder saber en que instante se encuentra la partícula? Al fín y al cabo si estoy en un laboratorio tengo un reloj, y puedo saber en que momento he detectado la partícula. Vale, tenemos el principio de incertidumbre de Heisenberg tiempo-Energía que afirma (mas adelante entraré en las sutilezas de esta relación) que no podemos saber con total precisión a la vez el tiempo y la energía. Pero, al fin y al cabo, si tenemos suficiente energía, podemos medir con precisión arbitraria el momento de la medida.

Definitivamente en el universo newtoniano la propuesta no tiene mucho sentido, y es necesario ya meter conceptos de relatividad dónde tenemos las transformaciones de Lorentz (relatividad especial) y, mas generalmente, el efecto de la masa cómo ralentizadora del paso del tiempo (el tiempo transcurre mas lento cerca de un cuerpo pesado que en el espacio libre). En estas circunstancias no hay tiempo universal y debemos hablar de el tiempo propio relativista (asumo que todo el mundo conoce la paradoja de los gememolos y demás cosas típicas de la relatividad así que no daré explicaciones al respecto). \tau=\frac{t}{\sqrt(1-v^2/c^2)} en relatividad especial, o, mas generalmente \tau=g_{00}\dot (x^0) + \frac{g_{0i}}{\sqrt(g{00})} en relatividad general.

Bien, entonces, con el concepto de tiempo propio, ya tenemos un ingrediente para una forma posible (hay más) de interpretar eso de “probabilidad de hallar la partícula en el tiempo t”. La otra cosa que necesitamos es el concepto de reloj cuántico. Realmente es un concepto sencillo pero encontrar una forma rigurosa de exponerlo es ligeramente mas complejo. La idea es tener un dispositivo que tenga una parte con un comportamiento periódico y otra que permita construir a partir de ese comportamiento un número que represente el tiempo transcurrido desde que el dispositivo empezó a funcionar. Y, se supone, que ese chisme debe ser lo bastante pequeño para que los efectos cuánticos sean apreciables claro, que sino cualquier reloj convencional valdría. Siendo un sistema cuántico compuesto de varias partículas lo vamos a poder representar por una función de onda conjunta \phi(\vec(r_1), \vec(r_2), ..., \vec(r_n), t) Bien, aquí se supone que todas las partículas del reloj están en el mismo tiempo. Esto lo interpretamos cómo que no tenemos ningún dispositivo más pequeño que el propio reloj que nos permita medir el tiempo de manera separada para cada una de las partículas. Asumimos, además, que las partículas del reloj se mantienen siempre confinadas en un volumen concreto (el tamaño del reloj) y que dentro de ese volumen el campo gravitatorio es aproximadamente constante. En esas condiciones el reloj lo que hace es medir su propio tiempo propio, y ese t sería el \tau .

Con el tiempo propio, y el reloj cuántico para poder medirlo, ya podemos dar sentido a eso de “probabilidad de hallar la partícula (sistema cuántico) en el tiempo t). Imaginemos que hacemos un experimento de doble rendija con nuestro reloj cuántico, pero con una pequeña variante. Por una rendija el reloj viaja por un espacio-tiempo plano, por la otra pasa cerca de un miniagujero negro (o cualquier otra cosa lo bastante densa para introducir un retraso temporal que puede discernir el reloj cuántico). Obviamente si pasa por el espacio-tiempo plano el tiempo propio que le lleva al reloj llegar desde el punto de partida al final va a ser mayor que si pasa por la rendija cercana al microagujero negro. Pero, claro, cómo en cualquier experimento de doble rendija no sabemos por dónde pasó exactamente el reloj cuántico y lo que tenemos es que en el resultado final vamos a encontrar que una vez medimos un valor t1 y otra un valor t2 (en realidad, si tenemos un microagujero negro, podríamos tener muchos valores posibles si al pasar por la rendija del agujero negro el reloj pudiera pasar por diferentes distancias al mismo). Visto así, no podemos medir el tiempo propio y el tiempo no está determinado. Esta idea es un poco discutible ya que podría argumentarse que hay una cierta redundancia. Al fin y al cabo lo que tenemos es que la función de onda conjunta estaría en un estado de superposición entre dos de autovalores posibles que consideramos cómo “marca temporal”. En realidad, como veremos, el “tiempo” normalmente va a ser una información menos detallada que un autoestado así que tal vez se podría obviar ese posible criticismo. Aunque esta exposición de el concepto de reloj cuántico la he elaborado yo en su totalidad soy consciente de que hay mas gente que ha trabajado en esta idea y que incluso se ha hecho alguna implementación experimental de la idea. Recuerdo que Sabine Hossénfander mencionó en su blog ese experimento , pero no he dado con el link al post en concreto.

Para poner un ejemplo concreto podríamos considerar que nuestro reloj cuántico fuese un conjunto pequeño de átomos con algunos electrones excitados en algún estado metaestable. Con el paso del tiempo estos electrones irían decayendo al estado fundamental (el periodo de decaimiento al estado fundamental sería el ingrediente “periódico” del reloj) y podríamos usar el número de electrones medidos en el estado fundamental cómo “el tiempo transcurrido”. Aquí hay varios autoestados compatibles con un número concreto de electrones en el estado fundamental (porque no nos importa en que núcleo concreto se ha producido la caída al estado excitado). Es interesante el hecho de que aquí el tiempo es discreto, mientras que en física siempre es una variable continua. En teoría siempre podemos hacer un “reloj cuántico” mas preciso (al menos hasta llegar al tiempo de Planck, y según mucha gente incluso más allá) pero, en la práctica, podríamos argumentar que para estudiar nuestro sistema no podemos contar con mas información temporal que la que nos da el reloj cuántico mas preciso que tenemos.

La cosa se vuelve mas divertida cuando usamos estos relojes cuánticos en este tipo de casos para tomar medidas temporales de otros acontecimientos. Tomemos el caso de dos naves espaciales. Una viaja de A a B por una zona plana y otra cerca de un agujero negro. Esas naves usan relojes atómicos para medir el tiempo. Cómo esos relojes no tienen bien definido el tiempo cualquier evento lleva automáticamente indefinido el tiempo y así las funciones de onda que representen procesos cuánticos en esas naves no tendrían el tiempo bien definido. Dejo al lector que rellene los detalles de experimentos concretos que ilustren de forma rigurosa esta idea, que no voy a hacerlo todo yo :P.

Vale, asumamos que lo explicado anteriormente se sostiene (es un tema abierto a discusión, claro). En ese caso vamos a proceder a hacer un formalismo naive para añadir eso y crear nuestra “cronomecánica cuántica”. Recordemos que en mecánica cuántica tenemos dos operadores fundamentales, el operador momento \hat p \phi=-\frac{i\hbar\partial_x }{2m} \phi y el operador posición \hat x\phi=x.\phi . La justificación del operador x, básicamente, es la de obtener el valor mas probable de la posición, y eso en una variable estadística, es la media (osea, multiplicar por x y sumar/integrar x multiplicado por la distribución estadística, osea, la función de onda. Otra gente interpreta ese operador cómo trasladar en una distancia x la función de onda, pero, la verdad, yo prefiero la interpretación probabilística. Cómo quiera que se vea eso permite que, inmediatamente, el operador “posición temporal” sea multiplicar la función por t, i.e. \hat t \phi= t.\phi .

El operador análogo al operador momento es mas delicado. El operador momento se interpreta cómo el generador infinitesimal de las traslaciones (ver, por ejemplo Operadores de la mecánica cuántica. Entonces, podríamos decir que el operador “Cronos” \hat c= -\frac{i\hbar}{2m}\partial_t genera las traslaciones en el tiempo. Si admitimos eso podríamos hallar las relaciones de conmutación entre los dos operadores y comprobar que son las mismas que entre los operadores x y p i.e. [\hat x, \hat p]= \hat x \hat p - \hat p \hat x= i\hbar es decir [\hat t, \hat c]= i\hbar . Hasta aquí todo parece sencillo y sin sutilezas. El problema surge cuando uno se da cuenta que ya hay un operador casi idéntico a lo que yo he llamado operador Cronos, el “operador energía” que es igual en todo excepto en el factor de 2m dividiendo. Este “operador energía” aparece en la ecuación de Schröedinger dependiente del tiempo \hat H \phi = -i \hbar \partial_t \phi y en la ecuación de Klein-Gordon, dónde es mas evidente que juega el papel de la energía ya que ahí se coge la relación clásica entre el trimomento y la energía: E^2= p^2 + m^2 c^4 y se sustituye la E por el “operador energía” para obtener la ecuación de Klein-Gordon (para mas detalles ver en la wiki la Ecuación de Klein-Gordon.

Esto del “operador energía”, cómo digo, es algo curioso. Al fin y al cabo en mecánica cuántica la energía es el hamiltoniano. Además, resolviendo la ecuación de Schröedinger dependiente del tiempo se puede ver que el hamiltoniano es lo que genera la evolución temporal del sistema cuántico, en analogía al operador momento que general la traslación espacial. Resulta curioso también que el “operador energía” no incluya la masa. Mi “operador cronos” si incluye esa masa, y, formalmente, uno podría pensar que también debería generar las traslaciones en el tiempo. Sobre la presencia o no de la masa se puede argumentar que en un sistema general la masa si influye y no evolucionan en el tiempo de la misma manera dos partículas de distinta masa (eso sólo pasa en el campo gravitatorio, pero no en, por ejemplo, un campo magnético) por lo cuál sería mejor “operador energía” mi operador cronos que el normal. Por otro lado, si se hace eso, no se obtiene la ecuación de K-G.

Que el operador cronos se pudiera interpretar como una energía sería interesante porque aquí la incertidumbre tiempo-energía tendría la misma interpretación que en el caso de la posición y el momento. Normalmente la relación de incertidumbre tiempo-energía, se interpreta cómo que en una transición entre dos estados separados por una energía E si queremos medir esa energía con una precisión dada necesitamos al menos un tiempo de observación que cumpla esa relación de incertidumbre. Eso también lleva al concepto de partícula virtual en la que si no “miramos” durante un tiempo t se puede formar una partícula con energía E compatible mediante la relación de incertidumbre con el tiempo que estamos sin “mirar”.

Cómo, por supuesto, esta teoría no pretende ser totalmente seria no he examinado a fondo estos aspectos, tampoco he mirado otras temas de compatibilidad ¿conmutan estos operadores que he introducido con el hamiltoniano para poder ser observables?

En todo caso, asumiendo que hay una relación entre mi operador C y la energía podemos ir un poco más allá. El operador C tiene, en general, espectro continuo con valores negativos y positivos, como el operador t. Eso vendría a interpretarse cómo que tenemos partículas yendo hacia delante y hacia atrás en el tiempo, y tendríamos una visión de las antipartículas cómo los autoestados negativos del operador C. Una vez más no he analizado a fondo el asunto, y dejo en manos de alguien potencialmente interesado que lo haga si le apetece divertirse con un tema desenfadado cómo es este.

Vale, una vez expuesto el “formalismo” de la cronomecánica cuántica vamos a aplicarlo a jugar un poco más con él. Cuando tenemos algún caso de paradojas temporales, es decir, que viajamos por una curva de tiempo cerrada y partiendo de un tiempo t1 llegamos a un tiempo t2 dónde t2th a otro t1<th. Aquí ya tenemos un problema posible al intentar hacer superposiciones cuánticas ya que las partículas antes y después del th no son iguales. Por ejemplo, un bosón vectorial Z tiene masa después de th y es de masa 0 antes de th. Sí hacemos volver una partícula Z en el tiempo a través de una de esas curvas de tiempo cerrado tendríamos que considerar un estado de superposición entre una partícula sin masa y otra con masa, y con distintos grados de liberad además. En realidad en cuántica de campos el observable es el campo y podríamos decir que en t<th crea partículas sin masa y despúes partículas con masa. En cualquier caso eso de hacer superposiciones de estados que pertenecen a vacíos distintos es algo que se supone que está prohibido en cuántica por las reglas de superselección y no debería poder hacerse. Entonces, si conectamos estados temporales dónde el vacío cuántico ha cambiado nuestro formalismo de superposición cuántica de estados ya no valdría y deberíamos buscar algo más sofisticado.

descarga

Otro tema mas divertido aún en esto de las paradojas temporales y la definición del tiempo es jugar con cuerdas. Imaginemos que la teoría de cuerdas es correcta y que cogemos una cuerda elemental y la hacemos crecer hasta un cierto tamaño macroscópico (esto es algo que Witten argumentó que podría haber ocurrido en el periodo inflaccionario y tener cuerdas cósmicas que fuesen cuerdas elementales agrandadas en vez de las asociadas a rupturas de la simetría, que son el otro tipo de cuerdas cósmicas posibles). Se supone que una cuerda tiene un tiempo bien definido. Ahora bien, si extendemos una cuerda macroscópica en una curva de tiempo cerrada sus diversos puntos estarían, en general, en tiempos diferentes, y, si la hacemos girar, estaría mandando hacia atrás en el tiempo a una parte de si misma. Por supuesto esto es un ejemplo muy tramposo porque el propio campo gravitatorio de esta cuerda cósmica fundamental seguramente sería lo bastante intenso para romper la geometría que permite la existencia de esas curvas de tiempo cerradas. En realidad existe algo llamado el principio de protección cronológica, introducido por Hawking, que argumenta (pero no demuestra) que siempre va a haber efectos cuánticos que arruinan la geometría clásica con curvas de tiempo cerradas. En su libro de agujeros de gusano Matt Visser hace un cálculo de teoría cuántica de campos que demuestra (al menos en buena parte) que esos efectos cuánticos destruyen el agujero de gusano cuando este intenta usarse cómo máquina del tiempo.

Otras cosa que, por ejemplo, se podría considerar con este formalismo que he introducido es ¿que pasa con el operador de ordenación temporal en teoría cuántica de campos? Y bastantes otras cosas (he considerado unos cuantos aspectos más, pero me llevaría demasiado espacio discutirlos). En cualquier caso, la verdad, no creo que el tema merezca meterse en tantas profundidades. Considero este "formalismo" cómo una guía práctica para tratar con algo de sentido, y un criterio concreto, las paradojas temporales que le gusta analizar a la gente de CF y poco más. Pero si alguien quiere profundizar en el tema y exprimir más el formalismo libre es ;).

Running Schwarschild radio

febrero 12, 2014

El caso mas sencillo de agujero negro es el de Scharschild, que describe un agujero negro sin carga y que no rota sobre si mismo. Su horizonte de sucesos, la superficie desde la cuál no se puede salir (ignoraré aquí cualquier sutileza sobre diversos tipos de horizontes que se pueden definir o la reciente afirmación de Hawking de que el horizonte de sucesos no es bueno para describir agujeros negros en los que los efectos cuánticos son importantes). Esta superficie, para el caso de Schwarschild es esférica, y tiene un radio el radio de Schwarschild que viene dado por R_s= \frac{2GM}{c^2}.

Cuando he hablado de efectos cuánticos al referirme a Hawking me refería, por supuesto, a su famosa teoría en la que usando técnicas de cuantización en espacios curvos mostraba que un agujero negro emite radiación, conocida cómo radiación Hawking. Podéis leer algunos detalles sobre esa radiación (pero no la deducción de la misma) en la entrada inglesa de la wiki Hawking’s radiation. Unas ideas muy elementales sobre cuantización en espacios curvos la tenéis (en español, aunque la mayor parte del blog esté en inglés) en mi otro blog: Ideas básicas sobre cuantización en espacios curvos.

Cómo se puede leer en esas entradas un agujero negro que esté aislado de todo y no se “alimente” como resultado de esa emisión de radiación va perdiendo energía, y por tanto masa, y su radio de Schwarschild se va haciendo mas pequeño, es decir, el agujero negro se va evaporando. Podría pensarse que el título de la entrada haga referencia a este efecto, pero considero que a estas alturas el tema de la desintegración Hawking es algo sobradamente conocido por cualquiera interesado en estos temas así que el propósito de esta entrada es ligeramente diferente. El término “running” seguramente pueda dar una pista a la gente que conozca teoría cuántica de campos con un cierto nivel y, por tanto, haya oído hablar de las “running coupling constants”. He mantenido el término en inglés porque no se me ocurre ninguna traducción realmente buena del término running, quizás lo que más podría acercarse es “deslizante”.

Cuando empecé a escribir la entrada pensaba despachar la explicación del grupo de renormalización, la ecuación de Callan-Symanzsky y la teoría de las “constantes de acoplo deslizantes” con entradas a la wiki española (o a algún blog en español que tratase el tema), pero he visto que la wiki tiene un tratamiento muy pobre, siendo generoso, del asunto y no he visto ningún blog que lo trate. Supongo que la mayor parte de gente que me lea se manejará bien con el inglés (después de todo suelo poner vínculos a sitios en inglés casi siempre) y podrá leer la entrada de la wiki inglesa: renormalizción. En todo caso me sirve para darme cuenta que tal vez debería hacer un esfuerzo y escribir algo sobre renormalización en el futuro. En todo caso ahora daré las ideas mínimas sobre renormalización para que se pueda entender lo que pretendo exponer.

En QFT el objetivo final, normalmente, es calcular amplitudes de transición entre estados asintóticos. Es decir, uno tiene, un grupo inicial de partículas libres con unos momentos dados que interaccionan por un tiempo finito y se convierten, en general, en otras partículas con otros momentos distinto. La idea es calcular las probabilidades de esas transiciones. Los cálculos de esas probabilidades se suelen hacer usando los diagramas de Feynman. Discutí algo sobre ello en la entrada sobre el amplithuedron. Cómo explico ahí los diagramas se organizan en función del número de loops. Los que no tienen loops se denominan “tree level” y normalmente suelen reproducir las secciones eficaces clásicas (las secciones eficaces son unos objetos que sirven para expresar los procesos de colisión y están relacionados con las amplitudes de transición que comentaba antes). A nivel tree los diagramas de Feynman dan resultados finitos. Sin embargo, en cuanto nos vamos a diagramas con loops los resultados se vuelen infinitos y hay que ver si se puede lidiar con esos infinitos de algún modo para obtener respuestas finitas. Sí ello es posible se dice que la teoría es renormalizable.

Para entender un poco mejor el tema usemos el ejemplo de la wiki, el lagrangiano de la QED.

Ese lagrangiano consta de tres partes básicas. Una es el lagrangiano de Dirac que describe un fermión libre standard (no quiral). Otro término L_{em}=\frac{1}{4}F_{\nu \mu}F^{\nu \mu} (lo he escrito omitiendo las B’s) es el que describe el campo electromagnético libre. El otro término, el que, operando para dejarlo por separado, vendría a ser L_{int}=ieA^{\nu}\Phi es el que describe la interacción. La e que aparece multiplicando sería la constante de acoplo que en el caso del electromagnetismo es la constante de estructura fina, que suele escribirse con la letra alpha, pero bueno, mantengo la notación de la wikipedia. Según decía, y como comentan en la wikipedia, los diagramas con uno y mas loops suelen dar resultados divergentes cuando se calculan. Eso se debe a que en el cálculo hay que efectuar integrales indefinidas que resultan no estar acotadas. Hay diversas técnicas de regularización y renormalización (Pauli-Villards, dimensional, función z, etc). Todas ellas tienen una estrategia común. Hay un parámetro, llamémoslo u, y la integral se divide en dos partes, una hasta un valor de inferior a u, y otra desde u hasta infinito (esto es muy transparente en la técnica de Pauli-villars dónde ese u es un momento, denominado momento de corte. En la regularización dimensional se calcula la integral en el plano complejo, cambiando el momento p por p + iu, y luego se hace tender u a 0). Una de las partes de la integral dará un resultado finito, el otro un resultado infinito. La idea de la renormalización es que tenemos que añadir al lagrangiano original unos términos que den un nuevo diagrama de Feynman que anule la parte infinita de el diagrama original. Eso se va a poder hacer siempre, lo malo es que esos nuevos términos, en general, van a tener su propia constante de acoplo. Y luego, por cada nuevo loop, tendremos que añadir mas contratérminos, con mas constantes. En general una teoría con estas características va a ser inútil porque si bien término por término va a tener resultados finitos resulta que cada nuevo término añade una nueva constante que debe ser medida experimentalmente y, por consiguiente, se vuelve no predictiva.

En el caso de las teorías renormalizables los contratérminos tienen la misma forma que el término de interacción orginal. Eso hace que podamos anular los resultados infinitos mediante cambios en el valor de los campos, masas y consantes de acoplo. Se supone que el lagrangiano original “desnudo” (bare en inglés, de ahí la B que añade la wiki a los términos del lagrangiano) no puede observarse porque debido a fluctuaciones cuánticas un electrón va a estar rodeado de una nube de pares electrón/positron virtuales que apantallan la carga desnuda. Por ese motivo, la carga, la masa, la función de onda, y, lo más importante, las constantes de acoplo, van a depender de la energía a la que se mide la interacción. Por eso se habla de “running coupling constants”. Dependiendo de la energía a la que se midan van a tener un valor distingo. Esto es el proceso de renormalización, pero si uno va un poco más allá llega a una ecuación que deben cumplir en general esas constantes de acoplo, la ecuación de Callan-Szymansky. Esa ecuación, usando los resultados a un loop, se puede resolver y nos da el flujo de las constantes de acoplo según cambia la energía. Estos resultados son los que dan la idea de teorías de unificación porque se observa que las constantes de acoplo del electromagnetismo, de la nuclear débil y de la nuclear fuerte casi convergen a un valor común en el que todas las constantes valdrían lo mismo y, por tanto, habría una única interacción. Eso da la idea de teorías de gran unificación (GUT en inglés). Si uno incorpora supersimetría esa casi convergencia se convierte en convergencia, y es uno de los muchos motivos por los que se cree que la supersimetría es importante, pese a no haberse observado.

Bien, ahora ya tenemos (espero) una idea de lo que es eso de “las constantes de acoplo deslizantes”. Al hablar de las GUT he mencionado tres interacciones, pero, aparte de esas, hay otra, la gravedad. Tanto en la teoría de Newton cómo en la de Einstein la constante de acoplo de la gravedad es la G de la fórmula de Newton de la gravitación universal F=G \frac{m.m'}{R^2} . En QFT tenemos partículas “materiales” descritas por la ecuación de K-G (partículas escalares cómo el bosón de Higgs) o por la ecuación de Dirac (fermiones no quirales, cómo el electrón o los quarks) o algún tipo de ecuación (Weyl o Majorana para fermiones quirales, cómo el neutrino. Las interacciones viene medidas por partículas virtuales que van a ser partículas vectoriales. Para el electromagnetismo esa partícula es el fotón, para las nucleares fuertes son los gluones y para la nuclear débil los bosones W+, W- y Z0). En las entradas de este blog dedicadas a QFT, por ejemplo la anterior, se pueden encontrar mas detalles. Feynman, uno de los creadores de la QED, y el que desarroló la técnica de los diagramas que lleva su nombre intentó cuantizar la teoría de la gravedad de Einstein por procedimientos análogos a los de la QED. Más adelante de Witt continuó su trabajo y formuló las reglas para los diagramas de Feynman de la relatividad general.

El truco está en que la métrica de la relatividad general (una introducción desde o a relatividad especial y general la tenéis en este blog Minicurso de Relatividad General ) se divide en dos partes g_{\nu \mu} = \eta_{\nu \mu} + h_{\nu \mu} La primera parte, la \eta de esta división puede pensarse que es la métrica de minkowsky que describe la relatividad especial (aunque, en realidad, puede ser cualquier otra métrica que cumpla las ecuaciones de Einstein que se considera una métrica de fondo que no se cuantiza) y la parte con la h es la que describe las fluctuaciones cuánticas. Se supone que esas fluctuaciones corresponden al intercambio de gravitones. El problema es que la teoría cuántica que se obtiene al hacer eso es no renormalizable y uno debe buscar una teoría cuántica de la gravedad de otra manera. La respuesta mas desarrollada de la gravedad cuántica es la teoría de cuerdas. Esta describe la propagación de gravitones y es una teoría renormalizable.

Bien, ya vamos llegando a la idea de la entrada. Sí tenemos una teoría cuántica de la gravedad deberíamos tener que, de forma análoga al resto de constantes, la contante gravitatoria G va a depender de la energía a la que se mide y que es una “running coupling constant”. Lo cierto es que no es un tema que haya visto (al menos que recuerde) tratado en ningún libro standard, ni de QFT, ni de cuerdas, ni tampoco en artículos de introducción a la gravedad cuántica y su problemática. De hecho ha sido mientras pensaba en otros asuntos cuando he caído en que esto podría pasar. Las consecuencias de una “running G” serían varias, pero inicialmente se me ocurrió relacionarlo con los agujeros negros. El planetamiento es muy simple: si el radio de Schwarschild depende de G, y esta varía con la energía, el radio de Schwarschild debería depender de la energía. Esto hay que concretarlo un poco, claro. Una idea sería que cuando hago chocar dos partículas a alta energía estas ven una G renormalizada y, por consiguiente, su radio de Schwarschild debería calcularse con esa Gren y no con la G de bajas energías. Otra idea sería que un agujero negro astrofísico (o uno primordial, formado en los momentos inmediatamente posteriores al big bang) cuando se estuviese terminando de evaporar llegaría a un tamaño en el que “probaría” tamaños muy pequeños, y por tanto energías muy grandes (recordemos, por causa de la relación de incertidumbre de Heisenberg para probar tamaños pequeños necesitamos energías muy grandes). Por tanto, una vez más, ahí podría jugar su papel la Gren.

Bien, una vez que se me ocurrió la idea me puse a buscar si alguien la había considerado ya, y sí, algo he encontrado. Está, por ejemplo, éste artículo On the running of the gravitational constant. Es del 2011 y analiza trabajos previos sobre el asunto. Afirma que no se puede dar una definición universalmente válida para esa “running G”. Ahora bien, sí uno mira los cálculos observa que están hechos con la gravedad cuántica mas sencilla, la cuantización directa de la gravedad de Einstein, que sabemos que no es renormalizable. Todos los demás artículos que he visto sobre el tema también hacen algo similar. Eso, por supuesto, es muy chocante. ‘t Hoof demostró que si bien la gravedad pura (sin términos de materia) es renormalizable a 1 loop no lo es si se introducen términos de materia (y desde luego no lo es a 2-loops, incluso sin materia). Eso hace que, salvo que se usaran para calcular la “running G” diagramas de interacción entre dos gravitones no se podría hacer nada en el sentido habitual. Y, de hecho, por lo que he visto, los cálculos usan interacción de materia con la gravedad. No he seguido los detalles, pero si está claro que no pueden seguir los pasos habituales. De hecho en ese artículo ya aclaran que es precisamente por no ser renormalizable la teoría por lo que no hay una definición universalmente válida de esa “running G”.

El caso, y esto es lo que me sorprende, si uno va a teorías de supergravedad, que son teorías de campo ordinarias. Se tiene cree que en general la teoría no es renormalizable. En los 70-80 se encontraron argumentos que así lo afirmaban, aunque en la década pasada se han revisado esos argumentos y, al menos por un tiempo, hubo esperanza de que tal vez, las mas supersimétricas, de ellas, si fuesen teorías renormalizables después de todo. ahora ya no está tan claro, y, en cualquier caso, aunque fuesen renormalizables se sabe que no podrían incorporar el modelo standard mediante mecanismo de Kaluza-Klein. En todo caso estas teorías de supergravedad, incluso con una carga supersimétrica, sí son rernormalizables a 1-loop, y creo que a mas loops, incluso interactuando con materia. Siendo así me pregunto porque no se usan esas teoris de supergravedad para calcular esa “running G”. Y, desde luego, la teoría de cuerdas da una teoría cuántica de la gravedad renormalizable ¿Por qué no usan la integral de Polyakov y demás para obtener esa “running G? Estoy revisando material, a ver si encuentro respuestas.

En cualquier caso hay muchos indicios de que una teoría perturbativa no va a incorporar todos los aspectos de la gravedad cuántica. En el cálculo de la entropía de un agujero negro en teoría de cuerdas se usaron objetos no perturbativos de esta teoría, las black branas (objetos de la supergravedad que generalizan a los agujeros negros, que son obtenibles cómo límite de las supercuerdas) formadas por apilamiento de D-branas. Más adelante se vió que, en realidad, la clave está en el cómputo de la entropía de una teoría conforme que describe la proximidad del horizonte y que no son necesarios todos esos detalles finos de la teoría de cuerdas. No obstante hasta que esos grados nuevos de libertad se vuelvan importantes yo creo que la “running G” sería válida. Estoy mirando material para precisar los límites esos, ya veré que saco.

Pese a todas estas consideraciones uno podría pensar que, después de todo, el resultado obtenido en una teoría completa de la gravedad cuántica no debería diferir mucho de lo que se obtiene por los métodos imperfectos que usa esta gente. Y como quiera que en ese artículo dan un resultado concreto (que coincide con el obtenido en otros artículos) uno podría usar, a modo de estimación, esa expresión y ver cómo afecta eso a la creación de agujeros negros en colisiones de partículas, y, por otro lado a la desintegración de agujeros negros “grandes”. Estoy ahora mismo terminando los cálculos, y pondré una entrada cuando los termine y tenga tiempo. Por supuesto que nadie se tome esto terriblemente en serio. Son cálculos relativamente sencillos, y es divertido. Anticipo ya que, con menos detalle, otra gente ha hecho algo similar y, según ellos, y cómo yo sospechaba por estimaciones groseras, con esa G renormalizada los agujeros negros empiezan a formarse con menos energía. En particular en un artículo afirman que podría ser que, incluso con 4 dimensiones (sin necesidad a recurrir a dimensiones extra mesoscópicas cómo en los modelos de braneworlds inspirados en teoría de cuerdas) a la escala de unos pocos TeV podrían formarse agujeros negros. Y, sospecho, por estimaciones groseras que he hecho, que la radiación Hawking se debilita conforme el agujero se empequeñece haciendo que estos agujeros sean mas estables de lo que se pensaba. Pero vamos, insisto, todo esto está traído por los pelos y es especulación sin una base demasiado sólida, así que recomiendo al lector que trate esta entrada, y la que debería venir después cómo algo pedagógico sobre aspectos ya conocidos en la que, además, se presenta algo ligeramente nuevo, cómo una especulación poco sería, aunque, eso espero, entretenida de considerar.

Sobre la naturaleza de la masa

febrero 3, 2014

Sin duda el que mejor nos podría aclarar este tema es el físico Bruce Banner, más conocido por su alterego Hulk, la masa en castellano, pero cómo no está localizable en estos momentos tendré que hacer mis propia exposición del asunto ;).

Tal vez, dado que el año pasado se concedió el nobel a Higgs por su trabajo teórico, corroborado por el descubrimiento del famoso bosón este año pueda parecer, según se comenta en la divulgación, que el tema está resuelto: el higgs es lo que da masa a las partículas. Pero, la verdad es que el asunto es mucho mas sutil. Voy a explicar primero porqué el mecanismo de Higgs no nos dice gran cosa, a nivel fundamental, sobre la naturaleza de la masa.

En teoría cuántica de campos la masa aparece cómo una constante en las ecuaciones o en los lagrangianos. Por ejemplo, en el caso de una partícula escalar, regida por la ecuación de Klein-Gordon, es una constante que multiplica al término cuadrático en el campo.

\frac{1}{c^2}\frac{\partial^2}{\partial t^2}\Phi - \nabla^2\Phi+ \frac{mc^2}{\hbar}\phi = 0

Algo similar ocurre en la ecuación de Dirac.

\left( i \hbar c\sum_{\nu=0}^3 \gamma^{\mu} \frac{\partial}{\partial x^{\mu}} \Psi + i m c^2 \right) \Psi = 0

Aquí he escrito las ecuaciones manteniendo todas las unidades y evitando el uso de las unidades naturales (h=c=G=1) para que se entienda mejor porque hablamos de un término de masa. En ambas ecuaciones tenemos un primer término “cinético”, que contiene las derivadas de la función de onda. El siguiente término contiene unas constantes que multiplica a la función. Escribiendo las ecuaciones es difícil ver porque surgen esas constantes concretas y habría que atender a la derivación de las ecuaciones. Es más fácil verlo desde el lagrangaino.

El Lagrangiano de K-G es:

dónde \mu=\frac{mc}{h}

Y el de Dirac:

Aquí los términos de masa aparecen multiplicando a los términos cuadráticos en las correspondientes funciones de onda. El motivo de que se interpreten como términos de masa proviene del análisis diménsional en cuyos detalles no voy a entrar, aunque no son muy complejos. La idea es que el lagrangiano debe ser adimensional y que las funciones de onda de los campos tienen unas dimensiones naturales. Los términos que multiplican a las funciones deben tener una dimensión tal que cada término sea adimensional. Y, en el caso de los términos cuadráticos eso significa que lo que los multiplica debe tener dimensión de masa (o más bien energía, nótese el factor c^2).

Bien, eso significa que podemos poner un valor arbitrario a m, y tener partículas bosónicas escalares (ecuación de Klein-Gordón) y fermiónicas (ecuación de Dirac) con un valor arbitrario de su masa. Y, desde luego, no necesitamos para nada el bosón de Higgs. Esas ecuaciones describen partículas libres, pero si acoplamos las mismas a el campo electromagnético, lo que vendría a ser la electrodinámica cuántica (QED, por sus siglas en inglés) nos valdrían los mismos términos y seguiríamos teniendo que la masa no es nada más que una constante que aparece multiplicando a un término del lagrangiano y, una vez más, no es necesario el bosón de Higgs. Cierto es que la QED no describe nuestro universo porque en ella no se incluyen las fuerzas nucleares fuertes y débiles (y mucho menos la gravedad), pero es una teoría cuántica de campos perfectamente válida.

El problema viene cuando uno quiere incluir bosones vectoriales masivos. El electromagnetismo viene descrito por los campos eléctrico y magnético. Estos pueden derivarse respectivamente de un potencial escalar y un potencial vectorial. En relatividad general estos se combinan en un cuadripotencial que es el que aparecería en el lagrangiano. Ese campo electromagnético describe fotones, bosones vectoriales, que son partículas sin masa. Y esa es la clave, la ausencia de masa. Si queremos introducir bosones vectoriales con masa podemos hacerlo de manera similar a lo que se hace con la ecuaciónde Klein Gordon y la de Dirac y llegaríamos a la ecuación de Proca y su correspondiente Lagrangiano:

El problema de esta ecuación es que si se intenta introducir una interacción entre los campos vectoriales masivos que describe esa ecuación y un campo de Klein-gordon, o uno de Dirac, siguiendo el mismo procedimiento que se hace en QED se llega a que la teoría obtenida no es renormalizable, y por tanto inválida ya que no es predictiva.

Bien, ahí es cuando ya sí aparece el mecanismo de Higgs. No he explicado, ni en esta entrada ni en ninguna anterior, cómo surgen en general los bosones vectoriales de una forma general, dentro de lo que se conoce cómo teorías de Yang mills. Quien quiera leer detalles que consulte en la wiki sobre yang mills theory La idea general es que cuando uno tiene un lagrangiano que es invariante bajo una simetría global (la misma transformación de simetría en todos los puntos del espacio-tiempo) y la hace local (el mismo tipo de simetría, pero actuando localmente en cada punto del espacio-tiempo) uno debe introducir, para que el lagrangiano siga siendo invariante bajo la simetría local, unos campos que compensan ese cambio. Esos campos van a ser los bosones vectoriales. Cuando la simetría es el grupo de Lie U(1) se obtiene que el campo asociado es el electromagnetismo. Cuando es SU(3) se obtiene que la teoría es la QCD (Quantum cromodynamics, la teoría cuántica de las interacciones nucleares fuertes). La interacción nuclear débil está asociada al grupo SU(2), combinado con el grupo U(1), pero ahí ya inerviene de manera fundamental el mecanismo de Higgs. En las teorías de Yang-Mills todos los bosones vectoriales que aparecen son de masa nula. Eso no es problema para el electromagnetismo com oya hemos dicho. pero las interacciones nucleares son de muy corto alcance y, por consiguiente, uno espera que las partículas mediadoras de esa interacción, los bosones vectoriales, tengan mucha masa, y, cómo hemos dicho, la teoría deYang-Mills, que por lo demás es muy elegante, no nos sirve de nada. La teoría de Proca, con términos de masa directos para los bosones tampoco.

Bien, el mecanismo de Higgs, en cuyos detalles no entraré aquí (ver mecanismo de higgs en la wiki) lo que hace es que partiendo de una teoría de Yang-Mills con bosones sin masa acoplados a una teoría de Klein-Gordon que describe un bosón (el bosón de Higgs), con masa y un término potencial elegido de manera apropiada, nos lleva a que cuando se produce un fenómenoo conocido como ruptura espontánea de simetría. La idea es que el grupo de simetría inicial se ve reducido cuando el bosón de Higgs toma un nuevo valor de vacío correspondiente a un valor de mínimo (se supone que inicialmente estaba en un valor de máximo inestable). Cuando uno reescribe el lagrangiano desarrollado alrededor del nuevo vacío del bosón de Higgs resulta que los campos vectoriales han obtenido un término de masa, relacionado con el potencial del bosón de Higgs, y que la teoría resultante si es renormalizable. Digamos que, si quiere verse así, la masa de los bosones vectoriales se obtiene a partir de la energía potencial del bosón de Higgs. Realmente los detalles son algo mas complejos, pero,, más o menos, esa es una parte esencial de la idea.

Eso está bien, un término de masa está originado en un término de energía potencial. Y, desde luego, nos da una teoría renormalizable que en la práctica nos permite obtener el modelo standard SU(3)xSU(2)xU(1), pero el caso es que el bosónde Higgs sigue teniendo su término de masa, de cuyo origen nada sabemos, y tampoco sabemos porque el potencial de Higgs tiene esa forma (no tenemos ninguna teoría fundamental que nos sugiera de dónde sale esa forma para el potencial, al menos hasta dónde yo sé). Por cierto, he mencionado que el Higgs da masa a los bosones vectoriales. Si uno hace los detalles de la teoría electrodébil se ve que también da términos de masa paara los fermiones. Sin embargo no toda la masa de los fermiones del modelo standard surge del mecanimso de Higgs. Hay mas mecanismos implicados en cuyos detalles no voy a entrar.

En definitiva, el mecanismo de Higgs es algo útil, pero, en mi opinión no da una idea fundamental de qué es la masa. En entradas sucesivas intentaré reflexionar más sobre el asunto, aportando algunas ideas propias al respecto que si bien no creo que vayan a ser de gran trascendencia creo que pueden resultar entretenidas y tal vez ayuden a reflexionar sobre el particular.

Caos espectral en mecánica cuántica (o perturbación crítica)

mayo 15, 2013

Actualización: He modificado el título de la entrada para llamar a la teoría propuesta por un nombre mas descriptivo, y posiblemente mas llamativo también ;).

Hace unas fechas escribí una breve reseña sobre caos cuántico. La ligereza de la misma puede haber servido cómo pista de que no era un tema en el que hubiese profundizado demasiado, por decirlo suavemente. El motivo es que no era un tema que me hubiese resultado especialmente atractivo hasta ahora. Cómo dije ahí esa gente tiente a ocuparse de mecánica cuántica muy sencilla y -además- en última instancia no existe un análogo cuántico del caos clásico así que no terminaba de ver un buen motivo para profundizar en ese campo.

Con los precedentes anteriores uno podría plantearse cómo es que ahora dedico una segunda entrada al tema. El motivo proviene de algo aparentemente muy alejado de la mecánica cuántica: el cálculo numérico. Cómo parte de la titulación de matemáticas es necesario cursar al menos dos asignaturas sobre cálculo numérico. En el primer año se ven varios temas relativamente sencillos cómo cálculo de ceros de funciones, interpolación de funciones, integración/derivación numérica, resolución de sistemas lineales y, la parte mas extensa, álgebra lineal numérica.

En los cursos de álgebra lineal se aprende a calcular autovalores y autovectores de manera analítica. Cómo suele ser habitual el método que es eficiente para hacer algo con “lápiz y papel” dista mucho de ser el mejor para hacerlo mediante algoritmos en un ordenador. En el caso del álgebra numérica sucede lo mismo, pero, además, se aprenden algunos hechos tan interesantes cómo sorprendentes.

Recordemos que para calcular los autovalores de una matriz M uno debe hacer el determinante de \mid M -\lambda \mathbb{I} \mid . Esto da cómo resultado un polinomio en \lambda . Una vez se tienen las raíces de ese polinomio se sustituyen en la expresión \mid M -\lambda \mathbb{I} \mid y se calculan el/los autovectores correspondientes a ese autovalor. En los ejercicios típicos las matrices están “cocinadas” para que el polinomio tenga raíces enteras (o al menos alguna de ellas entera y que el resto puedan obtenerse a partir de ahí por el método de Rufini). Por supuesto en problemas reales no sucede eso casi nunca (no estoy 100% seguro pero creo recordar que en el conjunto de todos los polinomios los que cumplen eso tendrían medida nula -definiendo una medida más o menos natural en el espacio de polinomios, claro-). Por ese motivo, en la práctica, uno debería resolver el polinomio por métodos numéricos y luego implementar un algoritmo que calculase el autovector a partir de ese autovalor.

El caso es que esa tarea tan sencilla de calcular las raíces de un polinomio tiene sutilezas inesperadas. La clave del asunto es que polinomios muy similares pueden tener raíces no tan similares. Es decir, una pequeña incertidumbre en el valor de un coeficiente del polinomio se traduce en una gran diferencia entre los valores de las raíces, osea, cómo exclamaría Malcom: ¡CAOS!. Antes de seguir con consideraciones teóricas sobre esto dejo un ejemplo de matriz cuyo polinomio característico tiene esa sensibilidad:

A=\left(\begin{array}{ccc}    -149&-50&-154\\    537&180&546\\    -27&-9&-5    \end{array}\right)

Uno puede hacer el polinomio característico y verificar que sus raíces son {1,2,3}. Si uno modifica muy ligeramente esa matriz, por ejemplo modificando el segundo elemento de la diagonal de 180 a 180.01 podría comprobar (recomiendo usar algún programa informático) que las nuevas raíces el polinomio característico (vamos, los autovalores de la matriz), son { 0.207, 2.3008, 3.50} Es decir, una modificación de uno de los elmentos de la matriz del orden de 10^{ -5} modifica todos los autovalores en magnitudes entorno al 50% lo cuál es algo realmente impresionante. En los libros o manuales elementales sobre cálculo numérico no se suele comentar mucho más al respecto y se pasa directamente a enseñar métodos para el cálculo de esos autovalores (según en que manuales se limita al método de potencias para el cálculo del autovalor dominante) y autovectores (normalmente el método QR y variantes). Tampoco suelen hacer las cuentas de cómo cambian los autovectores así que me hice el cálculo para los dos casos anteriores. Para la matriz original los autovectores también son bastante distintos, con variaciones incluso mayores que las de los autovalores.

El caso es que para alguien con una base de física una matriz es, sobre todo, un operador cuántico (para un matemático una matriz puede ser un montón de cosas, y dependiendo del caso se la estudia de muchas maneras diferentes xD), los autovalores las autoenergías (si el operador es el hamiltoniano) y los autovectores las autofunciones de onda cuánticas. Y claro, inmediatamente (al menos yo es lo que pensé nada mas leer ese resultado) es que si un operador cuántico tiene un comportamiento tan exótico uno podría pensar que algo extraño podría pasar con Mary…digo la cuántica ;). El caso es que no pude dedicarme inmediatamente a profundizar en ese hecho chocante, pero siempre estuvo ahí en segundo plano, cómo una inquietud, y en cuanto se dió la oportunidad analicé más a fondo el asunto. La primera duda que surge es sí esa incertidumbre en el cálculo de autovalores es debida a errores de redondeo en algoritmos numéricos o si obedece a una causa mas fundamental. Rastrear en extensos libros sobre álgebra lineal numérica no me llevó a ningún lado pero una búsqueda en google me llevó a un foro dónde se trataban esos temas y ahí daban un ejemplo muy sencillo que -sí no interpreto mal- resuelve la cuestión. En concreto plantean el caso del poinomio \lambda^3 -\epsilon=0 cuya solución \lambda=\sqrt[3] \epsilon que no es derivable en el entorno de 0 y ese es el origen de la sensibilidad del polinomio. En la misma web mencionaban un ejemplo mas complejo de una matriz, dependiente de un parámetro, que originaba polinomios “sensibles” a variaciones de ese parámetro. Esa matriz era además simétrica (autoadjunta) lo cuál es bueno pues los operadores cuánticos deben ser autoadjuntos. Con eso ya se tiene bastante información relevante, el problema es “fundamental” y no de redondeo, se identifica el problema (o al menos un factor del mismo) y se pueden analizar familias de matrices, no una sóla.

La siguiente reflexión que a uno se le ocurre es plantearse cómo puede suceder esto con sistemas lineales. Al fin y al cabo la cuántica es lineal, y uno aprende, estudiando Sturn-Liouville (bien sea mediante análisis clásico o, de modo riguroso, en cálculo funcional) que la clase de operadores lineales autoadjuntos son buenos y maravillosos y nos dan una base del espacio de Hilbert de soluciones del problema ¿que más se puede pedir?. Bien, el caso es que bajo esa aparente inocencia los operadores lineales (incluidos los autoadjuntos) ocultan muchas sorpresas y uno, a poco que los estudie, se da cuenta de que son unos grandes desconocidos que guardan en su interior muchas pautas insospechadas. Pero, volviendo al principio, si la cuántica es lineal ¿de dónde surgen todas estas “sensibilidades”? Bien, los operadores son lineales, sí, pero las operaciones para extraer información de ellos (sus autovalores y autovectores en el caso de la cuántica) implican formar expresiones no lineales. La tarea de obtener el determinante es no lineal, y para calcular autovalores el resultado de la misma es un polinomio no lineal. Digamos que hay mucha no-linealidad escondida.

Bien, esa es la matemática, pero queda analizar un poco como afecta eso a la física. La idea básica -en un esquema meramente formal- es muy simple. Tenemos un sistema cuántico, todo lo particular que haga falta, cuyo hamiltoniano podemos considerar que es, en alguna base apropiada, una matriz finita. Los elementos de esa matriz en general van contener términos que se deben obtener de manera experimental (por ejemplo si es el hamiltoniano de un electrón en un campo eléctrico el valor de ese campo podría ser un dato experimental). Entonces eso significa que tenemos dos Hamiltonianos, H y H’ que difieren por una pequeña cantidad. Siguiendo la costumbre de teoría cuántica de perturbaciones podríamos escribir H'=H_0 + \epsilon H_1 aunque, en este caso, no nos importa (necesariamente) que H_0 sea resoluble analíticamente. La idea es que uno podría esperar que los autovalores de H y H’ fuesen muy similares (es el fundamento de la teoría de perturbaciones, en particular ahí se exige, cómo prueba de consistencia, que la diferencia entre un autovalor del sistema sin perturbar y el perturbado sea menor que la diferencia entre dos autovalores del sistema sin perturbar). Pero, cómo acabamos de ver, esto no siempre tiene porque suceder. Yo estudié esto por mi cuenta y elaboré un poco algunas consecuencias sencillas. Más adelante descubrí que hay una línea muy reciente de investigación, liderada por Michel Berry (el de la famosa fase de Berry) y llaman a esto “perturbación crítica”. Aún tengo que explorar mas el tema de lo que hace esa gente y cuanto se parece a lo que yo estoy considerando.

Pero sigamos con el quid de la cuestión. La idea es que dos sistemas con hamiltonianos muy similares pueden tener energías muy diferentes. Podría darse el caso medir el campo eléctrico del hamiltoniano con precisión de varios decimales y que pudiésemos resolver el problema y aún así los resultados no nos servirían para predecir, en la práctica los valores posibles de las energías. Pero puede ser peor aún, cómo los autovectores, que son las funciones de onda, también cambian mucho. Imaginemos que el campo eléctrico fluctua en el tiempo. Si colocásemos el sistema en un estado inicial de superposición y midiéramos las frecuencias con las que se da cada autovalor de la energía estas no tendrían una distribución probababilística. El motivo es que al fluctuar el campo fluctuan los autovalores y no siempre estamos trabajando con autoenergías similares. Y, cómo además varían los autovalores, las probabilidades de ocupar cada autovalor también fluctúan. Es decir, podríamos tener un sistema del que sabemos el Hamiltoniano con mucha precisión, poder resolverlo analíticamente, y aún así, en la práctica, no poder obtener ninguna información útil respecto a que nos vamos a encontrar.

Para tratar esos sistemas- creo yo, habría que optar por una descripción en términos de ecuaciones diferenciales estocásticas (para una introducción ver por ejemplo este pdf) en la que aparte del término determinsta (la ecuación de Schröedinger) habría un término de “ruido”. Eso sí, ese término no tendría porque ser browniano sino que su naturaleza dependería de la naturaleza analítica del parámetro del hamiltoniano que dicta la “sensibilidad” del mismo y podría bautizarse algo así cómo “ruido espectral”.

Para ir concluyendo hago una reflexión importante. Esto no es caos cuántico. En un sistema caótico clásico tenemos que la dinámica (el hamiltoniano) es fijo y hay sensibilidad en las condiciones iniciales (que no pueden medirse con precisión infinita). En cuántica el observable fundamental es la función de onda y no las posiciones/momentos. Y la unitariedad de la evolución cuántica implica que si las funciones de onda en un instante dado difieren por una cantidad pequeña esa diferencia se mantendrá constante en el tiempo. Esto plantea una duda conceptual de cómo si la realidad es cuántica en sistemas clásicos, que son el límite de los cuánticos (teorema de Erenfest) puede haber caos. Por supuesto mi argumento no implica que haya caos cuántico porque aquí lo que tenemos es algo distinto. Tenemos que el propio hamiltoniano (lo que dicta la dinámica) es el que está sujeto a una incertidumbre experimental y cómo consecuencia de la misma los observables cuánticos (autovalores, autofunciones) son muy sensibles a variaciones de esa incertidumbre. Por supuesto, y esto sería curioso de analizar en comparativas, en sistemas clásicos también hay esa incertidumbre en el valor exacto del hamiltoniano, y también hay operaciones de obtener autovalores y autovectores para obtener soluciones en algunos de esos sistemas (por ejemplo osciladores armónicos acoplados) así que esta sensiblidad extra, esta “perturbación crítica” afectaría por igual al mundo clásico y al cuántico, y tal vez (o tal vez no, vaya usted a saber xD) seria interesante comparar las diferencias entre ambos mundos para esos sistemas.

Para finalizar algunas palabras sobre lo que hace la gente de caos cuántico, que está relacionada con la naturaleza de los autovalores de los operadores audoadjuntos. Resulta, por ejemplo, que los hamiltonianos que presentan simetrías tienen una distribución de los autovalores muy diferente de los que no tienen simetrías (si se quieren buscar detalles usar los términos “quantum chaos, random matrix). Es un tema curioso, sobre el que tal vez lea mas, o tal vez no. Pero tras ver esto de la sensibilidad de los autovalores y que la distribución de los mismos depende de las simetrías del hamiltoniano está claro que bajo su inocente apariencia los operadores autoadjuntos tal vez puedan ocultar auténticos “animales patológicos” en su interior y que posiblemente la mecánica cuántica mas elemental guarde aún muchas sorpresas importantes en contradicción con la idea de que es un “animal doméstico y conocido”. Y eso si nos restringimos a cuántica elemental, y estudiando matrices finitas (a saber que pasa con las infinitas que son lo común en mecánica cuántica). Pero el caso es que las teorías cuánticas de campos también son, en el fondo, teorías cuánticas “normales” y, no sé ¿cómo podría ser el grupo de renormalización de un hamiltoniano de campos que fuera el análogo de uno de partículas “sensible”? ¿Tal vez el flujo de renormalización hiciese evolucionar el valor de las constantes de acoplo de manera caótica según nos movemos hacia energías mas altas? O, si la estructura de los autovalores depende de la simetría ¿que pasa en los fenómenos de ruptura espontánea de simetría?

En definitiva, que me da la impresión de que el formalismo de la mecánica cuántica convencional puede ser mucho, mucho mas rico de lo esperado, y que, por ejemplo, tal vez algunos fenómenos que por argumentos de “naturalidad” podrían parecer muy improbables a lo mejor no lo sean debido a que en algún punto hay alguna “sensiblidad” oculta en algún punto.

Hacia una mecánica cuántica 3.0

mayo 13, 2011

Hace poco había tenido una idea de como reformular la fenomenología en física de partículas hacia un nuevo escenario. La idea era sencilla, tomarse en serio el problema de la energía del vacío y progresar a partir de ahí. A partir de lo que conocemos el único modo medio natural de tener una constante cosmológica pequeña es que la supersimetría este casi sin romper. Se cumple la relación: \rho_\Lambda \sim M_{SUSY}^4 dónde \rho_\Lambda es la energía del vacío correspondiente a una constante cosmológica \lambda y Msusy, obiviamente, es la masa a la que se rompe la supersimetría. La idea es tomarse esto en serio y pensar que los compañeros supersimétricos tienen la masa necesaria para hacer que la constante cosmológica tenga el valor observado (o cualquier valor arbitrariamente pequeño que elijamos si no nos creemos las observaciones que señalan que vivimos en un universo en expansión acelerada discernible). Eso va en contra del uso que se le suele dar a la supersimetría, que es fijar la jerarquía de masas en el modelo standard (mediante el hecho de que estabiliza la mas del bosón de Higgs y la protege de correcciones cuánticas que harían que esta masa evolucionara hacia la masa de Planck).

Afortunadamente hay otro método de estabilizar la mas del bosón de Higgs y obtener jerarquía: los modelos tipo Randall-Sundrum con dimensiones extra de un cierto tamaño (mesoscópico). Eso nos daría algo mas de libertad para fijar la ruptura de supersimetría dónde queramos. Pero sigue habiendo problemas. El primero sería explicar como no han sido observadas esas partículas si su masa es muy pequeña. En principio eso no debería ser muy difícil de resolver. Basta con que estén en un sector oscuro y sean WIMPs. Otro problema sería ver porque la supersimetría no fija el valor del bosón de Higgs a ese valor de masa tan pequeño. Eso ya es un asunto mas delicado que no me he planteado a fondo (tal vez el higgs que da masa a la spartículas actuales fuese un KK del higgs ligero). Otro tercer problema es que debemos contar con partículas candidatas a ser materia oscura. La LSP (partícula supersimétrica mas ligera) es un buen candidato. Pero no el único. También la partícula de kaluza-klein mas ligera podría ser materia oscura. Y en el escenario R-S justo eso tendríamos, partículas KK de masa semejante a las partículas supersimétricas. Si acaso habría que vigilar que las partículas supersimétricas tan ligeras no fuesen materia oscura caliente ya que eso iría en contra de la formación de estructuras en el universo.. Quizás eso podría resolverse poniendo un grupo gauge SU(3) para el sector oscuro y un proceso de barionización oscuro. Eso nos daría núcleos de átomos oscuros que no serían tan ligeros como las partículas individuales y podrían saltarse los límites para materia caliente.

En fin, en eso estaba yo, cuando han llegado las fechas de mis exámenes de matemáticas y tuve que dejar de lado esas especulaciones. Y hete aquí que ayer en arxiv salió este artículo: Anisotropic Modulus Stabilisation: Strings at LHC Scales with Micron-sized Extra Dimensions que está analizado en el blog de Lubos: Type IIB large extra dimensions. Pues bien, en ese artículo los autores proponen un modelo en esas líneas. Eso sí, mucho mas sofisticado de lo que yo estaba intentando hacer. Yo intentaba dar un modelo básico de supersimetría + randall-Sumdrum. Ellos (M. Cicoli, C.P. Burgess y F. Quevedo)van mas allá y directamente proponen un modelo cuerdístico en toda regla.

En fin, yo sobre mi idea me había limitado a dejar caer en el facebook (si, tengo una cuenta ahí, sic) que tal vez los compañeros supersimétricos no eran lo que todo el mundo pensaba, y que no estaría mal si la presunta observacion de un “higgs-like but no Higgs” en el LHC rumoreada fuese cierta me vendría bien. Eso y comentarle a mi novia, que ahora está estudiando 4º de física teórica, mi idea general (aunque no sé yo si se habrá enterado demasiado). Total, que aunque muy probablemente no hubiese llevado muy lejos la idea es una lástima que se me hayan “adelantado” sin dejar por aquí mayor constancia. Y como hay alguna cosilla más que tengo en mente hacer no quiero que se repita. Por eso voy a hablar de una idea para reformular la mecánica cuántica.

Lo primero de todo es explicar porque digo “mecánica cuántica 3.0” y no 2.0. Realmente hubo una primera mecánica cuántica, previa a la ecuación de Schröedinger y la mecánica matricial de Heisenberg. Esa fue la mecánica cuántica de Bohr, con las condiciones de cuantización para orbitales y cosas así. Realmente ambas teorías no son equivalentes ni formalmente ni en resultados físicos así que tal vez habría que llamar a la cuántica de Schröedinger y Heiseenberg (y sucesores, eso incluye la teoría cuántica de campos) la 1.0. En ese caso yo buscaría la 2.0

Debo aclarar desde ya que no soy alguien especialmente traumatizado con la cuántica, ni estoy obsesionado con sus fundamentos y sus interpretaciones. No tengo particular interés en volver a una teoría determinista y “realista”. Tampoco me obsesiona el rigor matemático y aunque respeto los esfuerzos en ese terreno tampoco me preocupan demasiado. Mis objeciones vienen de otras consideraciones. De un lado el formalismo de la cuántica está muy inspirado en la teoría de espacios de Hilbert, o, mas bien, en la teoría de Sturn Liouville para resolver ecuaciones en derivadas parciales (los espacios de Hilbert vinieron después, con Von-Neumann). Eso hace que la cuántica este impregnada de un linealismo (pues se trabajaba con ecuaciones en derivadas parciales lineales) que no me encaja del todo con el hecho de que las ecuaciones clásicas relevantes sean no lineales. Por supuesto los motivos de la linealidad son otros, y supuestamente debe ser un principio sagrado de la mecánica cuántica, pero aún así si en algún momento pudiera ver como relajar ese principio de una manera coherente sería mas feliz.

Otro motivo para retocar la cuántica es que desde la cuántica no relativista ha habido muchas evoluciones. Primero la cuántica relativista, su ulterior evolución a la teoría cuántica de campos en espacios planos. Mas tarde la cuantización en espacios curvos y, por último, la teoría de cuerdas, que es un mundo aparte. Cada una de estas evoluciones tiene sus peculiaridades y el paso de los postulados de la cuántica relativista a los casos mas complicados es un poco un proceso de parchear el formalismo, y fijarse en otros factores. Sería interesante ver si puede construirse algo que pueda afrontar todos los casos desde una perspectiva unificada.

Otro tema, de interés tangencial, es el tratamiento asimétrico del tiempo en la cuántica. No existe algo así como un “operador tiempo”. Sobre eso estuve en el pasado haciendo consideraciones, que normalmente terminan en un dolor de cabeza, pero con todo algo saqué en claro.

Bien, voy a dejar un pequeño esquema muy provisional de como, tal vez, podría empezar a reformularse la cuántica.

Mi punto de partida es seleccionar el aspecto fundamental que caracteriza la cuántica. Creo que el mas importante es que la cuántica es probabilista. Ahí incluso me planteo la posibilidad de dar un salto conceptual, mas allá del mero formalismo. El punto de vista actual es que la evolución de la función de onda es determinista y que el aspecto probabilista surge al considerar los entes clásicos llamados observadores. Yo no voy a hacer ningún supuesto a priori respecto a esto. Voy a partir de una idea de un mundo real, cuántico/probabilista, y a raíz de ahí buscar interpretaciones de la mecánica clásica.

Mi idea seria plantearme que lo que tenemos un mundo con una serie de estados posibles y unas probabilidades de pasar de unos estados a otros. Esos estados no tendrían porque ser (mientras no se demuestre que sea obligatorio) elementos de un espacio de Hilbert. Mas bien serían un espacio de probablidad abstracto. Las “funciones de onda” serían algún tipo de matriz estocástica (al estilo de las cadenas de Markov, o, mas bien, procesos de Markov en tiempo continuo) que nos darían las probabilidades de transición de un elemento del espacio a otro.

Voy a intentar ver como encaja eso con la idea de una función de onda cuyo cuadrado es la probabilidad de hallar una partícula en una posición determinada. El punto clave es darse cuenta de que esa interpretación, en última instancia, descansa en que tenemos un conjunto de funciones, las autofunciones del operador posición. La idea es que la probablidad de encontrar la partícula en una posición x es la proyección de la función de onda (o para hablar mas propiamente, usando el formalismo de Dirac, del estado de la partícula sobre la autofunción del operador \hat{x} con valor x. En un formalismo puramente probabilista los autoestados de x serían simplemente unos estados elegidos convenientemente porque tienen una significación clásica intuitiva. Lo que nos interesaría sería la “matriz de transición” entre unos estados y otros. Ciertamente, hay un número infinito de tales estados y no hablaríamos de una “matriz de transición” sino de densidades de probabilidad, propias de la probabilidad para variables de probabilidad continuas.

Otro tema importante seria ver que pasa con la relación entre esos estados y la geometría y topologia del espacio tiempo. En principio el formalismo no debería ser muy sensible a estos aspectos. Por ejemplo, si queremos mecánica no relativista tenemos básicamente que respetar el principio de relatividad de galileo. Es decir, que las leyes físicas son iguales para observadores inerciales. Eso es un concepto puramente clásico. De forma abstracta podríamos pensar que estamos seleccionando un conjunto de estados dentro de nuestro espacio de probabilidad y exigir que las amplitudes de probabilidad de nuestra “cadena de Markov” debe estar oportunamente cocientada respecto a esos estados. Si eligiésemos relatividad especial simplemente cocientaríamos sobre otro grupo de estados.

Por supuesto la física entra en la elección de esos estados. Y entra en forma de simetrías. Eso significa que estamos introduciendo conceptos métricos y topológicos. Lo importante sería que, en principio, el formalismo cuántico sería común para la cuántica relativista y no relativista. No habría que pasar de espacios de Hilbert a espacios de Fock. Debería, por supuesto, tratarse con cuidado el tema del vacío.

Y también debería buscarse exactamente como se obtiene una ecuación dinámica que genere esas cadenas de Markov que representan la función de onda.

Obviamente todo esto son ideas muy, muy preliminares. Pero como tengo visto que la gente no se dedica a buscar ideas en blogs ajenos no me preocupa mucho dejar por aquí estos preliminares an poco concretos. Estoy convencido de que nadie va a abandonar su línea de trabajo para ponerse a desarrollar estas ideas tan vagas. Y, si luego alguien que ya estaba trabajando en ideas similares saca algo serio, y funciona, yo podre decir “hey, ¿veis como iba por buen camino?” ;).

Y eso es todo por ahora. Dada mi poca formalidad para mantener una periodicidad a la hora de poner posts no sé yo cuanto pasara hasta la próxima publicación ¡que estas últimas dos han estado muy seguidas!.

Conferencia en la U.A.M. : Gerard t’Hooft- Black Hole Complementarity and the Hierarchy Problem

febrero 15, 2011

En el marco de los coloquios “Paco Yndurain” que organiza regularmente la universidad autónoma de Madrid mañana tendrá lugar un conferencia del premio nobel de física, en el año 1999, Gerard t’Hooft titulada “Complementariedad agujeros negros y el problema de la jerarquía”. LA charla será a las 3 de la tarde en la Sala de Conferencias, Modulo 00 (C-0), Facultad de Ciencias.

Para quienes no le conozcan indica que t’Hooft obtuvo su premio nobel por la demostración de que las teorías cuánticas de campo gauge con simetría rota son renormalizables. Este tipo de teorías son la base del modelo standard de partículas actuales así que su trabajo vino a dar forma definitiva a lo que es el mejor modelo de física de partículas elementales, testado experimentalmente, del que disponemos en este momento. En el momento en que hizo el trabajo por el que recibió el nobel, allá por los primeros 70, había dudas -al menos entre un buen número de gente- de que las teorías gauge, aunque elegantes y bonitas, pudieran representar al mundo real. El problema es que esas teorías no permitían incrporar bosones vectoriales (las partículas que median las interacciones) masivos y era bien sabido que estos eran necesarios para explicar las fuerzas nucleares débiles. Por la misma época Higgs (y otros) habían introducido el mecanismo de ruptura de simetría y Weinberg, Salany Glassgow lo habían aplicado para obtener un modelo de las fuerzas nucleares débiles que se unificaba con el electromagnetismo, la teoría electrodébil con grupo gauge SU(2)xU(1). Pero aún faltaba demostrar que esas teorías eran consistentes matemáticamente y realmente predictivas, osea, renormalizables. Y esa fué la labor de Gerard t’Hooft. Cuenta la leyenda que recién licenciado t’hooft fué a visitar a un profesor suyo, Veltman, para pedirle un trabajo para su tesis doctoral. Veltman le comentó el problema que había con las teorías gauge, pero no le recomendó que se dedicara a ello ya que estaba considerado uno de los problemas más difíciles del momento, sino el que m´s. Según esa misma leyenda t’Hooft no volvió a ver a Veltman hasta dos años después cuando se presento en su despacho para informarle de que había resuelto el problema Sea como sea el resultado era correcto y ese artículo cambió el rumbo de la física teórica de ese momento, que estaba decantándose hacia la teoría formal de la matriz S y dejando un poco de lados las teorías cuánticas de campos, y en particular las teorías gauge.

Posteriormente t’ Hooft y Veltman aplicaron las técnicas que habían desarrollado a la teoría de gravedad cuántica perturbativa, y demostraron que pese a que la gravedad libre (sin materia) es renormalizable a primer orden de perturbaciones (lo que se conoce normalmente como “a un loop”) el resultado no podía extenderse a órdenes superiores y que, por consiguiente, la relatividad cuántica perturbativa basada en partículas puntuales no era consistente según los esquemas ordinarios de la teoría cuántica de campos.

Esos trabajos, y otros posteriores en su trayectoria, han convertido a Gerard t’hooft en uno de los mejores físicos de las últimas décadas. Crear un escalafón de los mejores siempre es algo que tiene un margen de subjetividad, pero en mi criterio los dos mejores físicos actuales serían Ed Witten el “cappo” de la teoría de cuerdas, medalla fields de matemáticas y el propio t’Hooft. Casi a la misma altura pondría al anteriormente mencionado Steven Weinberg y ya después irían algunos físicos de cuerdas como Cunrrum Vafa o Joseph Polchinsky, seguidos de cerca por el famoso Stephen Hawkings.

Preferencias particulares aparte t’Hooft es uno de los grandes del momento, y de hecho uno de los grandes del siglo XX, a la altura de gente cómo Paul Dirac, Pauli, Schröedinger, Heissenberg, Feynman y el resto de los que dieron forma a la teoría cuántica y su generalización, la teoría cuántica de campos. Sin duda una conferencia suya es todo un acontecimiento en si mismo, independientemente del tema que trate, pero para los interesados en asistir voy a dar unas explicaciones previas para que se hagan una idea de por dónde podría ir su conferencia.

Por el título sabemos que trata dos tópicos, y es de suponer que debe haber algún nexo entre ellos, que posiblemente sea un tema en el que él este trabajando ahora.

El primer tópico es el principio de complementariedad en agujeros negros. Este principio creo que es debido al físico de cuerdas Leonnard Suskind, o al menos Susskind es uno de sus máximos defensores. Dicho de una manera sencilla viene a decir que es imposible distinguir el interior de un agujero negro de su exterior mediante cualquier medida local. De todos modos supongo que t’Hooft hablará de un asunto en particular, relacionado con un artículo suyo de Septiembre de 2009: Quantum gravity without space-time singularities or horizons. Ese artículo fué discutido en su momento en el blog de arxiv: Black Holes Cannot Exist in Latest Theory of Quantum Gravity. y para los que no hablen inglés pueden leer una traducción de esa entrada del blog en: Última propuesta teórica: Los agujeros negros no existen.

Bien, esa es posiblemente una parte del tema de la charla. La otra es el problema de la jerarquía. Este problema consiste en lo siguiente. Había mencionado que en las teorías gauge los bosones vectoriales no podían tener masa a menos que hubiera un mecanismo de ruptura de simetría, ocasionado por el famoso bosón de Higgs. Este era el encargado de dar masa a estos bosones. Un primer problema es que la teoría no dicta la masa del bosón de Higgs, ni tampoco los detalles de la masa que este da a las partículas tras romper la siemetría. Estos detalles dependen de una serie de parámetros (por ejemplo el ángulo de Weinberg). Ese es el motivo de que aunque hemos observados los bosones vectoriales asociados a la simetría electrodébil, el W+, el W- y el Z0 no sabemos exactamente que masa debe tener el Higgs, lo cuál dificulta su actual búsqueda en el LHC.

Pero no terminan ahí los problemas. Independientemente de la masa que adquiera el Higgs tras la rotura de la simetría, calculada a primer orden de teoria de perturbacioines, resulta que cuando se hacen cálculos a órdenes superiores se encuentra que la masa del Higgs debería aumentar por efectos cuánticos en la interacción del Higgs consigo mismo. Y esto debería hacer que rápidamente llegara a tener una masa enorme, del orden de la masa de Planck. Y junto con el Higgs deberían ir el resto de las partículas. Realmente en el modelo standard hay un rango de valores de los parámetros en lo que esto no sucede así. Lo malo es que esos valores son “antinaturales” (en un sentido que no entraré aquí a explicar). Y ese es precisamente el problema de la jerarquía. Salvo ese ajuste fino de parámetros sería de esperar que laspartículas del modelo standar tuvieran una masa semejante a la masa de Planck, y no una masa tan “pequeña” como la masa típica de la unificación electrodébil.

Por supuesto ese problema ha sido tratado. Una de las soluciones al mismo, la mas sencilla, y la que todo el mundo considera la mas probable, es la supersimetría. En las teorías supersimétricas a cada partícula del modelo standard se le asigna un compañero supersimétrico, con las mismas propiedades (núeros cuánticos) pero con distinto spin. a los bosones se le asignan fermiones, y viceversa. Por supuesto la naturaleza n es supersimétrica en su fase actual ya que no se han observado los compañeros supersimétricos de ls partículas actuales. Eso significa que debe estar rota. Lo interesante, de cara al tema de la jerarquía, es que si la energía a la que se rompe la supersimetría es similar a la energía de la rotura de la simetría electrodébil entonces, debido a sus muy agradables propiedades como teoría cuántica, la supersimetría estabilizaría el valor del Higgs, impidiéndole irse hasta la masa de Planck sin necesidad de tener que hacer ajustes “antinaturales” en las teorías. Eso sí, la supersimetria requiere, en su forma mas sencilla, que en vez de haber un Higgs haya cinco Higgs (incluyendo sus compañeros supersimétricos). no entraré en detalles de esto, que no merecen la pena para el propósito presente. Sólo decir que muy recientemente se ha creado otro modelo supersimétrico que no requiere la necesidad de 5 bosones Higgs, aunque es un modelo del que aún no se han investigado todos los factores típicos dignos de ser investigados.

Una consecuencia importante de la supersimetría, que tal vez sea mencionada por t’hooft, es que nos proporcina partículas candidatas a ser el constituyente fundamental de la materia oscura, la cuál aún no ha sido observada. De hecho la materia oscura, la supersimetría y el bosón de Higgs son los tres temas candentes de la física teórica actual, objeto de todas las búsquedas, tanto en el LHC cómo en detectores especializados en búsqueda de materia oscura.

Con esto concluyo una presentación somera de los dos tópicos de los que está anunciado que hable t’Hooft. imagino que en su charla él mismo hará un repaso de estos tópicos (sin duda mucho mejor que el mío). Por supuesto la parte mas interesante debería venir después, cuando nos explique porque esos dos tópicos aparecen unidos en la misma charla. Supongo que se debe a que habrá encontrado alguna relación entre ambos. De ser así suena muy prometedor, al menos como “plan de emergencia” si el LHC no encuentra partículas supersimétricas. Digamos que no andamos sobrados de medios de solventar el problema de la jerarquía. Aparte de la supersimetría están los modelos de “mundos brana”, o modelos de Randall-Sundrum, con dimensiones extra de un cierto tamaño que estabilizarían la masa del Higgs mediante el mecanismo de Kaluza Klein. Estos modelos, al igual que la supersimetría, son objeto actual de estudio en el LHC y un resultado negativo en su búsqueda, nos dejaría sin soluciones decentes al tema. Digo “decentes” porque el grupo de teóricos de cuerdas que defienden el principio antrópico dentro del “landscape” de vacíos de la teoría de cuerdas siempre podrán decir que si bien es “antinatural” ese conjunto particlar de valores resulta que, por otro lado, esos valores permiten la existencia de vida, y la existencia de vida inteligente que se plantee esas cuestiones. En los otros tropecientos mil universos (mucho mas probables) dónde hay valores “naturales” de la masa del Higgs no habría vida y no habría gente preguntándose esas cuestiones. Ciertamente si por lo que fuera no se hallasen la supersimetría o los braneworlds en el LHC y sí se hallase el Higgs una alternativa sensata al modelo antrópico tendría buena acogida y aparentemente eso podría ser de lo que nos va a hablar Gerard t’Hooft en la conferencia. Osea, que suena muy, muy interesante y justifica la asistencia a la conferencia (si es que la mera presencia de uno de los mejores físicos del momento no es justificación suficiente).

Para finalizar un apunte curioso. Uno podría esperar que ante un evento tan importante el salón de conferencias este lleno hasta arriba y que la plana mayor de físicos teóricos españoles asistan, para preguntarle a t’hooft sobre posibles fallas en el modelo que nos vaya a exponer. Curiosamente hoy ha comenzado en valencia el congreso “Iberian Strings” en el que estará un buen número de los físicos de cuerdas españoles, con lo cuál se perderán la conferencia de mañana. Ciertamente me parece una mala elección de fechas el hacer coincidir ambos eventos. Sea como sea yo espero asistir a la conferencia de t’hooft, habiéndome leído el artículo sobre agujeros negros que enlacé antes (confieso que en su momento se me pasó leerlo) y comentaré por aquí lo que haya sacado en claro de la misma.

Y nada, todo al que le venga bien la fecha y lugar, que no lo dude, debe intentar asistir, pocas ocasiones (o tal vez nínguna) tendrá de asistir en España a una conferencia con tan potencialmente interesante hecha por un ponente de tanta talla intelectual. Si, siendo de físicas y pudiendo asistir alguien se la pierde, sinceramente, no tiene excusa posible ;).

Update: En vez de hacer un resumén de la conferencia remito a la discusión sobre la misma que se ha producido en el blog de Migui, a raiz de copiar y pegar esta entrada en el foro: Conferencia de t’hoof en la UAM.

Por mi parte comentar que ya leí el artículo sobre agujeros negros y el pricipio de complementariedad que enlacé en el texto (si tengo tiempo haré un post sobre el tema dónde entre en mas detalles de los que dí aquí). Lo primero decir que el principio de complementariedad es una idea del propio t’hooft y no de Susskind (si bien Susskind hizo algunas aportaciones a la idea). Lo segundo dejar claro que no he hecho en absoluto una lista exaustiva de las aportaciones de t’Hoof a la física, sólo las mas pertinente a la charla. Por poner sólo otro ejemplo otra contribución famosa de t’hoof es el principio holográfico para agujeros negros, que se ha materializado, en cierto modo, en la correspondencia de Maldacena en teoría de cuerdas.

Lo tercero, ya que acabo de mencionar a Maldacena hago notar que recientemente han creado un “Einstein test” para intentar buscar mediante algoritmos los mejore físicos del momento. En ese test Maldacena ha salido elegido como el ganador. Ciertamente Maldacena es muy famoso, el artículo dónde establece su correspondencia es el mas citado de todos los tiempos y la correspondencia sin duda es importante. Sin embargo a mi, particularmente, no me parece ni mucho menos un resultado tan fascinante. Y aunque Maldacena ha seguido publicnado cosas interesantes a mi me parece que hay físicos de cuerdas haciendo cosas mas intersantes que él, por eso no lo he citado entre los grandes. Lo digo porque imaginio que alguien le habrá podido echar de menos en mi pequeño ranking de grandes de la física teórica actual.

Como perder el tiempo cuanticamente

agosto 18, 2010

Hace 2 años hubo un concurso, organizado por la fundación templeton y el FQXI pidiendo artículos sobre la naturaleza del tiempo y pagando 10.000 dólares al ganador de dicho concurso. Podéis leer lo que escribí sore el particular en mi otro blog: The fqxi time essay contest.

Lo curioso del asunto es que soy mas dado a leer libros y artículos arxiv sobre hep_th (high energy physics, theory) y, si acaso sobre gr_qc (general relativity, quantum cosmology). Con esa base mi mayor contacto con las delicadezas de la física del tiempo provienen de las curvas de tiempo cerrado que parecen en relatividad general, y, mas por capricho que por otra cosa, con los taquiones.

No viendo pues grandes elucubraciones sobre el asunto no se me ocurrió otra cosa que lanzarme por mi cuenta y riesgo a especular sobre como podría ser un tiempo cuántico. Tenía algunas motivaciones razonables para ello, y el caso es que desarrollé un tanto el tema. Incluso alguna gente me dio pistas sobre algunos problemas obvios.

Cuando llegó ese concurso decidí aprovechar ese esfuerzo y presentarme. Al fin y al cabo veía que muchos de los artículos enviados, sobre todo inicialmente, eran realmente flojos. Según fui documentándome para asegurarme de que entregaba algo digno me dí cuenta de que si había gente que se dedicaba a a elucubrar sobre esos temas, la que suele publicar en arxiv quant-ph que es una zona que apenas frecuento. Una vez visto el percal me dí cuenta de que lo que hubiera podido publicar tenía todos los boletos para ser considerado “chaladura” (es decir, lanzarse a elucubrar sin haber leído lo suficiente)así que en cierto modo modo fue una suerte que por circunstancias de última hora no pudiera enviar nada. Digo “casi” porque algunos aspectos de lo que tenía pensado estaban basados en temas que si conocía, de los libros sobre agujeros de gusano, y de algunas otras cosillas de libros de gravedad cuántica y cosas de prigogyne. Digamos que comparado con la mayor parte de cosas que se enviaron hubiera sido de lo mas sensato.

Bien, no hace mucho en el blog del arxiv comentaron un artículo sobre la relación del tiempo y las geodésicas cerradas. Podéis leer la traducción en el blog de ciencia kanija: Una máquina del tiempo cuántica resuelve la paradoja del abuelo

Como podéis leer en los comentarios la gente se queja de que no entiende demasiado. Y tienen razón. El caso es que me leí el artículo original del arxiv, así como algunos de los que referenciaba. Además, curiosamente, desde entonces han aparecido algunos artículos más sobre el particular. Me llamó l atención que esos artículos no tienen en cuenta un aspecto que en su momento se me había ocurrido a mi.

Es fácil explicar por encima la idea. Esa gente propone que cuando uno sigue una curva cerrada se encuentra con un estado de superposición cuántica. No es algo muy sorprendente, es casi lo primero que uno podría intentar. Por ejemplo: En la serie “flasforward” reciente emitida en cuatro (basada en una novela del autor de CF Robert J. Sawyer) se usa la misma idea. Es llmativo que mucha de la gente que trata esos temas sean personas interesadas en computación cuántica (como el propio Sawyer). El tipo de cosas que se contemplan en ese campo son muy chocantes para alguien acostumbrado a la física de cuerdas. Por ejemplo, parece ser que una motivación para estudiar esos asuntos es la posibilidad de usar un ordenador normal para resolver de modo lento (NP, no polinomial) un problema dado (evidentemente prque no se tiene un mejor algoritmo), dejar que termine de computar la solución y cuando la tenga enviarlo en una curva de tiempo cerrada de vuelta al momento en que se puso a hacer os cálculos, con o cuál lo habrá resuelto en tiempo polinomial.

En fin, muy raro. El caso es que decía que había localizado un problema en las superposiciones de estados cuánticos. Es muy fácil de explicar. no puede viajar en el tiempo y cambiar no un estado cuántico sino el propio estado de vacío. Como los estados cuánticos son excitaciones de vacío y no pueden hacerse superposiciones entre estados correspondientes a vacíos distintos (regla de superselección) no pueden resolverse todas ls paradojas temporales por esos métodos.

El caso es que seguir el quant_ph para ponerse al día en esos temas es un lío. Y ni siquiera creo que me interese lo suficiente. Pero como uno tiene curiosidad (la que ya se sabe mató a gato de Schröedinger) busca soluciones menos complicadas. Y he encontrado un libro entero sobre el tiempo cuántico: Time in quantum mechanics.

Como tiene buena pinta tengo intención de irlo ojeando (y comparando lo que viene con mis ideas de antaño) Eso sí, cuando tenga tiempo para ello, tiempo cuántico, of course 😉