Archive for 30 diciembre 2016

Una guía compacta a la compactificación

diciembre 30, 2016

En su momento escribí una entrada sobre la forma mas básica de compactificación, la teoría de Kaluz-Klein. Sí se quieren mas detalles (en especial cómo aparece, y que papel juega el dilatón) de los que vienen en esa entrada se puede consultar, por ejemplo, la correspondiente entrada de la wikipedia inglesa Kaluza–Klein theory.

Bien, voy a intentar avanzar un poco más respecto a lo que ahí viene y dar una idea un poco global de cómo es el proceso de compactificación. Al intentar dar una idea global dejaré de lado bastantes detalles técnicos, pero tampoco va a ser a nivel de un libro de divulgación para legos sino mas bien en la línea de la entrada anterior.

El siguiente paso, una vez tenemos una teoría guague abeliana U(1), es intentar obtener una teoría no abeliana, para lo cuál vamos a necesitar mas de una dimensión adicional, usando la notación de la entrada anterior descomponemos la métrica en la forma:

g_{MN}= \begin{pmatrix} \eta_{\mu \nu } & \\ & g_{\alpha \beta (y))} \end{pmatrix}

Recordemos que M y N son índices que recorren todas las dimensiones, mu y nu recorren sólo las 4 dimensiones usuales, eta es la métrica de Minkowsky e y denota las coordenadas en las dimensiones extra.

Asumimos que esta métrica es una solución a las ecuaciones de Einstein para el vacío R{MN}=0 o bien, sí permitimos una contaste cosmológica
R_{MN} - \frac{1}{2}Rg_{MN} + \Lambda g_{MN}=0

En el caso de una sóla dimensión adicional la compactificación era única, convertir el eje y en un círculo, ahora tenemos mucha mas libertad. Sí tenemos D dimensiones extra y plegamos cada uno de los ejes coordenados en un círculo tendremos un D-toro (recordemos que el 2-toro tiene forma de “donut” hueco, o de neumático) y, en ése caso, la gravedad de las dimensiones extra se verá cómo una teoría gauge [U(1)]^D. Mas adelante explicaré cómo se obtiene ese D-toro, pero de momento entendamos bien lo que hemos hecho. Cuando las dimensiones extra están descompactificadas ahí opera la simetría del grupo de difeormorfismos de esas dimensiones extra, que es muy grande. Al reducir esas dimensiones a la forma de un D-toro esa simetría de difeomorfismos se ha visto muy reducida, a ese [U(1)]^D. Digamos que el grupo de isommetrías de la dimensión compactificada se ve cómo una teoría gauge con esa misma simetría en las 4 dimensiones.

Cuando las dimensiones extra se compactifican a una geometría mas compleja que un D-toro y no es nada sencillo ver las isometrías de ese espacio. Voy a entrar un poco en algunos detalles matemáticos, elementales, pero que no siempre se comentan en los libros de física sobre el proceso de compactificación (sobre los detalles de las isomerías hablaré en otra entrada). Lo primero es el origen del término “compactificar”. Hace referencia al concepto topológico de espacio compacto. Lo escribí en la entrada que dediqué a un libro sobre la conjetura de Poincaré pero lo reescribiré aquí, para hacer ésto mas autocontenido.

Las nociones de continuidad en cálculo se suelen dar en términos de epsilones y deltas, pero eso en esencia es hablar de entornos abiertos de la recta real, y el caso es que si uno lo analiza uno usa sólo 3 propiedades básicas de los abiertos.

Una topología es recoger esas tres propiedades y convertirlas en axiomas.

Sea X un conjunto y sea Y={Xn} una colección finita o infinita de subconjuntos de X, X e Y forman un espacio topológico si
i. el conjunto vacío e Y pertenecen a Y
ii. Cualquier subcolección finita o infinita {Zn} de Xn tiene la propiedad de que la unión de todos los Zn pertenece a Y
iii. Cualquier subcolección finita {Zm} de los Xn tiene la propiedad de que su intersección pertenece a Y.

Los Xn son los abiertos de esa topología. Conviene hacer una pequeña distinción, que no siempre se explica en los libros de topologia/geometría para físicos. Los intervalos epsilón y deltas del cálculo de una varible, y sus generalizaciones elmentales, los discos abiertos de radio epsilon/delta en el plano, las bolas abiertas en tres dimensiones, etc, son un tipo especial de abiertos, pero, ciertamente, hay conjuntos que son abiertos y no son de esa forma. Esos subconjuntos especiales de la topología forman una base de la misma.

Bien, una vez que tenemos definidos los abiertos cualquier definición que hagamos en términos de esos conjuntos va a ser una definición topológica. Por ejemplo se dice que un conjunto es cerrado cuando su complementario es abierto. Otra noción topologica de interés es la de compacidad. Intuitivamente en \mathbb{R} un compacto va a ser un conjunto cerrado y acotado (la distancia entre dos cualesquiera de sus puntos es finita).

Pero como dije una noción topológica debe darse en términos de los abiertos. Vamos a ello.

Primero debo explicar la idea de recubrimiento. Dado un subconjunto, S, de un espacio topológico, X un recubrimiento de S es una colección de conjuntos abiertos Rn tal que S esta incluido en la unión de todos los Rn. Se dirá que un conjunto es compacto cuando todo recubrimiento del mismo admite un subrecubrimiento (un cubrimiento con un un subconjunto de la colección recubridora)finito. La noción de compacidad es útil por muy diversos motivos. Una es que, por el teorema de Heine-Borel, podemos caracterizar los cerrados y acotados, un tipo de conjuntos interesante, mediante esta propiedad.Oto aspecto útil es que si queremos demostrar algo sobre un compacto nos basta demostrarlo sobre cualquier elemento del conjunto recubridor y asegurarnos de que la propiedad demostrada no se pierde cuando tenemos una unión finita de esos elementos. Es importante hacer notar que como en un compacto todos los recubrimientos admiten subrecubrimiento finito podemos elegir los Rn de la forma que mas nos convenga.

Tan importante es la noción de compacidad que la mayoría de resultados toopológicos van a estar referidos a espacios compactos. Los no compactos son mucho mas difíciles de estudiar.

Entonces la idea de la compactificación es coger un conjunto que no es compacto, por ejemplo la recta real, que no es acotada, y por tanto, según el teorema de Heine-Borel no es compacta, y convertirla en un conjunto compacto por un procedimiento bien definido, en este caso identificar los dos puntos del infinito a la “izquierda” y “derecha”. Sí cogemos un folio e identificamos dos lados opuestos obtenemos la superficie de un cilindro (sin las tapas). Sí en ese cilindro resultante identificamos los dos círculos opuestos obtenemos un 2-toro.

ES interesante que, en el caso anterior, tanto el folio (un rectángulo con sus lados incluidos) cómo el toro son compactos así que aquí no estaría del todo justificado el término “compactificación”. Pero sí nos imaginamos que el rectángulo es infinito, es decir, es el plano real, entonces sí estamos convirtiendo ese plano, que no es compacto, en un toro, que es compacto. Realmente el proceso de compactificación de un rectángulo aunque no cambia la compacidad del rectángulo si cambia otras propiedades topológicas del mismo, por ejemplo la conectividad por arcos (la explico en la entrada sobre la conjetura de Poincaré). El rectángulo es contractible (cualquier círculo que dibuje dentro del mismo se puede contraer a un punto sin salirse del rectángulo) mientras que en el toro no es así (de hecho hay dos familias de círculos que no pueden contreaerse a un punto). No daré mas detalles sobre ésto ahora (en el post sobre la conjetura de Poincaré comento más al respecto) pero no deja de ser un hecho interesante, que tiene muchas implicaciones en topología y en física.

Uno, bastante conocido, es que, en teoría de cuerdas, en particular para la cuerda heterótica compactificada en un Calabi-Yau, el número de generaciones de partículas es igual a la mitad de la característica de Euler-Poincaré de el espacio de compactificación M &latex\frac{1}{2}\chi (M))$. Esta constante apareció por primera vez en el trabajo sobre teoría grafos que hizo Euler para, entre otras cosas, resolver el problema de los puentes de Königsberg. Para un grafo la expresión de la característica de Euler es \chi= C - A +V donde C, A y V son los números de caras, de aristas y de vértices respectivamente.

Cómo una superficie puede ser triangulada se puede definir esa constante en términos de la constante de Euler de la triangulación de la misma. No obstante, para una superficie, o una variedad n-dimensional, es mejor definir la constante en términos de los grupos de homología o cohomología. Primero se define el n-ésimo número de Betti &latex b_n$ cómo el rango del n-ésimo grupo de homología. En términos de esos números la característica de ÇEuler es la suma alternada de los números de Betti, es decir, tiene la expresión \chi =\sum_{i=0}^{n} (-1)^{i}b_i. También, mediante la dualidad de Poincaré, se podría escribir en términos de grupos de cohomología, así cómo en otras formas mas sofisticadas, pero éso ya sería irnos demasiado del propósito de la entrada.

Otro ejemplo es el uso de “Wilson loops” (o Wilson lines), osea, holonomías sobre círculos, que cuando el espacio no es conexo por arcos pueden usarse para reducir la simetría de un grupo gauge de una manera diferente al mecanismo de Higgs. Este procedimiento se usa de manera habitual en la fenomenología de la cuerda heterótica.

Por cierto, el plano real puede ser compactificado de manera natural de más de una forma. Un proceso muy típico sería la compactificación por un punto, el punto del infinito, es decir, cogemos todos las regiones del plano que “están en el infinito” y las convertimos en un punto. El espacio resultante sería una esfera. Es un proceso algo mas complejo de visualizar, y para ayudar a entenderlo vendría bien que explicase la proyección estereográfica, pero espero que con esta imagen os hagáis una idea aproximada.

Al inicio de la entrada mencioné que iba a explicar cómo surgía el D-toro al compactificar cada una de las dimensiones extra a un círculo. Hasta ahora he explicado cómo obtener el toro identificando los lados opuestos de un cuadrado, pero ahí no se ve cómo surge a partir de círculos.

Bien, éso requiere el concepto de producto cartesiano de dos espacios topológicos. Sí tenemos dos espacios topológicos X1 y X2 su producto cartesiano es el conjunto X1xX2={x1,x2}, es decir, el conjunto de pares dónde el primer par, x1, es un elemento de el conjunto X1 y el segundo, x2, es un elemento del conjunto X”. A partir de una base de las topología de X1 y X2 se puede formar una base de la topologia producto tomando el conjunto de todos los pares ordenados posibles formados con los elementos base. En caso de que no se haya entendido muy bien este párrafo tampoco pasa nada, que es bastante fácil de visualizar la explicación que daré ahora.

Si tenemos dos círculos S^1 y S^2, el toro es el producto cartesiano de esos dos círculos T^2=S^1xS^2. Intuitivamente podemos pensar que cogemos uno de los círculos y cada uno de los puntos de ese círculo lo hacemos girar 360 grados alrededor de otro círculo perpendicular. Se puede visualizar en el siguiente dibujo bastante bien la idea.

Obviamente un D-toro es la generalización de esa idea, osea, un producto cartesiano de D círculos, cada uno de los cuales se obtiene al compactificar cada uno de los ejes coordenados.

Una definición mas precisa de la topología de identificación requeriría una entrada de un blog por si misma, pero al menos espero que con ésto quede mas claro el origen del término y los ejemplos den una idea de cómo se visualiza.

Anuncios

El Sol en una botella

diciembre 7, 2016

Hace no demasiado la energía de fusión era un tema del que se solía hablar incluso en conversaciones cotidianas con gente sin estudios de ciencias. Hoy, por contra, está bastante olvidado. En la carrera de físicas, en las asignaturas de física nuclear, tampoco se dice nada especial al respecto de ella. Por éso, cuando ví el libro en una biblioteca, decidí cogerlo y, aunque ando ocupado estudiando otros temas, saqué tiempo para leerlo con una cierta celeridad.

El autor del libro, según se lee en la solapa, es un periodista, lo cuál puede arrojar dudas sobre el rigor del texto. Sin embargo en uno de los capítulos el autor hablar sobre su papel en una polémica relacionada con la energía de fusión y ahí se descubre que ha trabajado de manera regular en la revista science, lo cuál ya es una garantía muy sólida de que es un autor fiable.

Yendo al texto puedo decir que la lectura es muy, muy amena, mezclando datos históricos y biográficos sobre la gente que ha estado relacionada con la energía nuclear en general, y la de fusión en particular, junto con aspectos técnicos explicados sin entrar en muchos detalles, pero con suficiente profundidad para que no sea “cultura de sobremesa”. Hay también unos cuantos detalles técnicos muy curiosos que siempre viene bien saber.

El primer capítulo es sobre el proyecto Manhatan, la bomba de fisión y la bomba de fusión. También introduce a un científico, Edwin Teller, gran adalid de la energía fusión, y de el armamento atómico. Claramente el autor no simpatiza nada con Teller y le presenta casi cómo un “supervillano”. Al no tener conocimiento previo sobre Teller, y no haber leído mas sobre él, no me puedo pronunciar al respecto.

El siguiente capítulo parece una vuelta atrás y nos explica la historia del descubrimiento primero del átomo y después del núcleo, los consituyentes del mismo ,protones, nuetrones y electrones (ni una sóla palabara sobre los quarks o la QCD sin embargo). También nos cuenta su relación con el funcionamiento del sol, y una sorprendente relación de la misma con una objeción que se hizo en el siglo XIX a la teoría de la evolución.

Tras éso vuelve a los intentos de aplicación pacíficos de las bombas nucleares, algo sobre lo que no había oído nunca hablar y que me ha resultado muy curioso leer.

Luego ya empieza a hablar de los intentos de crear centrales de fusión, en particular la fusión caliente, en plasmas. Nos cuenta los dos modelos relevantes en USA, el Stellator y el sistema de pinzamiento, y sólo mas adelante nos habla de el Tomakak Ruso. Nos explica los principios teóricos básicos, y mas adelante nos cuenta cómo aparecen diversos problemas inesperados, todos relacionados con las inestabilidades del plasma.

Luego hay un capítulo sobre el affaire de la fusión fría, allá por mediados de los ochenta, con observaciones sobre la posible poca honestidad de los implicados, aparte de dar unos cuantos detalles técnicos sobre porque debería funcionar (aunque nunca llega a hablar del efecto túnel cuántico, que se supone que debería ser la justificación última de porque podría funcionar ese enfoque).

Luego hay otro capítulo sobre un intento de producir fusión mediante cavitación, un fenómeno dónde la formación y posterior contracción brusca, de burbujas en un líquido podría comprimir el deuterio lo bastante para crear fusión. En ese affair nos explica cómo estuvo implicado personalmente en algunos aspectos y cómo si bien hubo algunas irregularidades el procedimiento de los científicos fué mas riguroso que el que tuvieron los implicados en la fusión fría.

Hay otro capítulo dedicado a la fusión mediante lasser. Ahí nos cuenta su historia, cómo las esperanzas iniciales fallaron debido a las inestabilidades de Rayleight de la bola esférica de fluido que comprimen los lassers, y de cómo, en última instancia, la inversión de los USA en ese proyecto no se debe tanto a que sea una opción muy realista para obtener fusión cómo al hecho de que, de algún modo, sirva para mantener funcional el arsenal nuclear de los estados unidos. La verdad es que me parece interesante es información porque ya me había hecho yo esa pregunta alguna vez. Por un lado los materiales de fisión, por su misma naturaleza, se van volviendo inservibles, y, por otro, es una tecnología lo bastante compleja cómo para que se puedan perder conocimientos importantes sí la generación de científicos que creó esas armas no instruye en los detalles a nuevas generaciones. Dado que la información sobre esa fusión está en su mayor parte clasificada el autor no sabe exactamente cómo ese proyecto de fusión resuelve los problemas de mantenimiento del arsenal, pero al menos da pistas de porque está financiando un proyecto de poca viabilidad para su propósito mas oficial.

El último capítulo nos hablar sobre el ITER, y de cómo su coste supuso el fin de los planes en países individuales de la inversión en fusión caliente.

El libro está editado en la versión inglesa en 2008, aunque la edición española es mucho mas reciente, del 2015.

El autor es muy poco optimista sobre la viabilidad última de la fusión,en un plazo razonable al menos. Éso está en consonancia con un artículo que leí en su momento en investigación y ciencia. Yo no soy experto en el tema, y, desde luego, tengo mas esperanzas en que la física de altas energías dará en el futuro pistas para obtener energía mejores que la fusión. No obstante la fusión se basa en principios claramente establecidos,y sabemos que funciona (la prueba es el sol) y, pese a los problemas, me parece que no hay ninguna excusa para no seguir investigando a fondo en el tema. Las energías renovables pueden ser útiles en algunos aspectos, pero claramente hay una serie de funcionalidades que la fusión podría cubrir y las energías alternativas no.

En última instancia la energía de fusión está relacionada con la física de plasmas. En su momento, hace ya unos años, compré un libro de la editorial MIR sobre el tema que he ido leyendo a ratos libres, con mucha, mucha calma. A raíz de éste libro de Charles Seife lo he retomado, y, casualmente, iba por el capítulo dónde comentaba algunos de los aspectos de la física de plasmas mas relacionados con la fusión.

Este libro de física de plasmas es de divulgación al estilo Ruso, con profusión de fórmulas, y una pésima traducción por parte de la editorial MIR. Cómo no tengo mas conocimientos de física de plasmas de los que vienen en ese libro no puedo decir gran cosa sobre sí es bueno o malo, pero, en todo caso, es un libro barato, y contiene una gran cantidad de información,con unas cuantas fórmulas para darle un poco de empaque serio al tema, y, con lo baratos que son los libros de la editorial MIR, me parece una compra recomendable tanto en si misma cómo un complemento del libro al que dedico esta entrada.