Archive for the ‘Uncategorized’ Category

¿Es la fenomenología de cuerdas un oxymoron?

enero 2, 2017

En esta entrada me voy a referir principalmente a un artículo, del mismo título, Is String Phenomenology an Oxymoron? de Fernando Quevedo. El artículo es un ensayo que esta relacionado con una charla que dió en la conferenecia  Why truust a theory?  en Michin, en Diciembre de 2015.

El índice del artículo es el siguiente:

Contents 1

Introduction 1

2 Basic Theories 4

3 General predictions of Quantum Field Theories 5

4 The Standard Model and Beyond 6

5 General predictions of String Theory 11 6 Four-dimensional Strings 15

6.1 Model Independent Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

6.2 The Landscape . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

6.2.1 Supersymmetry Breaking . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

6.2.2 Models of Inflation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

7 Criticisms to String Phenomenology 23

8 Final Remarks 27

A A timeline of developments in string phenomenology 30

B Ten open questions for BSM 32

C Some open challenges for string phenomenology 32

Cómo se puede ver el artículo cubre muchos tópicos en muy pocas páginas, así que sí no se tiene una cierta idea sobre lo que se está hablando es difícil que se entienda algo. Pero sí se tiene una base resulta muy didáctico, aporta bastantes detalles interesantes y muestra la relación entre varios tópicos que son relativamente especializados.

Un ejemplo,  las compactificaciones tipo large, a las que el autor ha contribuido bastante, son una versión para valores altos de la constante de acoplo de los escenarios de KKLT para fijar los valores de los moduli.

También es interesante la información que da sobre el papel de los moduli en cosmología, de dónde, aparentemente, se puede extraer con una cierta firmeza que la masa de los mismos, que estará ligada a la masa de las partículas supersimétricas mas ligeras, debería ser mayor que 30  TeV,  para no arruinar la bariogénesis. Éso supondría que quedarían fuera del alcance del LHC.

 

En la parte de conclusiones genéricas habla de que bastantes modelos, en particular KKLT y large,  favorecen lo que se conoce cómo “Split supersymmetry” dónde los fermiones compañeros supersimétricos de los bosones tendrían una masa mayor de 1 TeV mientras que los compañeros bosónicos de los fermiones (por ejemplo el stop, compañero del quark top) deberían tener una masa de entre 10 y 100 veces superior a la de las partículas supersimétricas fermiónicas, con lo cuál sí se hallase un stop o similar en el LHC quedarían descartadas esos escenarios.

No voy a intentar hacer un resumen de un artículo que ya es en si mismo un resumen. Simplemente recomiendo leerlo. Veo que ahora hay una versión 2 del mismo, y yo leí la versión 1, lo cuál me da la excusa perfecta para releerlo, que aunque es relativamente fácil de entender (presenta los resultados, no cómo se llega a ellos) hay mucha información y es fácil que esta se olvide, o se mezcle en la memoria cómo le de la gana.

Aviso que la visión que da está algo influenciada por sus propias líneas de investigación, pero éso es algo completamente normal, y aún así, sigue dando una visión muy amplia de muchos aspectos de la fenomenologia de cuerdas que, ¡No, no es un oxymoron! 😉

 

 

 

 

Una guía compacta a la compactificación

diciembre 30, 2016

En su momento escribí una entrada sobre la forma mas básica de compactificación, la teoría de Kaluz-Klein. Sí se quieren mas detalles (en especial cómo aparece, y que papel juega el dilatón) de los que vienen en esa entrada se puede consultar, por ejemplo, la correspondiente entrada de la wikipedia inglesa Kaluza–Klein theory.

Bien, voy a intentar avanzar un poco más respecto a lo que ahí viene y dar una idea un poco global de cómo es el proceso de compactificación. Al intentar dar una idea global dejaré de lado bastantes detalles técnicos, pero tampoco va a ser a nivel de un libro de divulgación para legos sino mas bien en la línea de la entrada anterior.

El siguiente paso, una vez tenemos una teoría guague abeliana U(1), es intentar obtener una teoría no abeliana, para lo cuál vamos a necesitar mas de una dimensión adicional, usando la notación de la entrada anterior descomponemos la métrica en la forma:

g_{MN}= \begin{pmatrix} \eta_{\mu \nu } & \\ & g_{\alpha \beta (y))} \end{pmatrix}

Recordemos que M y N son índices que recorren todas las dimensiones, mu y nu recorren sólo las 4 dimensiones usuales, eta es la métrica de Minkowsky e y denota las coordenadas en las dimensiones extra.

Asumimos que esta métrica es una solución a las ecuaciones de Einstein para el vacío R{MN}=0 o bien, sí permitimos una contaste cosmológica

R_{MN} - \frac{1}{2}Rg_{MN} + \Lambda g_{MN}=0

En el caso de una sóla dimensión adicional la compactificación era única, convertir el eje y en un círculo, ahora tenemos mucha mas libertad. Sí tenemos D dimensiones extra y plegamos cada uno de los ejes coordenados en un círculo tendremos un D-toro (recordemos que el 2-toro tiene forma de “donut” hueco, o de neumático) y, en ése caso, la gravedad de las dimensiones extra se verá cómo una teoría gauge [U(1)]^D. Mas adelante explicaré cómo se obtiene ese D-toro, pero de momento entendamos bien lo que hemos hecho. Cuando las dimensiones extra están descompactificadas ahí opera la simetría del grupo de difeormorfismos de esas dimensiones extra, que es muy grande. Al reducir esas dimensiones a la forma de un D-toro esa simetría de difeomorfismos se ha visto muy reducida, a ese [U(1)]^D. Digamos que el grupo de isommetrías de la dimensión compactificada se ve cómo una teoría gauge con esa misma simetría en las 4 dimensiones.

Cuando las dimensiones extra se compactifican a una geometría mas compleja que un D-toro y no es nada sencillo ver las isometrías de ese espacio. Voy a entrar un poco en algunos detalles matemáticos, elementales, pero que no siempre se comentan en los libros de física sobre el proceso de compactificación (sobre los detalles de las isomerías hablaré en otra entrada). Lo primero es el origen del término “compactificar”. Hace referencia al concepto topológico de espacio compacto. Lo escribí en la entrada que dediqué a un libro sobre la conjetura de Poincaré pero lo reescribiré aquí, para hacer ésto mas autocontenido.

Las nociones de continuidad en cálculo se suelen dar en términos de epsilones y deltas, pero eso en esencia es hablar de entornos abiertos de la recta real, y el caso es que si uno lo analiza uno usa sólo 3 propiedades básicas de los abiertos.

Una topología es recoger esas tres propiedades y convertirlas en axiomas.

Sea X un conjunto y sea Y={Xn} una colección finita o infinita de subconjuntos de X, X e Y forman un espacio topológico si
i. el conjunto vacío e Y pertenecen a Y
ii. Cualquier subcolección finita o infinita {Zn} de Xn tiene la propiedad de que la unión de todos los Zn pertenece a Y
iii. Cualquier subcolección finita {Zm} de los Xn tiene la propiedad de que su intersección pertenece a Y.

Los Xn son los abiertos de esa topología. Conviene hacer una pequeña distinción, que no siempre se explica en los libros de topologia/geometría para físicos. Los intervalos epsilón y deltas del cálculo de una varible, y sus generalizaciones elmentales, los discos abiertos de radio epsilon/delta en el plano, las bolas abiertas en tres dimensiones, etc, son un tipo especial de abiertos, pero, ciertamente, hay conjuntos que son abiertos y no son de esa forma. Esos subconjuntos especiales de la topología forman una base de la misma.

Bien, una vez que tenemos definidos los abiertos cualquier definición que hagamos en términos de esos conjuntos va a ser una definición topológica. Por ejemplo se dice que un conjunto es cerrado cuando su complementario es abierto. Otra noción topologica de interés es la de compacidad. Intuitivamente en \mathbb{R} un compacto va a ser un conjunto cerrado y acotado (la distancia entre dos cualesquiera de sus puntos es finita).

Pero como dije una noción topológica debe darse en términos de los abiertos. Vamos a ello.

Primero debo explicar la idea de recubrimiento. Dado un subconjunto, S, de un espacio topológico, X un recubrimiento de S es una colección de conjuntos abiertos Rn tal que S esta incluido en la unión de todos los Rn. Se dirá que un conjunto es compacto cuando todo recubrimiento del mismo admite un subrecubrimiento (un cubrimiento con un un subconjunto de la colección recubridora)finito. La noción de compacidad es útil por muy diversos motivos. Una es que, por el teorema de Heine-Borel, podemos caracterizar los cerrados y acotados, un tipo de conjuntos interesante, mediante esta propiedad.Oto aspecto útil es que si queremos demostrar algo sobre un compacto nos basta demostrarlo sobre cualquier elemento del conjunto recubridor y asegurarnos de que la propiedad demostrada no se pierde cuando tenemos una unión finita de esos elementos. Es importante hacer notar que como en un compacto todos los recubrimientos admiten subrecubrimiento finito podemos elegir los Rn de la forma que mas nos convenga.

Tan importante es la noción de compacidad que la mayoría de resultados toopológicos van a estar referidos a espacios compactos. Los no compactos son mucho mas difíciles de estudiar.

Entonces la idea de la compactificación es coger un conjunto que no es compacto, por ejemplo la recta real, que no es acotada, y por tanto, según el teorema de Heine-Borel no es compacta, y convertirla en un conjunto compacto por un procedimiento bien definido, en este caso identificar los dos puntos del infinito a la “izquierda” y “derecha”. Sí cogemos un folio e identificamos dos lados opuestos obtenemos la superficie de un cilindro (sin las tapas). Sí en ese cilindro resultante identificamos los dos círculos opuestos obtenemos un 2-toro.

ES interesante que, en el caso anterior, tanto el folio (un rectángulo con sus lados incluidos) cómo el toro son compactos así que aquí no estaría del todo justificado el término “compactificación”. Pero sí nos imaginamos que el rectángulo es infinito, es decir, es el plano real, entonces sí estamos convirtiendo ese plano, que no es compacto, en un toro, que es compacto. Realmente el proceso de compactificación de un rectángulo aunque no cambia la compacidad del rectángulo si cambia otras propiedades topológicas del mismo, por ejemplo la conectividad por arcos (la explico en la entrada sobre la conjetura de Poincaré). El rectángulo es contractible (cualquier círculo que dibuje dentro del mismo se puede contraer a un punto sin salirse del rectángulo) mientras que en el toro no es así (de hecho hay dos familias de círculos que no pueden contreaerse a un punto). No daré mas detalles sobre ésto ahora (en el post sobre la conjetura de Poincaré comento más al respecto) pero no deja de ser un hecho interesante, que tiene muchas implicaciones en topología y en física.

Uno, bastante conocido, es que, en teoría de cuerdas, en particular para la cuerda heterótica compactificada en un Calabi-Yau, el número de generaciones de partículas es igual a la mitad de la característica de Euler-Poincaré de el espacio de compactificación M &latex\frac{1}{2}\chi (M))$. Esta constante apareció por primera vez en el trabajo sobre teoría grafos que hizo Euler para, entre otras cosas, resolver el problema de los puentes de Königsberg. Para un grafo la expresión de la característica de Euler es \chi= C - A +V donde C, A y V son los números de caras, de aristas y de vértices respectivamente.

Cómo una superficie puede ser triangulada se puede definir esa constante en términos de la constante de Euler de la triangulación de la misma. No obstante, para una superficie, o una variedad n-dimensional, es mejor definir la constante en términos de los grupos de homología o cohomología. Primero se define el n-ésimo número de Betti &latex b_n$ cómo el rango del n-ésimo grupo de homología. En términos de esos números la característica de ÇEuler es la suma alternada de los números de Betti, es decir, tiene la expresión \chi =\sum_{i=0}^{n} (-1)^{i}b_i. También, mediante la dualidad de Poincaré, se podría escribir en términos de grupos de cohomología, así cómo en otras formas mas sofisticadas, pero éso ya sería irnos demasiado del propósito de la entrada.

Otro ejemplo es el uso de “Wilson loops” (o Wilson lines), osea, holonomías sobre círculos, que cuando el espacio no es conexo por arcos pueden usarse para reducir la simetría de un grupo gauge de una manera diferente al mecanismo de Higgs. Este procedimiento se usa de manera habitual en la fenomenología de la cuerda heterótica.

Por cierto, el plano real puede ser compactificado de manera natural de más de una forma. Un proceso muy típico sería la compactificación por un punto, el punto del infinito, es decir, cogemos todos las regiones del plano que “están en el infinito” y las convertimos en un punto. El espacio resultante sería una esfera. Es un proceso algo mas complejo de visualizar, y para ayudar a entenderlo vendría bien que explicase la proyección estereográfica, pero espero que con esta imagen os hagáis una idea aproximada.

Al inicio de la entrada mencioné que iba a explicar cómo surgía el D-toro al compactificar cada una de las dimensiones extra a un círculo. Hasta ahora he explicado cómo obtener el toro identificando los lados opuestos de un cuadrado, pero ahí no se ve cómo surge a partir de círculos.

Bien, éso requiere el concepto de producto cartesiano de dos espacios topológicos. Sí tenemos dos espacios topológicos X1 y X2 su producto cartesiano es el conjunto X1xX2={x1,x2}, es decir, el conjunto de pares dónde el primer par, x1, es un elemento de el conjunto X1 y el segundo, x2, es un elemento del conjunto X”. A partir de una base de las topología de X1 y X2 se puede formar una base de la topologia producto tomando el conjunto de todos los pares ordenados posibles formados con los elementos base. En caso de que no se haya entendido muy bien este párrafo tampoco pasa nada, que es bastante fácil de visualizar la explicación que daré ahora.

Si tenemos dos círculos S^1 y S^2, el toro es el producto cartesiano de esos dos círculos T^2=S^1xS^2. Intuitivamente podemos pensar que cogemos uno de los círculos y cada uno de los puntos de ese círculo lo hacemos girar 360 grados alrededor de otro círculo perpendicular. Se puede visualizar en el siguiente dibujo bastante bien la idea.

Obviamente un D-toro es la generalización de esa idea, osea, un producto cartesiano de D círculos, cada uno de los cuales se obtiene al compactificar cada uno de los ejes coordenados.

Una definición mas precisa de la topología de identificación requeriría una entrada de un blog por si misma, pero al menos espero que con ésto quede mas claro el origen del término y los ejemplos den una idea de cómo se visualiza.

El Sol en una botella

diciembre 7, 2016

Hace no demasiado la energía de fusión era un tema del que se solía hablar incluso en conversaciones cotidianas con gente sin estudios de ciencias. Hoy, por contra, está bastante olvidado. En la carrera de físicas, en las asignaturas de física nuclear, tampoco se dice nada especial al respecto de ella. Por éso, cuando ví el libro en una biblioteca, decidí cogerlo y, aunque ando ocupado estudiando otros temas, saqué tiempo para leerlo con una cierta celeridad.

El autor del libro, según se lee en la solapa, es un periodista, lo cuál puede arrojar dudas sobre el rigor del texto. Sin embargo en uno de los capítulos el autor hablar sobre su papel en una polémica relacionada con la energía de fusión y ahí se descubre que ha trabajado de manera regular en la revista science, lo cuál ya es una garantía muy sólida de que es un autor fiable.

Yendo al texto puedo decir que la lectura es muy, muy amena, mezclando datos históricos y biográficos sobre la gente que ha estado relacionada con la energía nuclear en general, y la de fusión en particular, junto con aspectos técnicos explicados sin entrar en muchos detalles, pero con suficiente profundidad para que no sea “cultura de sobremesa”. Hay también unos cuantos detalles técnicos muy curiosos que siempre viene bien saber.

El primer capítulo es sobre el proyecto Manhatan, la bomba de fisión y la bomba de fusión. También introduce a un científico, Edwin Teller, gran adalid de la energía fusión, y de el armamento atómico. Claramente el autor no simpatiza nada con Teller y le presenta casi cómo un “supervillano”. Al no tener conocimiento previo sobre Teller, y no haber leído mas sobre él, no me puedo pronunciar al respecto.

El siguiente capítulo parece una vuelta atrás y nos explica la historia del descubrimiento primero del átomo y después del núcleo, los consituyentes del mismo ,protones, nuetrones y electrones (ni una sóla palabara sobre los quarks o la QCD sin embargo). También nos cuenta su relación con el funcionamiento del sol, y una sorprendente relación de la misma con una objeción que se hizo en el siglo XIX a la teoría de la evolución.

Tras éso vuelve a los intentos de aplicación pacíficos de las bombas nucleares, algo sobre lo que no había oído nunca hablar y que me ha resultado muy curioso leer.

Luego ya empieza a hablar de los intentos de crear centrales de fusión, en particular la fusión caliente, en plasmas. Nos cuenta los dos modelos relevantes en USA, el Stellator y el sistema de pinzamiento, y sólo mas adelante nos habla de el Tomakak Ruso. Nos explica los principios teóricos básicos, y mas adelante nos cuenta cómo aparecen diversos problemas inesperados, todos relacionados con las inestabilidades del plasma.

Luego hay un capítulo sobre el affaire de la fusión fría, allá por mediados de los ochenta, con observaciones sobre la posible poca honestidad de los implicados, aparte de dar unos cuantos detalles técnicos sobre porque debería funcionar (aunque nunca llega a hablar del efecto túnel cuántico, que se supone que debería ser la justificación última de porque podría funcionar ese enfoque).

Luego hay otro capítulo sobre un intento de producir fusión mediante cavitación, un fenómeno dónde la formación y posterior contracción brusca, de burbujas en un líquido podría comprimir el deuterio lo bastante para crear fusión. En ese affair nos explica cómo estuvo implicado personalmente en algunos aspectos y cómo si bien hubo algunas irregularidades el procedimiento de los científicos fué mas riguroso que el que tuvieron los implicados en la fusión fría.

Hay otro capítulo dedicado a la fusión mediante lasser. Ahí nos cuenta su historia, cómo las esperanzas iniciales fallaron debido a las inestabilidades de Rayleight de la bola esférica de fluido que comprimen los lassers, y de cómo, en última instancia, la inversión de los USA en ese proyecto no se debe tanto a que sea una opción muy realista para obtener fusión cómo al hecho de que, de algún modo, sirva para mantener funcional el arsenal nuclear de los estados unidos. La verdad es que me parece interesante es información porque ya me había hecho yo esa pregunta alguna vez. Por un lado los materiales de fisión, por su misma naturaleza, se van volviendo inservibles, y, por otro, es una tecnología lo bastante compleja cómo para que se puedan perder conocimientos importantes sí la generación de científicos que creó esas armas no instruye en los detalles a nuevas generaciones. Dado que la información sobre esa fusión está en su mayor parte clasificada el autor no sabe exactamente cómo ese proyecto de fusión resuelve los problemas de mantenimiento del arsenal, pero al menos da pistas de porque está financiando un proyecto de poca viabilidad para su propósito mas oficial.

El último capítulo nos hablar sobre el ITER, y de cómo su coste supuso el fin de los planes en países individuales de la inversión en fusión caliente.

El libro está editado en la versión inglesa en 2008, aunque la edición española es mucho mas reciente, del 2015.

El autor es muy poco optimista sobre la viabilidad última de la fusión,en un plazo razonable al menos. Éso está en consonancia con un artículo que leí en su momento en investigación y ciencia. Yo no soy experto en el tema, y, desde luego, tengo mas esperanzas en que la física de altas energías dará en el futuro pistas para obtener energía mejores que la fusión. No obstante la fusión se basa en principios claramente establecidos,y sabemos que funciona (la prueba es el sol) y, pese a los problemas, me parece que no hay ninguna excusa para no seguir investigando a fondo en el tema. Las energías renovables pueden ser útiles en algunos aspectos, pero claramente hay una serie de funcionalidades que la fusión podría cubrir y las energías alternativas no.

En última instancia la energía de fusión está relacionada con la física de plasmas. En su momento, hace ya unos años, compré un libro de la editorial MIR sobre el tema que he ido leyendo a ratos libres, con mucha, mucha calma. A raíz de éste libro de Charles Seife lo he retomado, y, casualmente, iba por el capítulo dónde comentaba algunos de los aspectos de la física de plasmas mas relacionados con la fusión.

Este libro de física de plasmas es de divulgación al estilo Ruso, con profusión de fórmulas, y una pésima traducción por parte de la editorial MIR. Cómo no tengo mas conocimientos de física de plasmas de los que vienen en ese libro no puedo decir gran cosa sobre sí es bueno o malo, pero, en todo caso, es un libro barato, y contiene una gran cantidad de información,con unas cuantas fórmulas para darle un poco de empaque serio al tema, y, con lo baratos que son los libros de la editorial MIR, me parece una compra recomendable tanto en si misma cómo un complemento del libro al que dedico esta entrada.

The Shape of Inner Space

noviembre 7, 2016

Tras el anuncio de que el bump (bulto) estadístico difotónico a 750 MeV con el que despedimos el año pasado ha quedado descartado tras el anuncio de los nuevos datos este verano, y los nuevos límites en búsquedas ordinarias, ha habido bastante desencanto y las esperanzas de que el LHC encuentre nueva física han caído mucho. También los experimentos de búsqueda de materia oscura han dado resultados negativos que echan por tierra resultados previos que apuntaban a que se podría haber encontrado algo.

Eso, sumado a resultados negativos previos, cómo la verificación de que el anuncio de BICEP2 de haber encontrado modos B era debido al polvo interestelar, han echado por tierra todos los indicios experimentales de nueva física de partículas o cosmología (en particular la inflación) que han aparecido en los últimos años, más o menos desde el 2008.

En ese panorama traer a colación un libro del 2008, publicado justo antes del lanzamiento del LHC, y que habla de la matemática de la teoría de cuerdas, puede parecer cómo intentar reavivar un enfermo, pero la verdad es que me parece todo lo contrario, que es un excelente momento para leerlo. El motivo es que mucha de la fenomenología que se ha estado haciendo está inspirada en teoría de cuerdas, y no tiene apenas sentido mas allá de ella, pero, cuando uno mira los detalles, resulta que se hacen unas aproximaciones que, sí uno pretende ser consecuente con la teoría en la que se inspira, son, cuanto menos, muy chocantes. Por éso creo que habría que animar a la gente a aprender a fondo la teoría de cuerdas, o, si acaso, a hacer teorías aparte, pero no quedarse a mitad camino.

Pues bien, éste libro, aunque en su filosofía es de divulgación, contiene muchos detalles finos de teoría de cuerdas que posiblemente mucha gente que haya leído los libros de texto habituales en teoría de cuerdas no haya leído, o no haya apreciado adecuadamente.

Posiblemente cualquiera que haya leído algo de divulgación sobre cuerdas haya oído hablar de las compactificaciones de Calabbi-Yau, unos espacios cuya existencia conjeturó Calabbi y la existencia de los cuales probó Yau. Pues bien, el autor principal de este libro es Yau, Shing-Tung Yau. Por esa demostración -principalmente- recibió la medalla fields (ya se sabe, más o menos el nobel de las matemáticas, aunque sólo otorgable a gente de menos de 40 años, lo cuál es algo bastante discutible en mi opinión). Actualmente Yau es el jefe del departamento de matemáticas de la universidad de Harward, una de las mas importantes del mundo, y en particular es una de las mas prestigiosas en el mundo de la teoría de cuerdas, contando con algunos de los mas famosos físicos del área, cómo por ejemplo Cumrum Vafa.

Por lo expuesto en el párrafo anterior uno puede tener la sospecha de que Yau es un autor que debe saber bastante sobre los temas que trata, y así es. A lo largo del libro uno descubre que algunos físicos famosos, por ejemplo Brian Greene, autor del universo elegante, y descubridor de la simetría mirror, han sido estudiantes de doctorado suyos.

Aprovecho para dejar ahora un enlace a dos reviews del libro en dos blogs famosos, el de Peter Woit y el de Sabine Hossenfander escritos mucho antes que éste, y antes del actual cúmulo de resultados negativos en la búsqueda experimental de nueva física.

Bien, en ésos reviews dejan claro que el autor se centra bastante en lo que conoce mejor, las compactificaciones en espacios de Calabi-Yau, y la utilidad de éstas. Pero el caso es que muchas de las características generales que han ido apareciendo en la teoría de cuerdas desde los primeros tiempos, cosas cómo las D-Branas, las compactificaciones warped (deformadas, retorcidas)o el cálculo de la entropía de los agujeros negros en teoría de cuerdas tienen relación, en un momento u otro, con los calabi-Yau, así que, en el fondo, en el libro se analizan, y dando detalles muy jugosos, todos esos temas.

Destaco, así a vuela pluma, la relación entre el número de moduli de un calabi-yau y el famoso número de 10^500 compactificaciones que aparecen en el landscape (la idea es que el flujo que sirve para dar un potencial a un campo moduli está cuantizado, y, por tanto tiene un espectro discreto, y de hecho finito, así que una estimación del numero es el producto de el número de modulis (relacionado con los números de hodge de la familia del calabi-yau en cuestión, elevados al número de valores posibles para el valor del flujo) . También habla de compactificaciones que no son un producto cartesiano, y que se tratan cómo Warped compactificaciones, las condiciones de Strominger para compactificaciones generales, la relación entre la métrica de Ricci del calabi-Yau y la masa de las partículas relacionadas conla compactificación, y la constante de yukawa de las interacciones, etc, etc.

Realmente no es un libro para un lector que quiera tener una cultura superficial sobre la teoría de cuerdas sino para gente con una cierta base de física y matemáticas, y que haya leído ya bastante divulgación sobre diversos temas. Aunque, cómo digo al principio, puede encontrar cosas interesantes, gente que ya sepa bastante de teoría de cuerdas a nivel formal.

Aparte de el puro aspecto de la física y la matemática destaco lo que se adivina sobre la historia de la teoría de cuerdas, y su relación con la matemática pura (aplicación de la simetría mirror a algo denominado geometría enumerativa, de la que nunca había oído hablar, pero que explica en el libro en que consiste), Ahí se cuenta quien estudia con quien, cómo los físicos, y que físicos, preguntan a los matemáticos sobre tal o cuál cuestión, y viceversa, quien ha hecho avanzar tal o cuál rama, etc. Yo particularmente saco la impresión de que el hecho de que se acumulen tantos matemáticos y físicos de cuerdas en Harward, y centros muy influenciados por Harward, hacen que se priorice lo que allí se hace sobre otras opciones que, tal vez, podrían ser igual de interesantes.

A modo de comentario final, el libro de divulgación mas interesante que he leído nunca sobre teoría de cuerdas y sus matemáticas. Sinceramente, hay tópicos que ya están muy trillados, y creo que estaría bien que mucha gente leyese este libro, y comentase en detalle en sus blogs muchas de las cosas que allí se cuentan.

Singularidades desnudas en agujeros negros 5-dimensionales

mayo 6, 2016

En varios sitios, por ejemplo, physisorg, se han hecho eco de un resultado que considero potencialmente muy interesante.
Five-dimensional black hole could ‘break’ general relativity

El artículo técnico, publicado en physical review letters, tiene su correspondiente versión en arxiv

End Point of Black Ring Instabilities and the Weak Cosmic Censorship Conjecture

Este es el abstract:

“We produce the first concrete evidence that violation of the weak cosmic censorship conjecture can occur in asymptotically flat spaces of five dimensions by numerically evolving perturbed black rings. For certain thin rings, we identify a new, elastic-type instability dominating the evolution, causing the system to settle to a spherical black hole. However, for sufficiently thin rings the Gregory-Laflamme mode is dominant, and the instability unfolds similarly to that of black strings, where the horizon develops a structure of bulges connected by necks which become ever thinner over time.”

En el artículo de physicsorg por “romper” se refieren a que en cinco dimensiones puede darse el caso de lo que se conoce cómo una singularidad desnuda, es decir, un punto singular que no está rodeado por un horizonte de sucesos (la frontera de un agujero negro) y, por tanto, queda esa singularidad expuesta al resto del universo.
Por singularidad pueden entenderse varias cosas diferentes, la mas sencilla de entender es “un punto dónde la métrica se hace infinita”, o dónde la curvatura del espacio-tiempo se hace infinita, o la densidad de materia infinita. Pero quizás no sea esa la clave de la idea de singularidad. Lo importante es que es un punto del espacio-tiempo al que llegan curvas posibles, es decir, puedes llegar a él, hacerlo en un tiempo finito (tanto subjetivo cómo para un observador lejano, recordemos que el tiempo pasa de manera diferente para diversos observadores en función de diversos factores) y, una vez allí, las ecuaciones no predicen que pasa (se puede suponer que se queda allí para siempre, pero no es obvio que deba ser así).

El ejemplo que plantea esta gente es la evolución de un agujero negro en forma de anillo (Un black ring), de un cierto tipo especial, llamado delgado. La existencia de agujeros negros que no sean de forma esférica es algo que no ocurre en 3+1 dimensiones, así que no es posible extender este caso a nuestro espacio observable.

En teoría de cuerdas el universo debe tener 10 (11 en el caso de la variante llamada teoría M, aunque la historia es ligeramente mas complicada que éso) y en algunos escenarios alguna de las 6 que no observamos podría ser lo bastante extensa cómo para que un agujero de esas características se formase, así que éso supone un gran reto para la teoría de cuerdas (a ver cómo describiría esas situaciones, y que conclusiones sacaría) y la relatividad general sencillamente se queda sin herramientas para ir mas allá.
La verdad es que es un resultado que, sí es cierto, es muy importante ya que había la violación de la versión débil de la conjetura de censura cósmica (hecha por Penrose) que afirmaba que algo así no podía ocurrir. Siendo una conjetura no está demostrada, pero sí que había probado ser válida en muchos escenarios y, por ahora al menos, sólo hay este contraejemplo en 5 dimensiones.
La verdad es que estaría bien que no hubiera errores. Estando basado en cálculos en un superordenador es difícil una verificación independiente, y menos sí no se es experto en relatividad general numérica, que es un submundo aparte, pero me parece un resultado lo bastante interesante cómo para que la gente lo contraste (sí no se presta atención a algo así no sé a que se le va a prestar xD) y, caso de aceptarse estaría bien intentar recrear mediante cuerdas la situación, a ver que nos dicen.

Cuando haya leído con calma el artículo, sí veo que hay algo interesante que añadir, editaré la entrada para comentarlo.

Por cierto, imagino que a algunos les habrá extrañado que no mencionase nada sobre el famoso descubrimiento directo de ondas gravitacionales por parte de LIGO hace unos meses. Por un lado andaba liado en esas fechas, pero, más importante, sólo hay un evento. No he visto ninguna crítica por parte de nadie de que el resultado pueda ser falso, y hay rumores de que la colaboración tiene mas eventos candidatos, pero, tras el historial de los últimos años en varias áreas, no voy a estar del todo tranquilo hasta que no se hayan publicado otros eventos bien documentados.

Modelándolo todo

enero 26, 2016

Or at least the good ones 😉

El caso es que el gráfico de arriba (que, aclaro, no lo he hecho yo) no es demasiado “polémico”. En el caso del conejo se explica una reacción bioquímica relacionada con la respiración. El río es un fluido y se representa por las ecuaciones de Navier Stokes.  Dentro del sol  se han expuesto las reacciones nucleares de fisión básicas. Debajo de él aparece primero la fuerza gravitacional newtoniana, que es la que permite deducir la órbita que sigue la tierra alrededor del sol. Y, justo debajo, se escriben las ecuaciones de Einstein, que generalizan la teoría grabvitatoria de Newton a situaciones dónde la interacción gravitatoria es mas intensa.  Un poco mas a la derecha, y alrededor del sol, están las ecuaciones clásicas de Maxwell que describen la interacción electromagnética y, en particular, la radiación electromagnética (entre ella la luz visible) que nos llega del sol.

En el cielo, arriba, a la derecha, se ve un proceso que describe la caída de un rayo cósmico energético en la atmósfera que se va desintegrando en partículas cada vez mas ligeras. Debajo de los pájaros aparece la ecuación de Bernoulli de la dinámica de fluidos. Esas ecuaciones son un caso particular de las de Navier-Stokes para situaciones estacionarias, y en las que se ejemplifica la conservación de la energía. El hecho de colocarla junto a los pájaros proviene de que la fuerza de sustentación que mantiene un objeto que vuela en el aire se puede explicar mediante esa ecuación pues la diferencia de velocidades del aire que circula por encima y debajo del ala genera una diferencia de presiones que es la que hace que impulsa el ala hacia arriba. Aclaro que si bien esa ecuación explica muy bien el ala de un avión sospecho que el vuelo de un pájaro debe tener algunos otros factores, al menos en la fase en la que baten las alas.

En los árboles aparece una reacción química que es la contraria a la respiración del conejo ,la fotosíntesis (no soy químico, y no recuerdo los detalles, sí no es exactamente así que alguien me corrija).  En el fondo se ve una línea ondulante, que me imagino pretende representar un paisaje montañoso. Y,  siguiendo esa curva, aparece la expresión de el desarrollo en serie de Fourier de una función. Supongo que  éso significa que se considera que la línea  las montañas tiene algún tipo de periodicidad (ciertamente es muy sinusoidal) y que ,por consiguiente, puede hacerse un desarrollo en serie de Fourier de la gráfica de esa línea.

En la base de las montañas aparece la ecuación de Schröedinger dependiente del tiempo, aunque no entiendo muy bien que se supone que pinta ahí. Abajo, a la derecha, señalando a unas plantas que parecen helechos aparecen unas funciones f1 y f2, expresadas cómo un producto de unas matrices por unos vectores. no están completas y no tengo del todo claro que pueden ser, aunque me imagino que la idea es que sean algún tipo de ecuaciones de ecología matemática (pero no caigo ahora mismo en cuales podrían ser exactamente).

He dicho que esas ecuaciones no son demasiado polémicas porque básicamente, representan procesos físicos y químicos, y la gente normal no tiene problema con aceptar que se puedan describir objetos inanimados, y procesos “básicos” de los objetos animados con leyes matemáticas. Cuando les dices a la gente que eres físico/matemático y les expones estos temas, sí tienen afición por esas materias, normalmente a la gente les parece bien, supongo que porque de algún modo consideran que eso representa que has sido un “chico aplicado y listo” que ha aprovechado el tiempo y esas cosas de la “gente de bien”.

El problema, con alguna gente, es cuando el método científico que se ha utilizado para obtener esas leyes, intenta aplicarse a situaciones que ellos consideran mas delicadas, normalmente cuando afectan a aspectos de las sociedades humanas que se consideran “demasiado complejos”, como podría ser la economía, el arte, la psciología y demás. Aparentemente, para alguna gente, y según sus diversas orientaciones, sí te planteas, cómo es lo normal, hacer modelos matemáticos sobre estos temas parece cómo que estés intentando atentar contra su individualidad, el “espíritu humano”,  algún tipo de “orden divino”, la “armonía de la naturaleza”, o vaya usted a saber qué.

El tema enlaza también en parte con la muy manida frase ¿para que sirven las matemáticas sí yo no las uso en la vida cotidiana? Sé, por amplia experiencia  en discusiones con mucha gente, que de momento es prácticamente imposible que se disipe la polémica, y, en consecuencia, todo lo que voy a exponer, va a ser en buena parte tiempo perdido, pero, inevitablemente, a la larga, se irá imponiendo la realidad y se verá que sí se pueden hacer todo ese tipo de cosas y que ¡no pasa nada!, nada malo al menos, mas bien todo lo contrario. De hecho, aunque mucha gente lo ignore, ya hay mucho hecho en ese terreno (pero no remotamente lo que se podría y debería estar haciendo).

Lo primero es dejar claro que, para casi (dejo el casi por generosidad xD) cualquier actividad humana hay siempre algún tipo de modelo cognitivo.  Dependiendo de la actividad el modelo cognitivo será mas o menos elaborado. Cuanto menos habrá un modelo verbal, y el lenguaje en si mismo es un modelo de la realidad. Pero mediante modelos verbales no se puede llegar muy lejos, y siempre hay que procurar ir mas allá.

Voy a elegir, para empezar, un tema que conozco en relativa profundidad, la música. Ahí tenemos una realidad un conjunto de sonidos y silencios, que siguen una cierta pauta, hechos con diversos tipos de instrumentos musicales, incluida la voz, y que es considerada, normalmente “agradable”.

Bien, hoy día la música se representa en una partitura. Éso no fue siempre así. De hecho hubo un largo camino hasta obtener un sistema para poder poner en un papel una representación del hecho musical. En mi antiguo livejournal (sigue existiendo, pero ya no escribo)  puse en su momento una entrada sobre música medieval dónde, entre otras cosas, explico un poco la historia de la notación musical. La partitura es una construcción muy astuta pues plasmar algo tan complejo como el fenómeno musical no es nada trivial, pero no deja de ser un lenguaje escrito. Realmente la teoría musical va mucho mas allá del solfeo y consta de cosas cómo armonía, contrapunto, formas musicales, teoría de la melodía, teoría del acompañamiento, orquestación, etc, etc.  Y eso para música clásica, luego, para música electrónica hay que conocer un montón de aspectos sobre sintetizadores, samplers, secuenciadores, etc. Es curioso que la gente piense que la música es algo de “tener oído”  y “tocar un instrumento” para poder hacerla  y “sensibilidad musical” para apreciarla, pero la realidad es que sí se quiere ser un gran músico con eso no basta. La música clásica es totalmente académica, y requiere una extensísima formación muy regulada, pero incluso la música de jazz o el flamenco, que son mas “improvisados” requieren formación, mas anárquica, pero formación.  incluso la mayoría de los músicos pop que se saben “tres acordes” normalmente sí han (tal vez algunos no al inicio) estudiado mucha mas música de la que parece, y no sólo clases de instrumentos (obviamente de todo hay xD).

Lo interesante es que la teoría musical clásica, cuya base es la armonía, en particular la armonía tonal, (a partir del periodo clásico antes se hacía música contrapuntística, y la teoría formal armónica estaba en sus inicios) es un modelo cognitivo bastante complejo, y bastante astuto. En última instancia la armonía tonal está en  buena parte en relación con el análisis de Fourier en el sentido  de que los acordes que “suenan bien”, las terceras, son una nota base y otras que son armónicos de esa nota base. Y luego, una vez establecidos los acordes se crea una teoría de “tensión/relajación” (acordes en función de dominante y tónica respectivamente) y otras funciones armónicas de paso, que también tienen una cierta correspondencia con la teoría de Fourier, aunque posiblemente ahí pesen mas otros elementos.  En su momento recogí en el livejournal un estudio de unos psicólogos que relacionaban las funciones armónicas de tónica y dominante con estados psicológicos registrables mediante sensores, y lo relacionaban con la teoría matemática del caos determinista, viniendo a plantear que las funciones de dominante y tónica sería lo que se conoce en matemáticas cómo “atractores”. Podéis leer detalles en Math, psicology & music.  En esas dos entradas del livejournal abundo sobre aspectos de teoría musical, así que no me extenderé mucho mas aquí con ello. Lo interesante es que un modelo artístico, la teoría de la armonía clásica, esta muy relacionada con la teoría de Fourier (que es la base de la física del sonido), y que, mas adelante, se ve que hay indicios de que esa teoría músical pueda tener bases neuronales que se pueden modelizar mediante un sistema de ecuaciones diferenciales no lineal. Desde luego ha habido mas intentos de hacer correspondencia entre la música y la matemática, de otra índole. El siglo XX, una vez explorados muchos aspectos de la armonía tonal, llevó a considerar buena idea la música atonal, y para éso se crearon técnicas musicales específicas. la mas sencilla fué el dodecafonismo (obra de Arnold Schöemberg),  que establecía que cualquiera de las 7 notas naturales y sus correspondientes alteraciones (bemoles o sostenidos), osea, las doce notas, debían estar en pie de igualdad, y creó una técnica contrapuntística que permitía crear, de forma metódia, música en la que ninguna de las notas fuera mas importante que el resto. Mas adelante Boulez y otros ¿Stockhausen? llevó esa fórmula al extremo haciendo que no sólo ninguna nota tuviera un papel preponderante de forma tonal sino también a nivel rítmico, llevando al serialismo integral. El caso es que en esas teorías, aunque sobre el papel pautado (la partitura) eran bastante razonables obviaban toda la parte de la física del sonido. Esa gente pensaba que el sonido se habituaría a las disonancias extremas, lo mismo que se había ido habituando a la pualatina introducción de disonancias en los acordes de dominante (que aumentaban la tensión y daban variedad), pero, en función del muy escaso éxito de la música serial en el gran público parece que no fué así. Es posible que la causa última sea que ignoran la física del sonido, aunque la escisión de la cultura entre pop y académica en la segunda mitad del siglo XX es un tema muy complejo, y espero que algún día se vuelvan a fusionar, y que los intentos de confluencia actuales prosperen cuanto antes, pero ésa es otra historia.

Bien, la música es un caso interesante porque hay un modelo cognitivo endógeno (la teoría musical) que conecta de forma muy natural con la física, pero ¿hay mas casos? Ciertamente, pero mucho me temo que se me hace tarde y tendré que dejarlo para otro día, lo cuál, la gente que me conozca, esta al tanto de que eso es señal de que a saber cuando vuelvo a escribir sobre el asunto xD.

 

¿Es un pájaro, es un avión? ¡No, es superbump!

diciembre 19, 2015

Este año el LHC ha funcionado de manera bastante irregular, con bastantes problemas operativos, y a consecuencia de ello ha acumulado bastantes menos datos de los esperados. Los primeros resultados, expuestos en verano, no dieron grandes titulares, y sólo se vieron unas cuantas fluctuaciones estadísticas no muy significativas (que no obstante han dado lugar a un buen número de artículos.

Este martes, sin embargo, se ha hecho público el anuncio del análisis mas reciente de los datos acumulados y ha surgido la evidencia experimental mas firme de nueva física mas allá del modelo standard que se ha visto hasta el momento en ningún colisionador. La señal consiste en un exceso de difotones (osea, emisión de dos fotones cómo consecuencia del decay de una partícula) a una energía de 750 GeV. La señal se ha observado, para la misma partícula, en los dos grandes detectores del LHC, atlas y CMS.

ATLAS ve un exceso de 3.6 sigmas y CMS ve otro, del mismo tipo, y para los mismos valores, de 2.6 sigmas. Combinando ambos resultados la significación estadística sube a unos 4.4 sigmas. En esos datos hay que tener cuidado con el efecto “Look somewhere else” (y tener cuidado de no contarlo dos veces), lo cuál rebaja la significación estadística total. Dado que en física de partículas se necesita una significación estadística de 5 sigmas, por cada uno de los detectores, y sin considerar el efecto ése de “Mirar a cualquier otro lado”, los resultados no son firmes, y sigue teniendo, por ahora, el status de una fluctuación estadística. Eso sí, la mayor vista hasta el momento en un acelerador de partículas que no se corresponda con una partícula del modelo standard. Dado que la matemática de ese modelo se cerró (al menos en lo mas fundamental) a finales de los 70, y desde entonces todo lo que se ha encontrado pertenece a ese modelo estamos hablando de la mayor evidencia de física de partículas mas allá del modelo standard en unas 4 décadas.

Tomasso Dorigo (un físico que trabaja en uno de los detectores del LHC) analiza con mucho detalle los aspectos estadísticos en esta entrada de su blog.

Un aspecto llamativo es que en el Run I del LHC, efectuado a energías de 7 TeV, no había signo alguno de esa señal. La energía extra del Run 2 (que funciona a 13 TeV) permite que exista esa partícula, y que no haya evidencia a menos energía, pero eso supone bastantes restricciones. Cómo quiera que es la mayor evidencia experimental de nueva física en tantísimo tiempo ha habido ya, desde el martes hasta aquí, bastantes artículos analizando la cuestión (obviamente los autores tenían noticias de la señal antes del anuncio oficial).

Hay propuestas desde muchos ángulos posibles. Una de las primeras cosas que parecen estar claras es que la partícula debe ser una partícula vectorial, de spin distinto de 1 (existe un teorema, de Landau-Yang, que afirma que una partícula de spin 1 no puede decaer a dos fotones). Eso, para los amigos de SUSY, lleva inmediatamente a plantearse que pueda ser uno de los 5 bosones de Higgs (en el modelo standard sólo hay 1) que hay en los modelos supersimétricos. Eso sí, al no haber sido observada previamente en el Run I se puede verificar que sí es uno de esos Higgs estaríamos en versiones del modelo standard supersimétrico distinto al mas sencillo posible (El MSSM, minimal supersymmetric standard model).

También hay buenos motivos para descartar que sea una partícula de spin 2 (osea, en la práctica, una excitación tipo kaluza-klein del gravitón en una dimensión extra).

Bien, eso es lo que, más o menos, está descartado que sea, y las características generales de lo que debe ser. Dentro de esos límites hay varias posibilidades. En supersimetría se ha propuesto que pueda ser un sgoldstino. Lubos analiza los artículos que tratan esa posibilidad en <a href="http://motls.blogspot.com/2015/12/sgoldstino-at-750-gev-prevails-in.html"<esta entrada.

Un análisis, en español, de muchas de las posibilidades extra analizadas hasta ahora puede encontrarse en el blog de Francis.

Posibles partículas responsables del exceso a 750 GeV en el LHC Run 2

Lo interesante es que, caso de ser una señal auténtica, está en un punto dónde las posibilidades son relativamente escasas. La mayoría de los modelos requieren que, sí la señal es una nueva partícula, debe haber mas partículas de energías similares que se verán el año siguiente en el Run 2, o, incluso, que reexaminando los datos ya acumulados de éste año, y buscando a la luz de estos modelos, se vea evidencia de esas posibles otras partículas asociadas. De ésto nos habla Matt Strassler (pese a haber sido despedido de su puesto de profesor titular en su universidad, hay que ver que mal de fondos está la física de partículas en los USA, sic): So What Is It???

Debo decir que estaba un poco aburrido de hablar de fluctuaciones estadísticas que tenían muy pocas posibilidades de ser realmente indicios de nueva física, y ha habido muchas estos años. Ésta pinta bastante mejor que todas las anteriores, y confío en que, de una vez, sea algo y no se diluya, pero eso no se puede afirmar.

Aprovecho el resto de la entrada para hacer algo de publicidad. He estado haciendo estos meses un editor de ecuaciones para android. Contiene muchas mas opciones que nada de lo que había disponible en la plataforma. Para empezar incluye el código latex de la ecuación. De hecho la forma de crear la ecuación se apoya en el código Latex, aunque hay, por supuesto, una gran cantidad de símbolos (mas que ningún editor que yo conozca) que, al pulsarlo, escriben el código correspondiente. Además, para no tener que escribir una y otra vez la misma ecuación (hay ecuaciones de uso muy habitual) se pueden guardar las ecuaciones editadas, junto con información adicional, en una base de datos, para crear una “agenda de ecuaciones”. Y tienen bastantes opciones extra que facilitan mucho la vida a quien quiera publicar artículos de física, sea en una revista, sea en un blog. Os dejo los enlaces correspondientes de la google play.

Ésta es la versión gratuita.

dbLatexLitle

Y ésta la de pago (el precio es bastante comedido dada la gran cantidad de opciones que tiene la aplicación).

dbLatex

Escribiendo latex con estilo, y con stylus

agosto 21, 2015

Edición: Cómo quiera que no me convence del todo lo de crear las ecuaciones en la página web que menciono en el texto he creado una pequeña aplicación que permite usar el programa myscript smart note sobre el que versa esta entrada de una manera más sencilla para crear ecuaciones y usar su código látex en blogs, como éste o los de blogspot que usen algún extra para poder usar latex.

El programa funciona de la siguiente manera. Uno hace una ecuación en myscript smart note, la selecciona y elige exportar como archivo latex. Eso genera un fichero de texto, que se puede guardar con según que programas. Sí se instala el que he hecho, y que he llamado AMyScrptClipBoard éste aparece en la lista de exportación y muestra la ruta del archivo, el contenido completo del mismo y, en un cuadro de texto editable, el código latex de la ecuación. Además, inmediatamente, ha copiado al portapapeles el código latex. Tiene tres botones que permiten añadir las etiquetas de apertura y cierre de ecuación típicas de wordpress y blogspot con el plugin habitual. El tercer botón elimina las etiquetas y deja sólo el código latex. Cualquiera de los botones, además, manda lo que muestra en el cuadro de texto al portapapeles.

Aviso que, en el momento de escribir ésto, el programa es muy cutre en su interfaz, y es mejorable de muchos modos. Aún así es útil y dejo por aquí el enlace, por si alguien lo quiere probar. AMyScrpClipboard

Y, ya por el vicio de usarlo, algunas ecuaciones hechas mediante el procedimiento descrito.
\left( a+b\right) ^{2}=a^{2}+b^{2}+2ab

\sigma _1=\left(  \begin{array}{cc}   0 & 1 \\   1 & 0  \end{array}  \right)

Cómo mencioné en la primera entrada sobre masas negativas había encontrado, mediante la opción de compartir de android, una forma relativamente sencillla de poner ecuaciones en las entradas desde el note. Basicamente la idea es que con el S-pen puedo recortar una imagen y compartirla con worpress, usando la apliación para android (añadiéndola a la librería multimedia directamente, sin usar entremedias scrpapbook cómo hice entonces).

Eso está bien, pero tiene sus limitaciones. Por un lado blogspot no tiene en su aplicación para android la posibilidad de añadir imágenes a una librería multimedia así que no me sirve en el otro blog. Y, claro, hay un tamaño de almacenamiento limitado y sí me pongo a escribir imágenes lo llenaría demasiado deprisa. También está el hecho de que sí se trata de ecuaciones que no tengo escritas en un libro y las escribo a mano en el tablet no quedan muy presentables. Y, además, estoy desperdiciando la capacidad nativa de wordpress de renderizar latex (y la no nativa, pero también existente de blogspot).

El programa S-note de los dispositivos note tiene un sistema de reconocimiento de ecuaciones, pero, excepto en la versión inicial, primero escribes toda la ecuación y luego, tras seleccionarla, la convierte en imagen, y no siempre acierta y debes reescribirla y probar de nuevo, lo cuál no es una buena estrategia. Y, además, no te exporta la ecuación a latex sino que te la manda al dichoso wolphram alpha, que no me gusta nada. Hay editores de ecuaciones para android, alguno de los cuales te permite exportar a latex, y no están mal, pero, leñe, ya que tienes el S-pen lo suyo es que se pueda usar, que es mas rápido e inmediato. Había buscado en su momento, pero no dí con nada, Ahora he vuelto a buscar y dí con un programa que casi, casi hace lo que le pido, myscript smartnote.

El editor de ecuaciones, en cuanto trabajas con él un poco para que se habitúe a tu escritura, y le pilles el truco a algunos caraceteres rebeldes, funciona muy bien y muy rápido. Con eso tienes una imagen que puedes exportar a la librería multimedia, lo cuál está muy bien. También te exporta a texto plano una representación de la ecuación, usando los símbolos de las fuentes habituales, bastante aproximada, y así puedes hacer un paste desde el portapapeles. Y, por último, tiene una opción de exportar a un archivo latex (extensión de texto con extensión .tex) el código latexde la ecuación, junto con un código de apertura del documento. De hecho puedes exportar todo el documento a latex, lo cuál es genial si quieres hacer un archivo para publicar en arxiv. Y también te genera el pdf. Todo ello es excelente, y muy útil, pero, por desgracia, no me permite exportar al portapapeles el código latex de una ecuación concreta, y sólo ese código.

Tras pillar la versión completa del programa (cuesta alrededor de 2 euros en una compra integrada) me puse en contacto con el servicio de soporte para pedir que incluyeran esa característica. Me respondieron rápido, y de manera muy amable, informando que consideraríanpara el futuro la posibilidad, pero no de forma inmediata, y ¡horror!, que mientras tanto usara una aplicación para IOS, que si tiene esa característica. El problema, por supuesto, es que los dispositivos IOS (Ipad y Iphone) son una castaña en general (salvo para audio) y, desde luego los stylus disponibles para el Ipad son todos una birria comparados con el S-pen. Les volví a escribir y me dieron otra opción temporal, hasta que añandan la característica al programa, una demo online del editor de ecuaciones que sí tiene la opción de ver el latex (o mathml), en un cuadro de texto que hay abajo, y copiarlo al portapapeles.

image

La demo es mas lenta que el programa nativo, y posiblemente deba lidiar con muchas letras manuscritas a la vez y no se hace con la tuya. No obstante funciona de forma razonable y le puede ser útil a cualquiera que tenga algún stylus wacom o ntrig (cómo en las surface).

Por cierto, en windows la versión de onenote para escritorio permite añadirle un plugin, microsoft math, que sí tiene esa opción, y muchas más. Incluso sin el plugin tienes un editor de ecuaciones muy majo, que permite reconocimiento de escritura a mano de ecuaciones. Desafortunadamente la versión para android de onenote no tiene esa opción.

Aprovecho para reseñar que ha salido la versión 5 del note phablet, pero es una basura infecta que no trae microSD, ni batería extraible. Algunos dicen que tampoco tiene MHL para poder conectarlo por HDMI a la televisión , e incluso que no tiene USB OTG para conectarlo a un pendrive, o cualquier otro dispositivo bluetooth. No sé si esto último es cierto, pero ya sólo por no llevar microSD me resulta inutil (un serivico de almacenamiento en la nube, no importa el tamaño, nunca me serviría de sustituto) así que descarto totalmente la compra de esa porquería, que es casi tan mala como un Iphone (su única ventaja es que tiene un stylus y android, y mas potencia hardware). Y de un sucesor del note 10-1 no se sabe nada (y si va a seguir los pasos de su primo phablet mejor no saberlo).

Eso me lleva a señalar que el windows 10, tanto para sobremesa como para tablet (includo el modo tablet en un sobremesa) funciona muy bien. Y, aparte de las carísimas surface hay tablets chinas que incluyen un stylus wacom (mejor que el ntrig de la última surface) a un precio muy assequible, cómo la Icube stylus. A día de hoy las aplicaciones para tablet de android son muy superiores a las que hay para windows (lo sé porque, aparte del note 10.1, tengo un tablet dual boot windows y android chino de 8 pulgadas muy barato -unos 100 euros- el chuwi vi8, que, desafortunadamente no tiene stylus) y sólo las de escritorio están por encima, aunque no son demasiado cómodas de usar en un tablet. En fin, Android ha mejorado mucho, y hay ya excelentes aplicaciones, en constante mejora, pero si google y sus secuaces (cómo Samsung ultimamente) siguen recortando opciones hardware para forzar que la gente se pase a la nube yo, y muchos, dejaremos de usar productos de Goolge (y Samsung), pero, por ahora, con el hardware android que tengo en éste momento, las soluciones para latex, y escribir ecuaciones matemáticas usando un stylus, son las que comento en el artículo. Sí alguien conce algo mejor se agradecería que lo expusiera en los comentarios.

Early quantum electrodynamic (book review)

agosto 11, 2015

El verano es una buena época para leer libros “recreativos”, y uno sobre la historia de la física claramente entra en esa categoría, aunque con un plus  de interés. En su momento me había leído el  libro de historia de la mecánica cuántica, parte I, de Jose Manuel Sanchez Ron, y me resultó muy interesante e instructivo. Desde entonces he estado esperando que saliera la segunda parte, pero la verdad es que se está retrasando mucho. También problé a leer otros libros sobre el tema, que siguieran desde el momento en que lo deja Sanchez Ron (ka publicación de la ecuación de Schroedinger y de la mecánica matricial de Heissenberg), pero no me terminaron de convencer (demasiado texto y demasiadas pocas fórmulas), Afortnadamente el libro del que trato en esta entrada sí trae todas las fórmulas oportunas ;).

Arthur I Miller  Early Quantum Electrodynamics: A Sourcebook

wpid-wp-1439264231130.jpeg

E libro se divide en dos partes. La primera, de unas 100 páginas, es la descripción histórica de los desarrollos en electrodinámica cuántica hechos entre 1927 y 1938, es decir, los primeros desarrollos de la misma. La electrodinámica cuántica es la interacción de partículas cargadas, principalmente el electrón, con la luz, es decir, con los fotones. En la forma actual se enseña cómo la ecuación de Dirac que representa a el electrón, acoplada a un campo electromagnético mediante un término de interacción cúbico. También se puede escribir, y es mas convencional verlo así, en términos de la derivada covariante asociada al campo gauge electromagnético.

image

siendo la derivada covariante

image

El caso es que, siendo la teoría cuántica de campos mas sencilla realizada en la naturaleza dista mucho de ser una teoría simple. En los cursos introductorios de teoría cuántica de campos se utiliza una teoría “de juguete”  para aprender el formalismo, el campo escalar interactuando consigo mismo con un término cuadrático. La QED tiene muchas mas dificultades, por un lado la ecuación de Dirac es espinorial, por otro el eletromagnetiso es una teoría con invarianza gauge que tiene dos problemas de renormalización, la ultravioleta, asociada a altas energías, y la infraroja, asociada al hecho de que los fotones pueden emitirse con una energía arbitrariamente baja.

Bien. esa versión de la QED que se estudia ahora debe mucho a Tomonaga, Schwinger y, sobre todo, a Feynman. Pero el libro trata de la primera generación de físicos que se ocuparon del tema, que incluye a un montón de nombres ilustres, Heisenberg, DIrac, Pauli, Fermi, Weiskopf, y, en general, la creme de la creme de esa época dorada. Lo curioso es que lo que ellos hicieron se parece muy poco a lo que se ve ahora.Para empezar casi no usaban los lagrangianos y todo se hacía con Hamiltonianos. En realidad hoy, en los curos de introducción, se siguen enseñando métodos hamiltonianos para ver la cuantización canónica, en la que se impone la tranformación de los corchetes de POisson clásicos de la teoría de campos correspondientes en operadores, lo cual lleva a l aintroducción de los operadores de creación-aniquilación. Pero, claro, en esa época acababan de crear una teoría para una partícula, el paso a una teoríacon varias partículas fué, el primer paso, y de eso va el segundo capítulo del libro (el primero es sobre todo introductorio). Esa parte la hicieron Jordan, en 1926, DIrac, y Pauli.

Lo siguiente es la ecuación de Dirac, y su interpretación en términos de huecos, y la descripción del campo electromagnético, y ese es el tercer capítulo del libro. Ya aviso que lo que ahí viene no es lo que se hace hoy día en QED. Se ocupan más de cosas como la masa del electrón, y el problema que supone un “mar de DIrac”, es decir, un conjunto infinito de electrones, con energía negativa. El problema viene cuando se considera el hecho de que ese número infinito de electrones dbería generar un campo eléctrico infinito, y hay que ver cómo se lidia con eso.

El cuarto capítulo abunda en esos problemas, y se va viendo como restar cantidades infinitas (preludio de lo que luego sería la teoría de renormalización), la a ecuación de Klein-gordon (el electron bosónico, cómo lo llamban), la conexión spin estadística, tema que se ve de forma distinta a la actual, debida a Schwinger, basada en causalidad. Pauli, responsable de esa primera versión, observó una analogíia entre las relaciones de los operadores de creación y aniquilación y las matrices de Dirac, y elaborando de aquí y allá llego a convencerse, correctamente, de que en relatividad especial el espín determina la estaadística.

El quinto, y último tema, trata las fuerza nuclear. A priori puede parecer un poco fuera de sitio en un libro sobre QED, pero en realidad es vital. Es importante, y sorprendente, darse cuenta de que cosas quedamos por sentadas no fueron nada obvias. Hasta 1932 se creía que el nucleo constaba de protones y electrones. Fue descubrimiento de un nucleo, el N^{14} que experimentalmente se ve que tiene spin entero, pero debería tenerlo semientero (14 protones y 7 electrones). Eso justificó la introducción del neutrón. Mas conocida es la introducción porparte de Pauli del neutrino para explicar que en el decaimiento beta el electrón pudier atener cualquier momento (y así salvar la conservación del momento). Aparte de eso lo mas relevante para la QED, y para las teorías de campos en general, es que de ahí surgieron las ideas de partículas intermediadoras de las fuerzas. EN realidad la primera idea surge del ión del helio, en el que se puede ver queel electrón compartido entre los dos protones, puede considerarse como un mediador.Pero eso no es muy convincente. Heisenber consideró, antes de la teoría del neutron, un mecanismo en que el intercambio de un electrón jugaba un papel en la teoría nuclear. Como es bien sabido no fué hasta que Yukawa presentó su teoría del pión que eso se consolidó, pero eso no ocurrió hasta 1935, y aún pasó un tiempo hasta que el aporte de Yukawa paso a ser reconocido. Eso signifca que la visión actual de las fuerzas mediadas por partículas bosónicas vino mas tarde, sobre todo con Feynman, y sus diagramas, y que todo el trabajo de esa primera época no tiene ninguna relación con ese punto de vista.

La segunda parte del libro, hasta llegar a unas 250 páginas, consta de algunos artículos selectos de la época, algunos de ellos traducidos del Alemán, y, aunque se les menciona en la otra parte, pueden leerse de forma independiente.

En definitiva, un libro muy interesante en su contendio y bastante bien esccrito, muy recomendble en definitiva.

Cómo el libro se queda en 1938, y eso deja fuera muchos aportes, tengo intención de leer otro libro sobre historia de la teoría de campos, clásica y cuántica, que cubre la relatividad general y la teoría cuántica de campos, incluyendo los campos gauge. Aunque uno conozca la presentación actual de esos temas es muy interesante saber el desarrollo histórico. La relativdad general es algo de lo que hay bastante material, pero de teoría cuántica de campos no tanto, y es bueno hacer publicidad del material existente.

Sobre la masa negativa

agosto 6, 2015

Como buen aficionado a la ciencia ficción me gustaría que ya existiesen cosas como los agujeros de gusano, los motores de distorsión (warp drives) y, en general, el tipo de cosas que las ecuaciones de la relatividad general nos muestran que seríab posibles si existiera la “materia exótica”, entendiendo como tal aquella que viola alguna de las condiciones de energía positiva.

El caso es que los medios habituales para conseguir esa materia exótica requieren crear dispositivos como las placas paralelas del famoso ejemplo de Casimir. La idea es simple, uno junta mucho dos placas metálicas y en la zona entre ambas se produce una cancelación de modos cuánticos que hace que en medio de las placas haya una muy leve violación de esas condiciones de energía positiva, es decir, que haya “energía negativa”.  Hay muchos problemas en llevar esa idea a una realización experimental y, en todo caso, la energía negativa es tan pequeña que no sirve para gran cosa.

Eso me llevó a plantearme una cuestión. En una zona del espacio normal, dónde se verifican las condiciones de energía positiva, se crean partículas de masa positiva ¿Sería factible que en las zonas de energía negativa se crearan partículas de masa negativa?. Caso de ser así sería muy útil. Uno podría tener sus placas de Casimir creando partículas de masa negativa, que podríamos extraer y almacenar, Esas partículas estarían disponibles como materia exótica una vez retiradas las placas, Claramente, cómo la cantidad de energía negativa es muy pequeña, sólo se podrían crear partículas de masa muy pequeña. De las partículas conocidas los únicos candidatos posibles serían los neutrinos, que no pueden ser almacenados, pero bueno, si damos con otra forma de crear zonas de mayor energía negativa tal vez pudieramos crear cosas como electrones “exóticos”.

Busqué si había algo en internet al respecto de la masa negativa y sólo encontre, en ese momento, una referencia a un trabajo de Robert L. Forward, físico y famoso escritor de ciencia ficción hard. Ahi explicaban que había que tener en cuenta la masa inercial por un ladoy la gravitacional por otro, y venía un análisis detallado de la masa gravitacional usando física newtoniana. Me pareció un análisis muy insuficiente así que me puse, en  ratos libres, a intentar hacer un análisis usando teoría cuántica de campos y relatividad general, y con algunas consideraciones de teoría de cuerdas, que es lo suyo en estos tiempos.

El punto de partida sería la ecuación de Klein-Gordon

wpid-wp-1438838368659.png

Ahí se puede observar que la masa aparece en un único término, y aparece elevado al cuadrado así que curiosamente, no se distingue una masa positiva de una negativa. Uno podría pensar que esto implica que la ecuación de KG es totalmente insensible al signo de la masa, pero uno debería ser cuidadoso y examinar con cuidado mas detalles de la misma. Bien, una de las cosas que son importantes en la ecuación de KG es que debe definir una densidad de probabiliad y una corriente conservada. Sí alguien ha estudiado mecánica cuántica ordinaria habrá visto que la densidad de probabilidad es el cuadrado de la función de onda \Phi^*\Phi . En una teoría cuántica de campos eso no es automáticamente así. La densidad de probabilidad va a ser la componente 0 de una cuadricorriente de Noether asociada a simetrías externas. Para el caso del campo escalar la densidad toma la forma (ver, por ejemplo, el libro de Hatfield “Quantum field theory of point particles and strings”:

image

Uno ve inmediatamente que en esa densidad de probabilidad la masa aparece dividiendo, y sin elevar al cuadrado. Eso significa que la densidad de probabilidad de una partícula de masa negativa será la opuesta de la de una de masa positiva. A poco que uno esté familiarizado con la teoría cuántica de campos ya sabrá la historia de la ecuación de Klein-Gordón: aparecen estados de probabilidad negativa, pero estos pueden ser interpretados como antipartículas que pueden interpretarse como antipartículas que viajan hacia atrás en el tiempo. Sí nos vamos a el campo escalar complejo puede probarse que éste campo tiene una simetría interna U(1), que, vía teorema de Noether, se convierte en una corriente cuya integral en una superficie cerrada da una carga que uno podría asociar (aunque no necesariamente) con la carga eléctrica. Se puede ver que las antipartículas tienen masa negativa. Pues bien, según éste análisis uno podría extraer la conclusión de que cambiar el signo de una masa -en este contexto masa inercial- es equivalente a intercambiar partículas por antipartículas, lo cuál choca con la hipótesis, no demostrada, de que partículas y antipartículas tienen la misma masa. Todo ésto es para la ecuación de KG libre, luego ya analiamos que pasa con las interacciones entre partículas, y con eso de que las antipartículas puedan tener masa negativa.

Antes de ir con otra ecuación vamos a otro aspecto importante, el de el campo gravitatorio creado por las partículas. En las ecuaciones de Einstein la parte que describe la materia es el tensor energía momento. Ese tensor aparece en los libros de teoría clásica y cuántica de campos, para la relatividad especial. Viene a ser poner en una cantidad tensorial las cantidades conservadas que se enseñan en los cursos de mecánica lagrangiana. Recordemos, asociada a una simetría del lagrangiano bajo traslaciones espaciales hay una cantidad conservada, que es el momento lineal. Asociada a una simetría bajo rotaciones se asocia la conservación del momento angular, y asociada a una invarianza bajo traslaciones temporales se asocia la conservación de la energía. Combinando eso en un tensor se obtiene el susodicho tensor energía-momento.

image

Esa expresión es válida en relatividad especial. En relatividad general hay que sustituirla por otra, que viene a ser la variación de el lagrangiano respecto a la métrica (los detalles vienen discutidos en, por ejemplo, el libro de relatividad general de Wald, en el apéndice sobre formulación Lagrangiana de la relatividad general”. La expresión concreta es:

image

Donde Sm es la acción de la materia. Para el lagrangiano de KG, en un espacio curvo (que es el normal, pero sustituyendo las derivadas normales por derivadas covariantes) el resultado de evaluar esa expresión nos da:

image

Se puede observar que, una vez mas, la masa aparece al cuadrado y, por tanto, según eso, una masa negativa debería producir exactamente el mismo campo gravitatorio que una masa positiva, lo cuál es realmente chocante. En los libros dónde se obtiene esa expresión no he visto ninguna mención de ese hecho, aunque me consta que la gente de relatividad general ha analizado la masa negativa. Hablaré mas de ese aspecto posteriormente. De momento una observación basada en un cálculo (trivial) propio. Sí uno coge un tensor energía momento clásico el caso mas sencillo es el de un fluido perfecto (es decir, de viscosidad nula). Ese tipo de tensor se usa en los modelos cosmológicos mas sencillos, cómo el de FRW (Friedman-Robertson-Walker), o el de la ecuación de Tolman-Openheimer para modelizar una estrella (soluciones interiores de la ecuación de Schwarschild). Su expresión es:

image

En esa ecuación rho es la densidad, u la cuadrivelocidad del fluido y P la presión. La masa total es la integral de la densidad. Obviamente ahí una masa negativa significa una densidad negativa. Sí se va a usar en una ecuación cómo la de Schwarschild rho debe tener simetría radial y, por tanto, las integrales serán sólo en la coordenada radial. Un caso entretenido es el de una capa esférica de densidad negativa (y, para simplificar, presión nula). Sí uno resuelve la ecuación correspondiente se obtiene de forma muy sencilla que sí esa capa externa de densidad negativa tiene la misma masa que la masa interna positiva se obtiene en el exterir la métrica de Minkowsky en esféricas, es decir, se ha apantallado la masa interior (esto es entendible también desde el análogo para relatividad general del teorema de Gauss en electroestática, el teorema de Ostrogowsky creo que se llama). Éso podría permitir cosas muy entretenidas desde el punto de vista de la ciencia ficción. Se podría, por ejemplo, ocultar gravitatoriamente cosas cómo un planeta (o una nave cómo la estrella de la muerte). Sí eso se combina con una ocultación visual nos lleva a la posibilidad de que una raza alien pudiera colocar un planeta, o una luna, al lado de la tierra y no se lo podría detectar ;-).

Bien, volvamos a un terreno mas serio. Al principio había mencionado que la materia exótica era la que violaba alguna condición de energía positiva, pero no había explicado en que consiste eso. La razón es que explicar ese concepto requiere el tensor de energía momento y aún no lo había definido. La idea es que la mayoría de tensores energía-momento son de la forma 1 de la clasificación de Hawking-Ellis.

image

Se ve que es muy parecido al tensor de un fluido ideal, con una densidad y una presión. La idea es que ese tensor, contraido con cuadrivectores, debe dar un resultado positivo. Cómo en relatividad hay cuadrivectores positivos, negativos y nulos no es tan sencillo cómo el caso de formas bilineales definidas positivas y hay varias definiciones posibles para la energía positiva. Visser en su libro de referencia sobre agujeros de gusano enumera 7 tipos diferentes. En el siguiente apartado hace un análisis de las posibles violaciones. Lo primero que nos enseña es que el campo escalar de Klein-Gordon no viola ninguna de esas condiciones. Lo hace para masa positiva, pero, cómo ya hemos visto, también es válido para masa negativa.

El siguiente ejemplo que analiza es el de Casimir, que tanto he mencionado. El truco es que las placas paralelas conductoras modifican el vacío de la electrodinámica cuántica.

image

El tensor correspondiente es

image

Ahí z es la coordenada perpendicular a las placas, separadas por una distancia a. Se puede ver facilmente que ese tensor viola varias de las condiciones (un buen signo de ello es que la densidad es negativa). Es interesante señalar que la materia de las placas es ordinaria y que es un efecto cuántico, debido a la modificación de la energía del vacío en QED, debido a las placas, la que genera la energía positiva. Es decir, no se necesita materia exótica para tener energía negativa. Lo interesante sería que se pudiera crear una zona de energía negativa para crear materia exótica. Visser analiza algún ejemplo más cómo por ejemplo el entorno de un agujero negro (vacío de Hartle-Hawking) y ve que allí hay una violación considerable de las condiciones de energía positiva. También algunos campos de los que se usan en modelos de quintaesencia para explicar la expansión acelerada del universo hay violaciones de la condición de energía débil. Realmente uno podría considerar que esos campos son energía exótica, pero no tienen masa negativa, y no cubren el analisis que yo pretendía. Ya hemos visto que con un campo de Klein-Gordon no se puede lograr eso.

La siguiente opción, en orden de complejidad, dentro de las ecuaciones relativisatas es la de Dirac.

image
Aqui la masa no esta elevada al cuadrado así que esta ecuación distingue masa positiva de negativa ¡Menos mal! Pero no cantemos victoria todavía, que también nos va a dar unas cuantas sorpresas.

En fin, veo que, cómo es habitual, en cuanto intento explicar algo que considero medianamente interesante las entradas se vuelven muy largas así que lo dejo aquí de momento. Quedan muchas cosas que comentar, cómo por ejemplo las ligeras relaciones entre ésto y la correspondencia AdS/CFT de Maldacena, las ecuaciones para spin mayor que 1/2, el caso del bosón de Higgs, etc, etc.

Quien me conozca seguramente estará aterrado ante semjante afirmación porque sabe de mi tendencia a no publicar las entradas sucesivas de un tema cuando decido dividirlo en varias partes. Para intentar tranquilizarle voy a comentar un aspecto técnico sobre wordpress y el galaxy note. Escribir matemáticas en el note, con el S-pen, es fantástico, y las característicar para hacer copy/paste de fórmulas de libros para tenerlas a mano también funciona bastante bien. En contraposición escribir fórmulas con latex en wordpress es muy tedioso (aunque bienvenida sea la posibilidad). He buscado bastante tiempo una herramienta que tranforme una fórmula escrita a mano al latex correspondiente y lo copie al portapapeles, para así poderlo pegar en el wordpress, pero no he dado con ella. Tampoco veía un modo sencillo de que las imágenes copiadas al portapapeles del note pudieran ser incluidas en wordpress, hasta que he descubierto que mediante un programilla del note (scrappbook) y la opción de exportación a la aplicación de worpress para android puedo subir las imágenes recortadas al portapapeles de manera razonablemente directa. He usado esa opción en casi todas las fórmulas de esta entrada, y es mucho mas rápido que el latex. Supongo que, en cierta manera, era esa diferencia de flexibilidad a la hora de escribir fórmulas entre el note y el blog- unido a otros factores, como que la física teórica está un poco aburridilla- lo que me ha tenido tan reacio todo este tiempo a escribir por aquí. Confío que, con esta nueva facilidad, me animaré a escribir de nuevo mas menudo.