Archive for the ‘Uncategorized’ Category

Compactificaciones inhomogéneas y sus implicaciones físicas

julio 23, 2017

Este año académico he estado leyendo mucho sobre compactificaciones, tanto a nivel de matemática pura (holonomía a fondo, espacios de moduli bastante a fondo y otras cosas bastante recientes de geometría analítica de las que creo que no hay aún nada o casi nada aplicado a la teoría de cuerdas) cómo a nivel de fenomenología, con la idea de trabajar en dos temas bastante concretos, uno puramente matemático y otro muy fenomenológico.

En el proceso, aparte de aprender sobre compactificaciones, he podido entender mucho mejor diversos aspectos de la teoría de cuerdas en general, y, en particular, todo lo de los móduli, que es un asunto bastante clave. También me ha influenciado un aspecto del LHC, el de las fluctuaciones estadísticas. En principio se supone que son sólo éso, pero entendiendo un poco la física de compactificaciones uno podría plantearse que a lo mejor las fluctuaciones tienen que ver con sucesos reales de nueva física, pero que desaparecen con el tiempo porque la física mas allá del modelo standard pueda no ser constante. Por supuesto a muy altas energías la física no variaría, y estaría dictada por la teoría de cuerdas. Sin embargo en regiones intermedias, entre el modelo standard y la energía de Planck, la teoría de cuerdas se manifiesta por, entre otras cosas, las compactificaciones y, tal vez, estas podrían no ser constantes en el espacio o en el tiempo, y, de esa manera, la física efectiva a esas energías intermedias podría no ser constante.

En esta entrada voy a exponer aspectos serios, al menos eso espero, sobre el asunto, y, al final, otros un poco mas exóticos, con consideraciones de un carácter mas anecdótico, aunque tal vez no del todo irrelevantes.

La idea parte de lo más elemental, la idea de Kaluza-Klein es relativamente sencilla de entender una vez se sabe relatividad general. La idea básica es añadir una dimensión espacial extra a las 3+1 del espacio-tiempo y hacer que esta sea un círculo. Sí en vez de 3+1 tomáramos 2+1 tendríamos un plano y a cada punto del plano le añadiríamos un pequeño círculo cuyo radio sería del orden de la longitud de Planck, o algo muy pequeño en cualquier caso. Matemáticamente podemos expresar éso cómo que tenemos un producto cartesiano de espacios topológicos M^4 X S^1 (dónde M^4 es el espacio de Minkowsky en 3+1 dimensiones y S^1 es el círculo). Sí congelamos el tiempo, o aceptamos que la compactificación no varía con el mismo (que es lo que se suele hacer) tendríamos que el espacio es R^3 X S^1

Los círculos de los diversos puntos se agrupan y dan lugar a un cilindro y la métrica de ese círculo, vista desde el espacio de 3 (2 sí estamos en el plano) dimensiones es la del electromagnetismo de Kaluza. Sí consideramos una partícula cuántica que pueda tener momento en la dirección de ese círculo ése estará cuantizado. Desde 4 dimensiones el momento en esa quinta dimensión se verá cómo una masa y una partícula, inicialmente sin masa,va a tener “copias” de diversas masas, múltiplos enteros unas de otras. Siendo relatividad general estamos trabajando con geometría diferencial intrínseca, y, por consiguiente, nos despreocupamos de cómo ese círculo, y el correspondiente cilindro, se pueden “encajar” en las dimensiones extra. También se asume normalmente que el radio del círculo es uniforme. Sí no lo fuera siempre podríamos decir que tenemos lo que se denomina una fibración con base el espacio de Minkowsky y fibra S^1 .

Las fibraciones son un tema matemático que requiere bastante esfuerzo introducir en detalle, y que requiere una buena base previa de geometría y topología a nivel de una licenciatura de matemáticas. De hecho es un tema para un quinto curso (algo que ya no existe en el plan de bolonia) o directamente para cursos de postgrado. Aún así la idea esencial no es terriblemente difícil de entender intuitivamente. Se trata de que a cada punto de un espacio denominado base B se le “pega” una copia de otro espacio F, denominado fibra. Juntando las fibras de todos los puntos se obtiene el espacio total, E, y hay una proyección \pi que va del espacio E al espacio B que lleva cada fibra al punto del espacio B al que pertenece.

En cierto modo las fibraciones son una generalización del producto cartesiano y, de hecho, cuando la fibración es trivial el espacio total E es el producto cartesiano de la base por la fibra E=BxF, pero,en general, el asunto es mas complejo (aunque, localmente, el espacio sí que va a ser siempre un producto cartesiano dela base por la fibra, pero globalmente, en general, no) . Una forma muy sencilla de verlo es cuando el espacio base es un círculo y la fibra es un segmento. En ese caso el producto cartesiano es un anillo (un cilindro sin las tapas, vaya). Sin embargo en general no tiene porque ser así. Sí en cada punto del círculo la inclinación del segmento va cambiando el espacio total no va a ser ya un anillo. Un caso particular es cuando el último segmento está en la dirección opuesta al primero y se identifican ambos segmentos. En ese caso obtenemos la banda de Moëbius.

En las definiciones anteriores he sido muy impreciso. Normalmente se va a imponer que la fibra tenga alguna estructura extra. Por ejemplo sí F es un espacio vectorial vamos a tener un fibrado vectorial. Un ejemplo de éso sería el espacio vectorial tangente a una variedad. Sí la fibra es un grupo (normalmente un grupo de Lie) vamos a tener un fibrado principal. Hay un montón de estructuras extra que se pueden ir añadiendo al concepto de espacio fibrado, y, realmente, es una rama muy fecunda de la matemática, con múltiples aplicaciones a la física. Se puede, por ejemplo, formular una teoría gauge de grupo G cómo un fibrado principal con el mismo grupo. Los campos fermiónicos cargados bajo ese grupo formarían una fibrado vectorial asociado. ES un tema interesante y bonito, pero no es lo que me interesa tratar aquí. Hay libros de geometría y topología para físicos que hacen buenas y extensas introducciones al tema, cómo, por ejemplo, el de Nash y Shen o el Nakahara. También se pueden leer unas definiciones un poco mas formales en la wikipedia

Volviendo al tema de las compactificaciones, sí consideramos que el espacio base M^3 , que no hay dependencia en el tiempo, y por tanto sólo nos importa la parte espacial del espacio de Minkowsky en tres dimensiones, tenemos que la base es R^2. Si tenemos que el radio pueda variar de un punto a otro la fibra es S^1 . Hay que analizar ésto último con un poco mas de detalle si queremos ser rigurosos. Normalmente sólo se habla de espacios fibrados, al menos en geometria y topología diferencial, cuando son o bien fibrados vectoriales o bien principales. Posiblemente en física se suele ser mas descuidado y se admite como fibra “cualquier cosa” y cómo “fibrado” cualquier cosa que localmente es un producto, aunque globalmente no lo sea. Afortunadamente en este caso podemos ser “ortodoxos”. Podemos ver que en el plano complejo (que topológicamente es equivalente al plano real) el círculo son los puntos de la forma R.e^{i\alpha} siendo el producto de grupo la multiplicación de números complejos. Si R=1 tenemos el círculo unidad, pero, en general, para cualquier R (real) tenemos un círculo de ese radio. Por tanto podemos decir que nuestro fibrado es un fibrado principal. Cómo en la condición de fibrado nos preocupamos de que el espacio producto sea localmente un producto topológico, y en topología podemos cambiar libremente los tamaños, no pasa nada porque el radio varíe de un punto a otro.

Por supuesto toda esa consideración anterior sobre fibrados nos la podríamos haber ahorrado y dejar variar el radio del círculo sin mayores consideraciones. Realmente que algo sea un fibrado, en particular un fibrado principal, es útil porque se pueden crear espacios recubridores que caracterizan mediante clases topolóigicas (clases caracteristicas) los diversos espacios totales que se pueden formar con una base y una fibra dada. Dependiendo del tipo de grupo las clases serán de Stieffel-Wittney , de Chern o de pontryagin, y también éso puede ser útil en física de teorías gauge para tratar temas como los instantones y los solitones. Sí lo he incluido es porqué normalmente en la literatura física se trata el tema de forma muy descuidada y me parecía interesante dar algunas explicaciones al respecto.

Realmente el asunto del radio del círculo de la compactificación es un asunto delicado, incluso sí no nos planteamos que varíe en el espacio. En la teoría de Kaluza-Klein es un valor que viene dado y no está determinado por nada dentro de la propia teoría. Sin embargo las cantidades observables en el espacio ordinarios sí van a depender del radio de ése círculo. Por ejemplo, la constante gravitatoria en cuatro dimensiones estará relacionada con la de cinco por la relación \lambda_4= \frac{\lambda_5}{2\pi R} y los valores de las copias K-K de una partícula van a tener masas m_n=\frac{n}{R} . También la constante electromagnética va a depender del radio de ese círculo, y, en general, prácticamente todo ¡Y nada fija el valor de ése círculo!.

Durante bastante tiempo en la teoría de cuerdas nadie se preocupó demasiado del asunto. La primera persona, que yo sepa, que primero insistió en que había que ocuparse de ver cómo debería haber algo que fijara el tamaño de ése círculo fue un famoso crítico de la teoría de cuerdas, Lee Smollin. En terminología de cuerdas el radio de ése círculo es un “móduli” y fijar el tamaño del círculo es “la estabilización del móduli”. El concepto de móduli lo introdujo Riemman, y, más o menos, viene a ser un parámetro, pero, desde luego, la historia es algo mas compleja que éso y la teoría de los moduli es muy rica, a la par que complicada, y no voy a entrar ahora a discutirla matemáticamente. En cualquier caso, usando “compactificaciones de flujo” se ha, más o menos, resuelto parcialmente el problema de la estabilización de los moduli en teoría de cuerdas, aunque al precio de introducir el landscape, pero bueno, ésa es otra historia. Un aspecto interesante es que en las compactificaciones tipo flux,el flujo que les da nombre es un flujo de unos campos antisimétricos (representables mediante formas diferenciales) que están en el espectro de la teoría de cuerdas que son unos análogos mas generales del campo electromagnéticos. Las fuentes de ésos campos van a ser D-branas. Sí uno considera el campo gravitatorio de una D-Brana va a obtener que el espacio-tiempo alrededor de la D-brana va a ser un “braneworld” a lo Randall-Sundrum, y va a estar “warped” (algo así cómo retorcido). Esos espacios warped ya no van a tener estructura de producto cartesiano, incluso aunque el valor de los moduli no varíe y, por tanto, tampoco va a ser una fibración cómo la que expliqué antes.

En la resolución habitual del problema de los móduli el valor del móduli, en éste caso de el radio del círculo, es la misma en todo el espacio-tiempo, aunque no es imposible buscar casos en que ésto no sea así. En general, en teoría de cuerdas, la historia es mas compleja y las compactificaciones tienen muchos moduli. Podemos entender intuitivamente que el móduli es un parámetro que nos indica cómo podemos modificar un espacio para que cambien algunos aspectos del mismo, pero sin afectar la estructura fundamental del mismo. En el caso del círculo el único moduli es el radio. En el caso del toro, que hay dos círculos, tenemos un moduli que seria el cociente del radio de los dos círculos (y que daría toros mas gordos y toros mas fínos) y otro algo más sutil de entender que no explicaré. En general, para una compactificacion típica de Calabi-Yau, de tres dimensiones complejas, el espacio de moduli es muy amplio, y, además, se descompone en dos partes: modulis de forma, y módulis de tamaño. La física en las 4 dimensiones va a depender de muchos aspectos de ésos Calabi-Yaus. Alguna va a depender propiedades independientes de los moduli, cómo por ejemplo el número de familias de partículas (que va a ser igual a la constante de Euler de el Calabi-Yau para la cuerda heterótica, y a los números de intersecciones de los ciclos de Calabi-Yaus en que se enrollan las D-branas en las cuerdas tipo II B, por sí tenéis curiosidad y sabéis más o menos de que hablo xD). Otras propiedades, por contra, sí van a depender de los móduli. Aparte de los moduli hay otro campo, el dilatón, que va determinar la fisica de las 4 dimensiones. Normalmente el valor del dilatón no varia en el espacio, pero hay compactifícaciones en las que sí (y en teoría F se combina con un axión formando el axio-dilatón, que es un fibrado elíptico y, por tanto, de manera natural varia).

Éso lleva a que uno debería plantearse que pudiera darse el caso de que la física en cuatro dimensiones pudiera depender del punto del espacio, y, si acaso, que variase en el tiempo. Hay limitaciones experimentales muy serias sobre las posibles variaciones de las propiedades (por ejemplo masa) partículas del modelo standard y sobre los valores de las variables de acoplo gauge y no parece que varíen en absoluto. Pero podría ser que la física mas allá del modelo standar sí lo hiciera. Cómo no conocemos física mas allá del modelo standard no tenemos noticias al respecto. Pero sería muy interesante especular con las implicaciones de que fuera variable. En ese caso las masas de las partículas no osbervadas, y las secciones eficaces de producciones de las mismas, podrían variar en el tiempo o el espacio. En realidad, dado que la tierra se mueve, sí solo varían en el espacio, desde el punto de vista de la tierra sería cómo si variasen en el espacio. Éso sí, las variaciones no serían totalmente al azar sino que estarían determinadas por la teoría de cuerdas y unas variaciones estarían correlacionadas con otras. Por otro lado sería natural que esas variaciones tuvieran algún tipo de estructura periódica. En ese caso podría ocurrir que una partícula, en un instante dado, tuviera una alta sección eficaz de producción, y apareciera cómo una desviación estadística en el LHC. Pero, según la tierra se mueve (o el tiempo avanza) su sección eficaz de producción bajaría y parecería haber sido una mera fluctuación estadística. El caso es que, sí es la física 4d, que depende del espacio-tiempo al ser la compactificación no constante en el mismo, si supieramos, más o menos, que compacticiación tenemos, podríamos saber que sí han aparecido unas fluctuaciones A y B entonces deberían aparecer otras, C y D, y que, luego, en otro momento volverán A y B.

Realmente el tema de las compactificaciones variables ha sido tratado en la literatura, pero de manera muy dispersa. En cosmomlogía Kolb, en 1986, consideró compactificacoines toroildales con radios variables, pero no se obtuvo nada útil (se puede ver una introduccion al tema en el capítulo de cosmologías en dimensiones extra del libro de Collins-Martin-Squires “particle physics and cosmology). Realmente es difícil dar en la literatura con algo al respecto. Unos autores, por ejemplo, han considerado algo parecido, en modelos con D-Branas, en las que la posición de unas D-branas varían de un punto a otro, y lo llaman “soft branas”. Un articulo reciente que trata el tema es Inhomogeneous compact extra dimensions. En todo caso ninguno de los artículos que he encontrado plantea el tema de la forma que lo he expuesto aquí, es decir, analizando las consecuencias para el LHC en forma de “partículas de Cheshire”, que, cómo el gato de Cheshire, aparecen y desaparecen cómo si fueran fluctuaciones estadísticas. Tengo muy perfilado un artículo en el que basándome en un modelo de intersecciones de D-branas en ciclos de Calabi-Yau, considerado cómo modelo genérico para predicciones de cara al LHC de éste tipo de escenarios de teoría de cuerdas, permito que el dilatón varíe en el espacio, y así obtener unas predicciones, también, genéricas de cómo podría variar el asunto. Realmente sería mas interesante ver sí alguno de los modelos propuestos para el famoso LHC bumb a 750 GeV, que apareció a 4.X sigmas, y luego se desvaneció, puede encuadrarse en una compactificación variable y ver sí esa fluctuación se puede haber ido a algún otro sítio (o sítios) en los que también darían alguna pequeña fluctuación observable y, en ése caso, se tendría una predicción basada en teoría de cuerdas para el LHC. Obviamente el asunto es muy complicado, y requiere manejar muchos aspectos de fenomenología, cómo encontrar el superpotencial, encontrar cómo se rompe la supersimetría por ese superpotencial, la masa de las partículas resultantes, y cómo esa masa depende de los móduli, y lo mismo para las secciones eficaces de las partículas con esas masas. Mucho me temo que, aunque conozco la materia, no tengo la soltura para obtener los cálculos detallados con demasiada presteza. Afortunadamente tengo ideas para otras cosas que requieren menos tecnicismos tan extensos :).

Tal vez es muy optimista pensar que las variaciones sean sustanciales en las distancias que pueda recorrer la tierra en el periodo de unas horas o incluso años. Tal vez haya fluctuaciones, pero sólo a muy gran escala. En ese caso habría también consecuencias posibles. En el escenario WIMP para la materia oscura normalmente ésta va a ser el LSP (partícula supersimétrica mas ligera). Pero sí la masa de esa partícula varía de una zona a otra del espacio, y esas partículas, o las que terminaron decayendo en esa partícula, se formaron muy al inicio del universo, entonces la partícula LSP (o en general, las que formen la materia oscura) podrían tener masas diferentes en diferentes zonas del universo. Éso sí, por diversos procesos se habrán podido ir mezclando unas con otras y, en el universo actual, habrá, en una zona dada, partículas de materia oscura que provengan de diversas zonas del universo y que, según ese esquema, tendrán diferentes masas para el mismo tipo de partícula. Cómo los experimentos actuales buscan una partícula que siempre va a tener la misma masa entonces es muy probable que fallen en su búsqueda, que, de hecho, es lo que está pasando. Obviamente hay muchos motivos por los que puede fallar esa búsqueda que no sea éste, pero quizás sería interesante plantearse sí hay modificaciones de los experimentos que puedan tener en cuenta escenarios de este tipo.

Hasta ahora todo lo que he escrito es bastante serio y relativamente ortodoxo. Voy ahora con la parte menos seria, que se me ha ocurrido al analizar lo anterior. Una de las cuestiones sobre la estabilización de los móduli es que habría que plantearse cómo el valor que tome en un punto va ser igual al que tenga en otro punto. He dicho que los moduli los van a fijar los flujos, pero no he dado todos los detalles. Un aspecto muy molesto en la literatura física es que cuando se habla de móduli muchas veces se dice que estos son campos escalares. De hecho los moduli no sólo aparecen en teoría de cuerdas sino en vacíos de teorías de campo supersimétricas, o en los espacios de móduli de los instantones de las teorías gauge, y, dado que en teoría de cuerdas también hay instantones, pues hay un moduli space de instantones (que suelen hacer contribuciones no perturbativas a los potenciales). Hay todas esas acepciones y no siempre se tiene muy claro de que habla el autor. En todo caso, así, en líneas generales, el esquema es entendible. El móduli, como digo, es un parámetro que indica las deformaciones de una estructura geométrica (o una familia de estructuras geométricas). Un toro es una estructura geométrica, pero un toro concreto tiene unos radios y ángulos entre los círculos determinados. Bien, las deformaciones que llevan un toro a otro están dados por los moduli. Un toro, por cierto, es también una estructura de Riemman, es decir, una variedad compleja de dimensión, compleja, uno. Al espacio de moduli del toro también puede dársele estructura de espacio complejo, aunque, en general, los espacios de móduli van a tener algún tipo de singularidad. Bien, éso es la matemática del asunto. En física, en general, lo que va a ocurrir es que vamos a tener una compactificación, en la que van a vivir una serie de campos. Se puede calcular (hay fórmulas relativamente tratables para ello) la dimensión del móduli space en términos de clases características y, en última instancia, de los números de Betti del espacio de la compactificación . Resulta que, en general, para cada móduli geométrico la teoría de cuerdas nos va a dar un campo escalar. Pues bien, los flujos lo que van a hacer va a ser generar un potencial para ése escalar y, se supone, el campos va a ir al mínimo de ése potencial y, de ese modo, queda fijado el moduli correspondiente.

Bien, entonces una vez que entendemos que el móduli va estar asociado al al valor del mínimo del potencial de un campo escalar ya podemos empezar a plantear mejor la cuestión de cómo podría de ser ése mínimo distinto de un punto a otro. El caso de un campo escalar que toma un valor de mínimo existe en física ¡es el bosón de Higgs! Se supone que el bosón de Higgs estaba en un máximo inestable y, en un momento dado, en algún punto del espacio, cayó a un valor concreto de mínimo. Había un continuo valores posibles para el mínimo. Cómo el Higgs se puede mover en las 3 dimensiones espaciales se supone que una vez tomó el mínimo en un punto transmitió el valor al resto de puntos de las 3 dimensiones (una esfera de nuevo vacío expandiéndose a la velocidad de la luz).

Ahora bien, sí un campo escalar de moduli tuviera, por lo que fuese, varios posibles para el mínimo (hay potenciales con mas de un mínimo, vaya) y en un punto del espacio toma valor en uno de esos mínimos ¿puede transmitir ese valor a los puntos colindantes, y, en última instancia, a todo el espacio? Dado que el campo vive sólo en las dimensiones extra no puede (o no es obvio que pueda) transmitir ese valor a través del espacio 3d ordinario.

Pues bien, ahí es dónde entra el tema “poco serio”, puras especulaciones mías un tanto descabelladas posiblemente, que voy exponer ahora. En las imágenes mentales de Kaluza-Klein se pinta, cómo ya dije, que la dimensión extra es una “manguera muy estrecha” sobre un plano. Es decir, se supone que los círculos de cada S^1 toman la misma orientación en todos los puntos del espacio y forman un cilindro. Ahora bien ¿En que dirección? Es decir, podemos coger una línea paralela, por ejemplo,al eje x, y adosar un cilindro a cada una de esas líneas. Pero también podrían estar adosadas al eje y. O, otra posibilidad, es que la orientación de los círculos fuera variando y se cerrasen sobre un círculo dibujado en el plano.

KKembeding

No tengo claro sí habría alguna consecuencia para la física “del plano” que dependiera de la orientación de los cilindros (aparentemente no, porque en relatividad general hablamos de geometría intrínseca, que no debería depender de ese aspecto, pero no estoy 100% seguro), pero, sin entrar en éso, ya tenemos un posible problema. Sí, cómo he razonado, parece plausible que el valor del móduli (el radio del círculo) surja de que un campo escalar, que vive en uno de los círculos, tome un valor de un potencial, que depende de la geometría interna de ése círculo, y ese potencial tiene varios mínimos posibles, entonces podría transmitir ese valor a los círculos de ese mismo cilindro, pero no está claro que dos cilindros paralelos se puedan comunicar entre si, y, por tanto, que dos cilindros paralelos deban tener el mismo valor del radio. En el caso de que los círculos se cierren formando un toro el asunto es aún peor pues cada zona del espacio podría tener su propio valor. Mas grave sería que cada círculo tuviera una orientación al azar, o que se agruparan por domínios, al estilo de los spines de los imanes.

Entonces una cuestión natural es ¿Hay varios valores posibles para los mínimos? Bueno, el valor del potencial lo fijan los flujos, y para ésos sí hay muchos valores posibles. Los flujos tienen valores cuantizados, pero hay una enorme cantidad de valores posibles. Hay un valor arquetípico 10^500. Realmente ese es el problema del landscape, que hay muchos valores posibles, compatibles con el modelo standard (o con la constantes cosmológica). Se supone que, de hecho, hay saltos posibles de unos valores a otros de manera espontánea y que éso resolvería el problema de la constante cosmológica. Por supuesto se supone que los flujos son los mismos en cada punto del espacio-tiempo, dentro de un mismo espacio del multiverso, pero, igualmente, podría ser que hubiera una dependencia del flujo de un punto a otro (aunque ésto lo tengo menos claro).

Otro aspecto muy curioso es el siguiente. Realmente un círculo requiere dos dimensiones. Si decimos que estamos compactificando a un círculo tenemos que asumir que hay dos dimensiones extra. Si, cómo hacemos en los dibujos, pintamos el círculo encima de una recta entonces tendremos que para dos rectas paralalas que estén a una distancia menor que el radio del círculo los cilindros de cada recta se solaparían unos con otros. Si consideramos el caso de “dos dimensiones extra”, y una compacticiación en un toro, para cada circulo deberíamos tener dos dimensiones, dando lugar a 4. En realidad la cosa es un poco más compleja, porque podría tal vez haber alguna forma de acomodar ese toro de alguna manera que no requiera cuatro dimensiones. Por “acomodar” habría que especificar tecnicamente lo que queremos decir. Matemáticamente éso nos lleva a dos conceptos posibles que plasman la idea, la inmersión y el embedimiento (embbeding) cuyos detalles no voy a dar. El concepto mas fructífero y adecuado posiblemenente el embeding, y hay un teorema que nos dice que una variedad suave de dimensión n se puede, en el peor de los casos, embeber en un espacio R^{2n + 1} . A priori ésto no es un problema, pero, sí asumimos que estamos en un mundo que viene de la teoría de cuerdas, y éstas tienen originalmente 10 dimensiones, y se termina con 4 dimensiones extensas y 6 compactificadas, uno podría pensar que la variedad que está compactíficada debería también ser embebible en 6 dimensiones. Pero, claro, en todo este tiempo hemos dicho que las compactificaciones tienen como base el espacio de Minkowsky, pero, obviamente, éso no es el mundo real, que es un mundo curvo, por aquello de que cualquier masa curva el espacio. Incluso a gran escala, dónde podemos suavizar y considerar irrelevantes las fluctuaciones de curvatura de cuerpos astrofísicos, tenemos que, en su conjunto, el espacio es mas bien una esfera en expansión, y, si damos por bueno que hay una constante cosmológica, es, concretamente, un espacio de de Sitter. Y ése espacio no se puede embeber en un R^4 asi que ya vamos cortos de dimensiones. Por supuesto todo ésto que he dicho es irrelevante porque, fuera de las dimensiones de la teoría de cuerdas, no tiene sentido hablar de geometría y no deberíamos preocuparnos de en que embeber los espacios internos. Es obvio sí uno reflexiona sobre ello, pero no del todo inmediato, y, desde luego, no es algo que uno vaya a ver discutido en ningún libro serio, pero, tal cómo yo lo veo, ésa es una función de los blogs, poder discutir también cuestiones curiosas, y naturales, aunque no sean del todo serias ;-).

Por cierto, aunque a esto de los embeding y las imágenes mentales lo he presentado con un tono mas anecdotico que serio lo cierto es que no es un asunto trivial. En el libro que he mencionado, Particle Physics and Cosmology , los autores mencionan que el mecanismo de Kaluza tiene un pequeño problema debido a que la curvatura gaussiana de un cilindro es nula. Es fácil de entender porque es ésto. La curvatura gaussiana Cg en un punto es el producto de la curvatura máxima y la mínima de entre las curvas embebidas en la superficie Cg=Cmax*Cmin. En un cilindro la curvatura máxima es la del círculo que pasa por el punto, y la mínima la de la recta que pasa por ese punto. Cómo la curvatura de una recta es 0, Cg=Ccírculo*0=0. Por supeusto ésto da carta de naturaleza a que hay que “tomarse en serio” la imagen mental del cilindro, pero, en ése caso tenemos que tomarnos también en serio las consideraciones sobre la orientación de ésos cilindros, o porqué cilindros y no toros, etc, etc.

En fin, es una entrada larga, y dura en muchos aspectos, espero que se haya entendido algo. Tengo previsto escribir pronto sobre las teorías unificadas de Einstein, pero cómo estas incluyen Kaluza-Klein, me pareció oportuno comentar estas reflexiones exóticas sobre ese tema que se me han ido ocurriendo este año. De hecho, la parte de la física mas allá del modelo standard que pueda ser no constante en el espacio y tiempo, posiblemente sea mucho mas interesante, dentro de la ortodoxia cuerdista actual, que las teorías de unificación de Einstein, que es algo que he estudiado sólo por influencia de la serie Genius 🙂

Einstein y la mecánica cuántica: mas allá de dios y los dados

julio 20, 2017

En el post anterior anunciaba que había leído el libro que se muestra en la imagen Einstein’s Unification, escrito por jeroen van dongen, y que pensaba escribir sobre el mismo, y sobre parte de lo que he sacado de ése libro va esta entrada. Aunque el libro analiza las teorías de unificación, a lo largo del mismo, y, sobre todo, en el capítulo final da una visión de la relación de Einstien con la cuántica, que es de un interés independiente.

Aunque todo el mundo reconoce a Einstien cómo un genio, posiblemente el mejor físico de la historia después de Newton. Sin embargo se tiene la idea mayoritaria de que tuvo un “año mirabilis”, el 1905, dónde publicó las ideas de la relatividad especial, incluyendo la equivalencia entre masa y energía, el efecto fotoeléctrico y el movimiento browniano, que luego pasó 10 años hasta crear su gran logro, la relatividad general, pero no demasiadas cosas más, y que, a partir de ahí, su aversión a la mecánica cuántica le alejó de la investigación puntera y que se dedicó a su cruzada anti cuántica, sobre todo en sus debates con Bohr, ejemplificada sobre todo en su trabajo con Podolsky y Rosen, la paradoja EPR, y, por otro lado, en una búsqueda inútil de una teoría unificada, abocada totalmente al fracaso desde el principio, y sin ninguna influencia posterior.

Pues bien, viendo la serie, leyendo éste libro, indagando referencias (véase por ejemplo el muy interesante artículo Del efecto fotoeléctrico (1905) a la condensación de Bose-Einstein (1925).Un curioso ejemplo de simbiosis en el desarrollo de teorías físicas. ) y reflexionando un poco sobre cosas que uno estudia en la carrera se da cuenta de que esa percepción es bastante errónea.

Lo primero es deshacer un mito. Einstien nunca dijo la frase “Dios no juega a los dados”. La frase exacta, extraida de una carta a Max Born, es: “La mecánica cuántica es ciertamente impresionante. Pero una voz interior
me dice que no constituye aún la última palabra. La teoría explica muchas cosas,
pero realmente no nos acerca más al secreto de “El Viejo” [sic]. Yo, en cualquier
caso, estoy convencido de que Él no juega a los dados.”

ES similar, pero difiere en un matiz muy importante. Podría pensarse que “el viejo” es una entidad divina, sí uno tiene tendencias religiosas, pero también podría pensarse que es una palabra para referirse a la naturaleza, así, en un sentido amplio, de el mundo natural y sus leyes físicas, y, en ése caso, no tendría connotaciones religiosas y no sería adecuado traducirlo por “dios”. Por todo lo que se sabe de Einstein no era una persona particularmente religiosa, mas bien era agnóstico o ateo, al menos la mayor parte de su vida.

Dejando aparte esa curiosidad hay aspectos mucho mas interesantes sobre la relación de Einstein con la cuántica. Para empezar Einstein hizo contribuciones fundamentales a la cuántica. Su explicación, en 1905, de la ley de Planck, relacionada con el efecto fotoeléctrico (aunque en el artículo original analizaba la ley de Wein y sólo cómo un ejemplo trataba el efecto fotoeléctrico) y que le acabaría valiendo el nobel, fue el primer paso hacia la idea cuántica. Mas adelante, en 1916,un año después de elaborada la relatividad general, abundó al respecto y presentó la idea del fotón. La forma en que se expone ahora el efecto fotoeléctrico en los capítulos de física moderna de la enseñanza secundaria dan a entender que se hizo todo a la vez, y con una matemática muy elemental, pero claramente no fué así.

También en su modelo del sólido en 1907, posteriormente perfeccionado por Debye, introdujo vibraciones atómicas cuantizadas, y, mediante esa teoría dió una explicación al calor específico de los sólidos en la que éste no dependía unicamente de los electones, que daban una contribución proporcional a la temperatura T, sino una debida a los nucleos, y que daban una proporcional a T^3 .

Mas adelante, en 1909, introdujo el concepto de la dualidad onda-corpúsculo. Esa idea de la dualidad onda corpúsculo influyó para que de Broglie creara su teoría de las ondas de materia. Realmente de Broglie tuvo otras influencias, la de la teoría cuántica primitiva, con el modelo atómico de Bohr y las reglas de cuantización (osea, las únicas órbitas posibles de e un electrón son las que tienen una circunferencia que es un múltiplo entero de la constante de Planck, y posteriores generalizaciones de Sommerfeld usando variables de acción-ángulo). La idea que movió a de Broglie es que esos valores cuantizados se debían a que debía haber una onda estacionaria, y, por tanto, tenía valores discretos de la energía, aunque no llegó a dar una formaexacta de la ecuación de onda, éso vendría mas tarde. Hay que decir que el propio Einstein contribuyó en cierta manera a la idea de las reglas de cuantización y hay gente de la época que habló con él que dice que es bastante probable que él mismo creara un modelo atómico equivalente al de Bohr, aunque no llegaría a publicarlo.

Recordemos, y ésto es importante, que toda esta primera mecánica cuántica, anterior a la ecuación de Schröedinger, y a la formulación matricial de Heissenberg, no era probabilística. Recordemos también que la susodicha ecuación, y las ideas de Heissenberg, son de 1925, es decir, 10 años posteriores a la relatividad general. Obviamente Einstein no podía tener ningún problema en esa época con una interpretación probabilística que ni siquiera existía, y que, de hecho, es del 1926, un año posterior a la ecuación de Schröedinger. Curiosamente sí a ello vamos, el primero que introdujo conceptos probabilísticos relacionados con la teoría cuántica fué ¡el propio Einstein!. En un artículo escrito en la época entre 1915 y 1925 (que ya vamos viendo que fue una época muy productiva, nada que ver con la idea de que después de la relatividad general Einstien no hizo nada especialmente útil) publicó una nueva deducción de la ley de Planck, de una manera mucho mas elaborada y cercana a las leyes de la mecánica estadística de Boltzman. Para hacerlo tuvo que introducir probabilidades en los ángulos de emisión de los fotones, algo que no le gustaba, pero que funcionaba.

Pero, vamos al grano, sí esa primera mecánica cuántica no era probabilística, y él mismo contribuyó a ella conceptualmente de forma muy decisiva ¿Por qué los físicos cuánticos de esa época ya no le contaban cómo “uno de los suyos”? La clave es que el desarrollo de la cuántica no es cómo se pinta en (al menos la mayoría de) los cursos de introducción a la misma. Ahí se introduce, tras una exposición rápida y somera de las ideas de la cuántica antigua, el formalismo de función de onda, los operadores de posición y momento (cuya expresión se obtiene de manera heurística a partir del comportamiento de un paquete de ondas), el hamiltoniano en términos de ésos operadores, la teoría de perturbaciones, que permite obtener aspectos finos de los espectros cuánticos, y todos los resultados se obtienen en ese formalismo, incluyendo cosas cómo las relaciones de incertidumbre de Heissemberg (relacionadas con la no conmutación de los operadores [\hat{x}, \hat {p}]=i \hbar ).

Pero la realidad histórica es muy diferente. Prácticamente todos los resultados sobre espectros cuánticos se obtuvieron antes de 1925 de forma experimental y se fueron obteniendo reglas ad hoc que los explicaban. Incluso algo cómo el principio de exclusión de Pauli (dos partículas cuánticas de spin semientero no pueden estar en un estado con los mismos números cuánticos) se obtuvo de forma experimental antes del formalismo de función de onda. Es curioso porque en éste formalismo, introduciendo los espinores de pauli y la teoría del spin, se deduce de manera fundamental, pero la idea inicial de la misma fué para explicar experimentos.

Incluso la formulación matricial de Heissenberg tuvo una componente muy experimental, algo conocido cómo el principio de combinación de Ritz para la adición de frecuencias de luz emitidas cuando un electrón de cae de un estado na aun estado k, combinado con una descomposición en modos de Fourier de la teoría clásica del movimiento de un electrón alrededor de un átomo de acuerdo a ésta regla.Un aspecto clave, a nivel conceptual, es que Hissenberg adjudica matrices (operadores lineales sobre un espacio de Hilbert) y los relaciona, sí son autoadjuntos, con cantidades observables, lo que se conoce cómo el principio de correspondencia, pero es algo que se postula, sin ninguna justificación obvia.

Pues bien, es esta característica de leyes inmediatas, sin gran justificación conceptual, postuladas ad hoc para explicar resultados experimentales, lo que molestaba a Einstein. Él, en su momento, había tenido simpatía por la física experimental y los laboratorios. Pero, por una lado los laboratorios se iban haciendo cada vez mas sofisticados, y había que especializarse mucho para poder hacer algo útil en uno, y, más importante, en su desarrollo de la relatividad general inicialmente había tenido un balance entre influencias experimentales, otras conceptuales y otras puramente matemáticas. En las diversas etapas de desarrollo algunas ideas de contenido muy físico y experimental le habían llevado a ecuaciones equivocadas, y solamente cuando se guió por la elegancia matemática, el principio de covarianza básicamente, obtuvo las ecuaciones correctas. Éso, y posiblemente un rechazo a los físicos nazis que tanto le importunaban, muy cerraditos en la experimentación mas básica y sin nada de imaginación ni sofisticación matemática o conceptual, le hacia sentirse a disgusto con esas ideas. De hecho, al menos según la serie, a Einstein siempre la motivaba saber la explicación última desde el principio de su carrera. En ése sentido es natural que se sintiera a disgusto con la cuántica primitiva pre Schróedinger. La mecánica matricial, aunque algo mas formal, tampoco le parecía una teoría completa porque postulaba la cuantización, pero no la deducía, y él quería una teoría en que la cuantización se dedujera de algo mas fundamental. Otra incomodidad con esa formulación es mas anecdótica, pero reveladora, y merece la pena comentarla.

En la enseñanza actual apenas se ve la formulación matricial. Se explica que los operadores, en una base dada del espacio de Hilbert, van a ser matrices, de dimensión infinita. Obviamente cómo en general el producto de dos matrices no es conmutativo dos operadores en general no van a conmutar. Pero el caso es que casi nunca se ven esos operadores cómo matrices infinitas, Lo que se ve es que son operadores diferenciales (caso del momento) o de mmultiplicación por una variable (caso de la posición) actuando sobre la función de onda, que es éso, una función matemática. Esa introducción heurística de los operadores posición y momento es demasiado liviana para el gusto de Einstien que querría obtener el principio de correspondencia de una forma mas fundamental. Y sí, sabemos que la función de onda puede ser escrita cómo combinación lineal de autofunciones del operador hamiltoniano. Siendo el hamiltoniano un operador autoadjunto la teoría de Sturm-Liouville nos dice que (para espectro discreto) va a tener una serie de autofunciones que son base de un espacio de Hilbert. Mas abstractamente se puede usar el análisis funcional y ver que la teoría de Sturm-Liouville es el caso de un operador compacto y éstos tienen espectro discreto y sus autofunciones forman un conjunto completo (teorema de representación de Riesz, sí no me falla la memoria). en realidad, sí somos estrictos, la cosa es mas complicada porque el operador hamiltoniano no es compacto, y tenemos que usar la teoria de espacios de Hilbert equipados y demás).

Pero, realmente, muchas veces tenemos una expresión explícita para la ecuación de onda y podemos olvidarnos de todos esos “tecnicismos” y no se piensa demasiado en los operadores cómo matrices infinitas. Sin embargo, en la primera versión de Heismberg sí se usaban. Y ahí está lo que me llama la atención. La métrica de la relatividad general es “una matriz”. El tensor de Ricci “Es una matriz” y el propio tensor de Einstein es “una matriz”. Es decir, sí fijamos un sistema de referencia coordenado éstos tensores son matrices. El caso es que en los sistemas actuales el álgebra matricial se enseña desde secundaria, y en primero de carrera hay un curso de álgebra lineal, y cualquier estudiante de ciencias se maneja perfectamente con matrices. De hecho dónde muchos tienen dificultades es con el concepto de tensor, en cualquiera de sus definiciones. En época de Einstien, deduzco, el cálculo tensorial de Levi-Civitta no debía hacer uso de notación matricial porqué en un momento dado describe la multiplicación de matrices cómo “unas reglas de brujería” y, por lo visto, hay evidencias de que, al menos en algún momento temprano de la nueva mecánica cuántica, manejó incorrectamente esas matemáticas.

Pero vale, entonces Einstein estaba incomodo con la cuántica primitiva porque era demasiado “experimental” y “vulgar”. Pero la nueva mecánica cuántica sí era una teoría muy elegante y muy formalmente clara, con unos principios muy bien establecidos, pero aún así no le gustaba. Se suele tener la idea de que su gran disconformidad provenía de la probabilidad, pero, como vamos a ir viendo, el asunto es bastante mas complejo.

Recordemos que, incluso antes de la introducción de la interpretación probabilística, hay un aspecto que parece irrelevante: la función de onda de un sistema de n partículas depende de las coordenadas de esas n partículas \phi (\vec{r_1}, \vec{r_2},...,\vec{r_n}). ¿Obvio verdad? ¿Que problema puede haber con ésto? Pues, en realidad, sí lo hay, al menos desde la perspectiva de Einstein. La cuestión es que Einstein, más o menos,consideraba aceptabable la idea de “ondas de materia” de de Broglie, que, más o menos, es igual en la teoría de Schröedinger, al menos en la interpretación no probabilística (osea, una especie de densidad de carga). De hecho su propio principio de dualidad onda-corpúsculo queda bien plasmado en esa idea. Pero para que éso sea acorde a su idea física cada partícula debe tener su propia onda, no puede ser que haya una única función de onda para todas las partículas porque éso arruina buena parte de la interpretación física que él apoya (de hecho la famosa paradoja EPR y el realismo posiblemente tengan mas que ver con ésto que con la probabilidad en sí).

De hecho la probabilidad sólo se manifiesta en la paradoja EPR por culpa de la función de onda conjunta. Al producirse el “colapso” de la función de onda esa función de onda conjunta da lugar a la “acción fantasmal a distancia” (una partícula transfiere – o éso parece, aunque no es así realmente- información a otra situada a una distancia arbitraria) que va en contra del principio de realismo, y, en última instancia “en espíritu” (aunque no en forma) contra la idea de Einstein de causalidad, relacionada con la relatividad especial. Posiblemente sí la interpretación probabilística de Born se aplicara a una función de onda de una única partícula yo creo (pero obviamente no tengo manera de saberlo xD) que Einstein podría aceptar mas o menos la idea. El problema es que al tener una función de onda de dos o más partículas parece cómo sí esas partículas pudieran comunicarse entre sí a una distancia arbitraria. Y digo “parece” porque creo que Einstein no comprendía del todo bien el entrelazamiento cuántico. De hecho yo mismo, influenciado por la formación que he tenido, mucho mas reciente que la suya, he llegado a descubrir que tenía una visión muy pobre e incorrecta del mismo y que, definitivamente (cómo he visto sugerir a Sean Carrol en su facebook) hace falta un libro de texto que trate el tema con mas rigor y así se evitará que la gente tenga ideas obvias e inmediatas, pero falsas, respecto a las implicaciones y posibilidades del entrelazamiento, pero ésa es otra historia, claro. Quizás con los desarrollos modernos en el entendimiento del entrelazamiento Einstein podría sentirse algo más a gusto con esa idea de la función de onda conjunta, pero diría que, incluso a´si no del todo.

Por cierto, la función de onda debe ser una función compleja (de variable real). En la gran mayoría de problemas que se resuelven en la carrera siempre se va a obtener una solución con una función real, salvo en el caso de los procesos de colisión, dónde es una onda compleja, pero éso incluso en física clásica se usa a modo “formal” y por tanto pasa un poco desapercibido, pero, realmente, que la función deba ser compleja tiene una importancia fundamental y posiblemente arruine un poco la idea mas “física” de la interpretación de “ondas de materia” de de Broglie y Schröedinger con la que comulgaba Einstein, pero éso es un tema sobre el que no he leído nada.

Bien, ésto es lo que comenta jeroen van dongen al respecto, pero, una vez lo leí me surgieron preguntas. Por ejemplo, en la carrera se estudia la estadística cuántica de partículas bosónicas o “estadística de Bose-Einstein”. Ahí se explica que la función de onda de varias partículas debe ser simétrica bajo el intercambio de las coordenadas de esas partículas. Pero acabo de explicar que Einstein no aceptaba la idea de una función de onda que agrupara partículas entonces ¿Cómo es que puede estar el nombre de Einstein en una estadística cuántica, cuando a él no le gusta la cuántica en general, ni la base microscópica de esa estadística en particular?. La respuesta está en el artículo de Luis Navarro Veguillas que enlacé antes. Procedo a pegar (parte de) la explicación que ahí viene:

El joven físico bengalí Satyendranath Bose (1894-1974) publicó en 1924 un
trabajo –traducido por Einstein al alemán y recomendado para su urgente publicación–
en el que, por primera vez, se deducía la fórmula de Planck de una forma
verdaderamente independiente del electromagnetismo clásico28. A cambio se hacía
pleno uso del concepto de fotón y de la hipótesis de que sus estados no estaban
asociados a los puntos del espacio de las fases, sino a regiones de éste –celdas– de
volumen finito, de valor h
3
.
La deducción pasaba por una original forma de distribuir los fotones entre las
celdas, para calcular la probabilidad de un estado. Introducida dicha probabilidad en el
principio de Boltzmann se obtenía la entropía de la radiación, de la que se deducía sin
dificultad –tras la imposición de la condición de equilibrio como estado de máxima
entropía– la fórmula de Planck para la radiación. Hoy diríamos que la idea de Bose
consistió simplemente en tratar a los fotones como partículas indistinguibles. Pero la
terminología no sólo resulta anacrónica, sino que conduce a una idea falsa del contexto
en el que se produjo la aportación de Bose quien, según propia confesión, nunca fue
consciente de que su tratamiento representara una innovación, pues siempre pensó que
actuaba plenamente dentro de la más pura ortodoxia de Boltzmann:
29

Entonces ya se ve que los problemas de Einstein con la cuántica son mas fundamentales que la probabilidad. Le parecía que la cuántica una idea poco fundamentada. Sí, tenía unos postulados, y a partir de ahí era consistente, pero él buscaba una teoría mas fundamental. Curiosamente, según he intentado hacer ver, quizás la parte grave no es que esa teoría tuviera que ser determinista. Por ejemplo, en un momento dado, a Einstien le exponen una teoría de variables ocultas, osea, que hay variables extra que hacen que, sí se supieran esas variables, la cuántica fuera determinista, pero no les hace demasiado caso, y, de hecho, no le gustan y no ven que cumplan los requisitos que él busca en su teoría mas fundamental.

Esa teoría debería permitirle obtener, por ejemplo, el valor de la constante de Planck, pero también debería explicar porque debería haber unos operadores ( y el principio de correspondencia entre observables clásicos y operadores) y el resto de los postulados. En una parte del libro comenta que tenía algunas ideas de por dónde debería ir el asunto. Por ejemplo van dongen cita que Einstein pensaba que debía obtener mucho de las ecuaciones diferenciales. Se centra en parte en los solitones, pero otro pasaje de Einstien habla de que posiblemente “en las complejidades de las soluciones de las ecuaciones diferenciales no lineales debe haber margen para interpretaciones probabilísticas” La frase no es exactamente así y, cuando la leí no reflexioné demasiado sobre ella. Obviamente, a ojos modernos, éso me sonaba a la teoría del caos determinista, pero el caso es que en la época de Einstein aún no existía esa teoría, aunque posiblemente el problema de los tres cuerpos y los resultados de Poincaré al respecto, que contenían el germen de la teoría del caos, sí eran conocidos por Einstein, pero no explicaré por ahora nada más al respecto. Diré, éso sí, que quizás el programa de Einstein podría reformularse de una manera mas clara en términos de dualidades, aunque, éso sí, no creo que ni aún así pudiera realizarse, aunque es divertido pensar en como podría intentar hacerse.

Planeo hacer otra entrada, en parte continuación de ésta, dónde me extenderé sobre las teorías de unificación. Realmente leyendo he descubierto cosas muy sorprendentes porque, por ejemplo, hubo gente (Weyl y Klein) que intentó obtener una ecuación, que debería ser lo que luego fué la ecuación de Schröedinger, pero inspirados en una quinta dimensión, y las ideas de Kaluza, y de los propios Weyl y Klein, en las que también trabajó Einstein. Aparte de éso también planeo hablar más sobre la relación de Einstein con la cuántica, pero usando conceptos relacionados con esas teorías de unificación. A ver sí no tardo mucho en tenerla lista 😉

Genius, una serie sobre Einstein

julio 6, 2017

Hace muy poco national geographic ha emitido una serie sobre la figura de Einstein titulada genious.

Einstein de joven.

La serie está muy bien desde diversos puntos de vista y, la verdad, hacía falta porque, hasta dónde recuerdo, hacía ya mucho tiempo que no había una serie o película sobre la figura de Einstein. La última, y de hecho la única, que recuerdo la ví antes de empezar la carrera de físicas, así que no pude apreciar ni una pequeña fracción de los detalles que he podido apreciar en ésta y así he podido resolver algunas dudas que me habían ido surgiendo.

Una duda, que imagino mucha gente que haya estudiado físicas y conozca por encima la vida de Einstein tendrá, es todo el asunto de la oficina de patentes. Es bien sabido que el pobre Einstein no pudo obtener, por desavenencias con un destacado profesor de la universidad dónde estudió, una plaza para hacer un doctorado tras terminar sus estudios de grado, y que tuvo que trabajar en una oficina de patentes. De manera muy sorprendente mientras estaba en esa oficina logró publicar una serie de artículos revolucionarios, incluyendo el de la teoría especial de la relatividad.

Se ha intentando vender la idea, mitad “romántica” mitad “motivacional” de que sí alguien es realmente bueno va a poder conseguir el éxito independientemente de las adversidades, pero éso, sencillamente, no se corresponde con la realidad. Además, esa superchería neoliberal está orientada hacia los emperderores (emprendedores) que intentan crear una pequeña empresa desde el “garaje” y a partir de ahí hacerse poco a poco millonario, lo cuál es algo que ocasionalmente funciona (microsoft, apple, las empresas de Elon Musk) pero en la mayoría de los casos no. Y, en particular, es sencillamente inviable en investigación porque, porque ¡no puedes montar una starup de investigación fundamental!.

Entonces ¿cómo es que Einstein logró esos logros en esa circunstancia? Es más, para complicar aún mas el asunto resulta que en ese momento acababa de tener un hijo, que ya se sabe que quitan un montón de tiempo. Éso podría llevar a pensar que, en realidad, buena parte de esas teorías las podría haber hecho la esposa de Einstein, física cómo él, y, dada la época, seguramente bastante inteligente porque difícilmente habría logrado apoyo de su familia y el éxito en los estudios sólo por que tuviera vocación. El caso es que el hijo era de ambos, y Einstein tenía que trabajar así que tampoco iba a tener mucho tiempo ¿no?

Bien, todo está mas o menos relacionado. Para empezar en la serie muestran, y es muy creíble, que Einstein no buscó un empleo regular nada más acabar los estudios. Tenía dinero de su familia y podía hacer trabajos ocasionales dando clases (de ese modo conoció a la gente del club Olimpia, que tendrían una cierta influencia en su vida intelectual de ese momento). Su idea era seguir así hasta encontrar una plaza en alguna universidad, pero tuvo el problema de que Mileva se quedó embarazada y se vió obligado a buscar un trabajo a jornada completa. En la serie reflejan muy bien la repulsa y desesperación que esa decisión suponía para él, cómo lo sería para cualquier físico auténtico que se viera en similar circunstancia. El caso es que aunque el primer hijo de Mileva falleció tuvieron un segundo (la gente no aprecia realmente lo que han cambiado la sociedad las medidas profilácticas, y lo que aún la va a seguir cambiando). Afortunadamente para ellos la familia de Mileva siempre había apoyado el deseo de su hija de ser científica y la madre se desplazó al domicilio de la familia para ocuparse del bebé y así dejar tiempo a que Mileva pudiera dedicarse a investigar, aunque no estuviera en una plaza universitaria, que también era su deseo, no sólo Einstein tuvo que sufrir por no poder investigar. Por cierto, hay estudios que demuestran que las hembras de mucho mamíferos ven aumentada su capacidad intelectual, en algunos campos, al tener hijos, y todo apunta a que podría pasar algo similar en las hembras humanas,lo cuál le habría venido bien a Mileva.

Mileva Maric, con Einstien al fondo.

Entonces parece que todo apuntaría a que Mileva podría ser la verdadera creadora de la relatividad especial y el resto de trabajos de 1905, el año mirábilils. Pero, por otro lado, hay mucha evidencia documentada de que Einstein había meditado durante bastante tiempo sobre las ideas que surgieron ese año, así que, en todo caso, Mileva no podría nunca tener todo el mérito. Pero, sí Esintein no podía investigar por falta de tiempo ¿entonces qué?. Ahí es dónde la serie da respuestas. Para empezar Einstein obtuvo ese puesto vía recomendaciones y tenía una ligera manga ancha (pero no demasiado) para intentar hacer algo en la oficina sin que le despidieran, aunque, la verdad, muy poco. Tenía que dedicar las noches y fines de semana, y, aún así, no le bastaba. Tras haber, pese a todo, logrado publicar un primer artículo, pidió ayuda a quien le había conseguido el puesto y logró que un compañero y amigo de la carrera entrara a trabajar en la oficina (algo que le venía bien ya que también se había casado) y le ayudase con su trabajo en la oficina de patentes, dándole así mas tiempo a trabajar en sus ideas dentro de la propia oficina. Aparte, siendo bueno en matemáticas, ése amigo también le ayudaba con los cálculos.

Pese a todo en la serie muestran cómo Einstein pide ayuda a Mileva a que le ayude a demostrar los detalles matemáticos de algunas de las ideas, cuando ya tenía del todo clara la solución a nivel conceptual. Mas adelante muestran cómo Mileva le reprocha que Einstein mencionara en un artículo la ayuda de su amigo, pero no dijera nada de ella. Albert aducía que se daba por sobreentendio que tenían un proyecto común y que, por supuesto, valoraba mucho su contribución, pero, la verdad, tal cuál se muestra queda fatal. Para contrastar en la serie muestran el caso del matrimonio Curie, dónde Pierre rechaza el premio nobel sino incluyen en el mismo a su esposa. Aparte de por el contraste la presencia de los Curie es relevante científicamente, pués la prueba del famoso E=mc^2 fue ilustrada por primera vez por el decaimiento radiactivo que descubrieron los Curie, y por la posterior relación de Marie Curie con la familia Einstein.

En cualquier caso eran cálculos bastante sencillos casi todos los que estaban involucrados en las teorías de esa época y una investigación mas exigente, cómo la de la relatividad general, hubiera sido absolutamente inviable en semejantes condiciones.

Otro aspecto que tratan muy bien es el tema de la ciencia Alemana en ese momento. Ahí juega un papel importante Lienard (creo que es el del potencial de lienard en electromagnetismo, pero no estoy seguro) que terminaría siendo un científico al servicio del nazismo y que defendía una ciencia muy limitada de miras, totalmente opuesta a la de Einstein. Einstein nunca se sintió Alemán y, de hecho, estudió la carrera en Suiza, mucho mas liberal (en sentido social e intelectual) que Alemania. En la serie muestran cómo muchos de los grandes científicos huyeron de Alemania en los albores del gobierno de Hitler, bien porque eran judios y les echaban de sus plazas, bien porque no simpatizaban con el gobierno nazi. Para ampliar lo que se ve en la serie hice una búsqueda y encontré el siguiente artículo Historias de matemáticas: Nazis y matemáticas. Crónica de una barbarie

Lienard, y otros científicos nazis, no sólo tenían una visión de la ciencia limitada sino que decían que esa visión era la “ciencia alemana” y que se oponía, en particular a la ciencia judia. Por absurdo que parezca esa gente revindicaba una “pureza” de la ciencia alemana, que, tal cómo la plantean, viene a decir que los alemanes puros de raza aria son gente cuadriculada “sin imaginación, sólo una intuición elemental”, y sin ninguna capacidad intelectual de abstracción digna de mención, lo cuál es muy grave en ramas cómo la física y las matemáticas. También, curiosamente, protestan contra el rigor, con lo cual , básicamente, lo que piden es eliminar cualquier aspecto de la matemática que la haga difícil y útil. Además, sólo están interesados en ciencia con aplicación inmediata, lo cuál, por supuesto, es firmar la sentencia de muerte para la ciencia fundamental,y, al poco tiempo, de la propia ciencia aplicada.

Pese a que en la época del ascenso de Hitler al poder absolutamente ningún físico de primera línea, dentro o fuera de Alemania. tenía la menor duda sobre la valía del trabajo de Einstein, los segundones aprovecharon para conseguir un reconocimiento que no se correspondía en absoluto con sus nulos méritos, y de hecho nadie les recuerda o estudia ahora.

El caso es que, sí uno va a plantearse quien es quien en matemática alemana tenemos a Carl Friederich Gauss y a Riemman cómo los nombres mas destacados, y, aunque no le he podido corroborar en una rápida búsqueda, me parece que son judios, pero había muchos más.

Dije antes que se habían ido la mayoría de grandes científicos, y el artículo que enlace da muchos detalles que lo ilustran. En particular es esclarecedor la lista de matemáticos que tuvieron que salir por piernas del régimen nazi, bien, cómo decía antes, porque les echaban de la universidad por una ley, bien porque fueron lo bastante listos para entender que si se quedaban los iban a terminar matando. Sí uno mira la lista, y sabe del tema, reconocerá un montón de nombres muy famosos a nivel mundial, encabezados por gente como Jonh Von Neuman, Kurt Goedel, Herman Weyl, Emmy Nöether, Felix Hausdorf, Rudolf Carnap, Robert Openheimer, Paul Hertz, Richard Courant, etc (un etcétera en el que dejo fuera a gente muy de primera fila, tanto cómo los anteriores) algunos famosos también por sus contribuciones a la física. Al final del artículo vienen algunas notas sobre los logros y obras de varios de ellos.

Por supuesto en la física pasó lo mismo y, aparte de Einstein, huyó de allí casi toda la élite de la física Germana (osea, con la excepción de Heissenberg todos) mucha de ella judia, o con ascendencia judia, o simplemente disconforme con el régimen nazi.

Es decir, que antes de empezar la guerra los nazis habían expulsado a toda su élite científica. En fin, recomiendo leer el artículo, porque el nivel de majaderías de los matemáticos nazis está casi a la altura de los postmodernistas franceses. Digo casi porqué, admitámoslo, ésos eran aún mas estúpidos, pero bueno, al menos eran filósofos y no científicos y la vergüenza no recae sobre la ciencia 😛

En la parte del rigor científico y la claridad de la explicación pedagógica de las ideas la serie hace un trabajo excelente. Según tengo entendido el encargado de la parte científica es el físico de cuerdas Clifford Jonsohn, famoso en el campo por haber publicado el libro de texto D-branes, cuya lectura recomiendo, por cierto, aunque en algunos pasajes se complica, en mi opinión, demasiado.

He seleccionado esos dos tópicos, pero hay muchos más, y he comentado sobre ellos la parte que mas me ha interesado, y no necesariamente con el enfoque que hacen en la serie. Recomiendo sin falta verla, son 10 episodios, tanto por la importancia de la figura de Einstein, cómo por la descripción del ambiente académico y social de la época. Señalo ya que, aparte de Einstein, aparecen por la serie muchos de los grandes físicos y matemáticos relevantes a la historia de un modo u otro.

Motivado por la serie me leí un libro sobre las teorías de unificación de Einstein al cuál dedicaré en el futuro (espero que cercano) una entrada propia.

¿Es la fenomenología de cuerdas un oxymoron?

enero 2, 2017

En esta entrada me voy a referir principalmente a un artículo, del mismo título, Is String Phenomenology an Oxymoron? de Fernando Quevedo. El artículo es un ensayo que esta relacionado con una charla que dió en la conferenecia  Why truust a theory?  en Michin, en Diciembre de 2015.

El índice del artículo es el siguiente:

Contents 1

Introduction 1

2 Basic Theories 4

3 General predictions of Quantum Field Theories 5

4 The Standard Model and Beyond 6

5 General predictions of String Theory 11 6 Four-dimensional Strings 15

6.1 Model Independent Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

6.2 The Landscape . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

6.2.1 Supersymmetry Breaking . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

6.2.2 Models of Inflation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

7 Criticisms to String Phenomenology 23

8 Final Remarks 27

A A timeline of developments in string phenomenology 30

B Ten open questions for BSM 32

C Some open challenges for string phenomenology 32

Cómo se puede ver el artículo cubre muchos tópicos en muy pocas páginas, así que sí no se tiene una cierta idea sobre lo que se está hablando es difícil que se entienda algo. Pero sí se tiene una base resulta muy didáctico, aporta bastantes detalles interesantes y muestra la relación entre varios tópicos que son relativamente especializados.

Un ejemplo,  las compactificaciones tipo large, a las que el autor ha contribuido bastante, son una versión para valores altos de la constante de acoplo de los escenarios de KKLT para fijar los valores de los moduli.

También es interesante la información que da sobre el papel de los moduli en cosmología, de dónde, aparentemente, se puede extraer con una cierta firmeza que la masa de los mismos, que estará ligada a la masa de las partículas supersimétricas mas ligeras, debería ser mayor que 30  TeV,  para no arruinar la bariogénesis. Éso supondría que quedarían fuera del alcance del LHC.

 

En la parte de conclusiones genéricas habla de que bastantes modelos, en particular KKLT y large,  favorecen lo que se conoce cómo “Split supersymmetry” dónde los fermiones compañeros supersimétricos de los bosones tendrían una masa mayor de 1 TeV mientras que los compañeros bosónicos de los fermiones (por ejemplo el stop, compañero del quark top) deberían tener una masa de entre 10 y 100 veces superior a la de las partículas supersimétricas fermiónicas, con lo cuál sí se hallase un stop o similar en el LHC quedarían descartadas esos escenarios.

No voy a intentar hacer un resumen de un artículo que ya es en si mismo un resumen. Simplemente recomiendo leerlo. Veo que ahora hay una versión 2 del mismo, y yo leí la versión 1, lo cuál me da la excusa perfecta para releerlo, que aunque es relativamente fácil de entender (presenta los resultados, no cómo se llega a ellos) hay mucha información y es fácil que esta se olvide, o se mezcle en la memoria cómo le de la gana.

Aviso que la visión que da está algo influenciada por sus propias líneas de investigación, pero éso es algo completamente normal, y aún así, sigue dando una visión muy amplia de muchos aspectos de la fenomenologia de cuerdas que, ¡No, no es un oxymoron! 😉

 

 

 

 

Una guía compacta a la compactificación

diciembre 30, 2016

En su momento escribí una entrada sobre la forma mas básica de compactificación, la teoría de Kaluz-Klein. Sí se quieren mas detalles (en especial cómo aparece, y que papel juega el dilatón) de los que vienen en esa entrada se puede consultar, por ejemplo, la correspondiente entrada de la wikipedia inglesa Kaluza–Klein theory.

Bien, voy a intentar avanzar un poco más respecto a lo que ahí viene y dar una idea un poco global de cómo es el proceso de compactificación. Al intentar dar una idea global dejaré de lado bastantes detalles técnicos, pero tampoco va a ser a nivel de un libro de divulgación para legos sino mas bien en la línea de la entrada anterior.

El siguiente paso, una vez tenemos una teoría guague abeliana U(1), es intentar obtener una teoría no abeliana, para lo cuál vamos a necesitar mas de una dimensión adicional, usando la notación de la entrada anterior descomponemos la métrica en la forma:

g_{MN}= \begin{pmatrix} \eta_{\mu \nu } & \\ & g_{\alpha \beta (y))} \end{pmatrix}

Recordemos que M y N son índices que recorren todas las dimensiones, mu y nu recorren sólo las 4 dimensiones usuales, eta es la métrica de Minkowsky e y denota las coordenadas en las dimensiones extra.

Asumimos que esta métrica es una solución a las ecuaciones de Einstein para el vacío R{MN}=0 o bien, sí permitimos una contaste cosmológica
R_{MN} - \frac{1}{2}Rg_{MN} + \Lambda g_{MN}=0

En el caso de una sóla dimensión adicional la compactificación era única, convertir el eje y en un círculo, ahora tenemos mucha mas libertad. Sí tenemos D dimensiones extra y plegamos cada uno de los ejes coordenados en un círculo tendremos un D-toro (recordemos que el 2-toro tiene forma de “donut” hueco, o de neumático) y, en ése caso, la gravedad de las dimensiones extra se verá cómo una teoría gauge [U(1)]^D. Mas adelante explicaré cómo se obtiene ese D-toro, pero de momento entendamos bien lo que hemos hecho. Cuando las dimensiones extra están descompactificadas ahí opera la simetría del grupo de difeormorfismos de esas dimensiones extra, que es muy grande. Al reducir esas dimensiones a la forma de un D-toro esa simetría de difeomorfismos se ha visto muy reducida, a ese [U(1)]^D. Digamos que el grupo de isommetrías de la dimensión compactificada se ve cómo una teoría gauge con esa misma simetría en las 4 dimensiones.

Cuando las dimensiones extra se compactifican a una geometría mas compleja que un D-toro y no es nada sencillo ver las isometrías de ese espacio. Voy a entrar un poco en algunos detalles matemáticos, elementales, pero que no siempre se comentan en los libros de física sobre el proceso de compactificación (sobre los detalles de las isomerías hablaré en otra entrada). Lo primero es el origen del término “compactificar”. Hace referencia al concepto topológico de espacio compacto. Lo escribí en la entrada que dediqué a un libro sobre la conjetura de Poincaré pero lo reescribiré aquí, para hacer ésto mas autocontenido.

Las nociones de continuidad en cálculo se suelen dar en términos de epsilones y deltas, pero eso en esencia es hablar de entornos abiertos de la recta real, y el caso es que si uno lo analiza uno usa sólo 3 propiedades básicas de los abiertos.

Una topología es recoger esas tres propiedades y convertirlas en axiomas.

Sea X un conjunto y sea Y={Xn} una colección finita o infinita de subconjuntos de X, X e Y forman un espacio topológico si
i. el conjunto vacío e Y pertenecen a Y
ii. Cualquier subcolección finita o infinita {Zn} de Xn tiene la propiedad de que la unión de todos los Zn pertenece a Y
iii. Cualquier subcolección finita {Zm} de los Xn tiene la propiedad de que su intersección pertenece a Y.

Los Xn son los abiertos de esa topología. Conviene hacer una pequeña distinción, que no siempre se explica en los libros de topologia/geometría para físicos. Los intervalos epsilón y deltas del cálculo de una varible, y sus generalizaciones elmentales, los discos abiertos de radio epsilon/delta en el plano, las bolas abiertas en tres dimensiones, etc, son un tipo especial de abiertos, pero, ciertamente, hay conjuntos que son abiertos y no son de esa forma. Esos subconjuntos especiales de la topología forman una base de la misma.

Bien, una vez que tenemos definidos los abiertos cualquier definición que hagamos en términos de esos conjuntos va a ser una definición topológica. Por ejemplo se dice que un conjunto es cerrado cuando su complementario es abierto. Otra noción topologica de interés es la de compacidad. Intuitivamente en \mathbb{R} un compacto va a ser un conjunto cerrado y acotado (la distancia entre dos cualesquiera de sus puntos es finita).

Pero como dije una noción topológica debe darse en términos de los abiertos. Vamos a ello.

Primero debo explicar la idea de recubrimiento. Dado un subconjunto, S, de un espacio topológico, X un recubrimiento de S es una colección de conjuntos abiertos Rn tal que S esta incluido en la unión de todos los Rn. Se dirá que un conjunto es compacto cuando todo recubrimiento del mismo admite un subrecubrimiento (un cubrimiento con un un subconjunto de la colección recubridora)finito. La noción de compacidad es útil por muy diversos motivos. Una es que, por el teorema de Heine-Borel, podemos caracterizar los cerrados y acotados, un tipo de conjuntos interesante, mediante esta propiedad.Oto aspecto útil es que si queremos demostrar algo sobre un compacto nos basta demostrarlo sobre cualquier elemento del conjunto recubridor y asegurarnos de que la propiedad demostrada no se pierde cuando tenemos una unión finita de esos elementos. Es importante hacer notar que como en un compacto todos los recubrimientos admiten subrecubrimiento finito podemos elegir los Rn de la forma que mas nos convenga.

Tan importante es la noción de compacidad que la mayoría de resultados toopológicos van a estar referidos a espacios compactos. Los no compactos son mucho mas difíciles de estudiar.

Entonces la idea de la compactificación es coger un conjunto que no es compacto, por ejemplo la recta real, que no es acotada, y por tanto, según el teorema de Heine-Borel no es compacta, y convertirla en un conjunto compacto por un procedimiento bien definido, en este caso identificar los dos puntos del infinito a la “izquierda” y “derecha”. Sí cogemos un folio e identificamos dos lados opuestos obtenemos la superficie de un cilindro (sin las tapas). Sí en ese cilindro resultante identificamos los dos círculos opuestos obtenemos un 2-toro.

ES interesante que, en el caso anterior, tanto el folio (un rectángulo con sus lados incluidos) cómo el toro son compactos así que aquí no estaría del todo justificado el término “compactificación”. Pero sí nos imaginamos que el rectángulo es infinito, es decir, es el plano real, entonces sí estamos convirtiendo ese plano, que no es compacto, en un toro, que es compacto. Realmente el proceso de compactificación de un rectángulo aunque no cambia la compacidad del rectángulo si cambia otras propiedades topológicas del mismo, por ejemplo la conectividad por arcos (la explico en la entrada sobre la conjetura de Poincaré). El rectángulo es contractible (cualquier círculo que dibuje dentro del mismo se puede contraer a un punto sin salirse del rectángulo) mientras que en el toro no es así (de hecho hay dos familias de círculos que no pueden contreaerse a un punto). No daré mas detalles sobre ésto ahora (en el post sobre la conjetura de Poincaré comento más al respecto) pero no deja de ser un hecho interesante, que tiene muchas implicaciones en topología y en física.

Uno, bastante conocido, es que, en teoría de cuerdas, en particular para la cuerda heterótica compactificada en un Calabi-Yau, el número de generaciones de partículas es igual a la mitad de la característica de Euler-Poincaré de el espacio de compactificación M &latex\frac{1}{2}\chi (M))$. Esta constante apareció por primera vez en el trabajo sobre teoría grafos que hizo Euler para, entre otras cosas, resolver el problema de los puentes de Königsberg. Para un grafo la expresión de la característica de Euler es \chi= C - A +V donde C, A y V son los números de caras, de aristas y de vértices respectivamente.

Cómo una superficie puede ser triangulada se puede definir esa constante en términos de la constante de Euler de la triangulación de la misma. No obstante, para una superficie, o una variedad n-dimensional, es mejor definir la constante en términos de los grupos de homología o cohomología. Primero se define el n-ésimo número de Betti &latex b_n$ cómo el rango del n-ésimo grupo de homología. En términos de esos números la característica de ÇEuler es la suma alternada de los números de Betti, es decir, tiene la expresión \chi =\sum_{i=0}^{n} (-1)^{i}b_i. También, mediante la dualidad de Poincaré, se podría escribir en términos de grupos de cohomología, así cómo en otras formas mas sofisticadas, pero éso ya sería irnos demasiado del propósito de la entrada.

Otro ejemplo es el uso de “Wilson loops” (o Wilson lines), osea, holonomías sobre círculos, que cuando el espacio no es conexo por arcos pueden usarse para reducir la simetría de un grupo gauge de una manera diferente al mecanismo de Higgs. Este procedimiento se usa de manera habitual en la fenomenología de la cuerda heterótica.

Por cierto, el plano real puede ser compactificado de manera natural de más de una forma. Un proceso muy típico sería la compactificación por un punto, el punto del infinito, es decir, cogemos todos las regiones del plano que “están en el infinito” y las convertimos en un punto. El espacio resultante sería una esfera. Es un proceso algo mas complejo de visualizar, y para ayudar a entenderlo vendría bien que explicase la proyección estereográfica, pero espero que con esta imagen os hagáis una idea aproximada.

Al inicio de la entrada mencioné que iba a explicar cómo surgía el D-toro al compactificar cada una de las dimensiones extra a un círculo. Hasta ahora he explicado cómo obtener el toro identificando los lados opuestos de un cuadrado, pero ahí no se ve cómo surge a partir de círculos.

Bien, éso requiere el concepto de producto cartesiano de dos espacios topológicos. Sí tenemos dos espacios topológicos X1 y X2 su producto cartesiano es el conjunto X1xX2={x1,x2}, es decir, el conjunto de pares dónde el primer par, x1, es un elemento de el conjunto X1 y el segundo, x2, es un elemento del conjunto X”. A partir de una base de las topología de X1 y X2 se puede formar una base de la topologia producto tomando el conjunto de todos los pares ordenados posibles formados con los elementos base. En caso de que no se haya entendido muy bien este párrafo tampoco pasa nada, que es bastante fácil de visualizar la explicación que daré ahora.

Si tenemos dos círculos S^1 y S^2, el toro es el producto cartesiano de esos dos círculos T^2=S^1xS^2. Intuitivamente podemos pensar que cogemos uno de los círculos y cada uno de los puntos de ese círculo lo hacemos girar 360 grados alrededor de otro círculo perpendicular. Se puede visualizar en el siguiente dibujo bastante bien la idea.

Obviamente un D-toro es la generalización de esa idea, osea, un producto cartesiano de D círculos, cada uno de los cuales se obtiene al compactificar cada uno de los ejes coordenados.

Una definición mas precisa de la topología de identificación requeriría una entrada de un blog por si misma, pero al menos espero que con ésto quede mas claro el origen del término y los ejemplos den una idea de cómo se visualiza.

El Sol en una botella

diciembre 7, 2016

Hace no demasiado la energía de fusión era un tema del que se solía hablar incluso en conversaciones cotidianas con gente sin estudios de ciencias. Hoy, por contra, está bastante olvidado. En la carrera de físicas, en las asignaturas de física nuclear, tampoco se dice nada especial al respecto de ella. Por éso, cuando ví el libro en una biblioteca, decidí cogerlo y, aunque ando ocupado estudiando otros temas, saqué tiempo para leerlo con una cierta celeridad.

El autor del libro, según se lee en la solapa, es un periodista, lo cuál puede arrojar dudas sobre el rigor del texto. Sin embargo en uno de los capítulos el autor hablar sobre su papel en una polémica relacionada con la energía de fusión y ahí se descubre que ha trabajado de manera regular en la revista science, lo cuál ya es una garantía muy sólida de que es un autor fiable.

Yendo al texto puedo decir que la lectura es muy, muy amena, mezclando datos históricos y biográficos sobre la gente que ha estado relacionada con la energía nuclear en general, y la de fusión en particular, junto con aspectos técnicos explicados sin entrar en muchos detalles, pero con suficiente profundidad para que no sea “cultura de sobremesa”. Hay también unos cuantos detalles técnicos muy curiosos que siempre viene bien saber.

El primer capítulo es sobre el proyecto Manhatan, la bomba de fisión y la bomba de fusión. También introduce a un científico, Edwin Teller, gran adalid de la energía fusión, y de el armamento atómico. Claramente el autor no simpatiza nada con Teller y le presenta casi cómo un “supervillano”. Al no tener conocimiento previo sobre Teller, y no haber leído mas sobre él, no me puedo pronunciar al respecto.

El siguiente capítulo parece una vuelta atrás y nos explica la historia del descubrimiento primero del átomo y después del núcleo, los consituyentes del mismo ,protones, nuetrones y electrones (ni una sóla palabara sobre los quarks o la QCD sin embargo). También nos cuenta su relación con el funcionamiento del sol, y una sorprendente relación de la misma con una objeción que se hizo en el siglo XIX a la teoría de la evolución.

Tras éso vuelve a los intentos de aplicación pacíficos de las bombas nucleares, algo sobre lo que no había oído nunca hablar y que me ha resultado muy curioso leer.

Luego ya empieza a hablar de los intentos de crear centrales de fusión, en particular la fusión caliente, en plasmas. Nos cuenta los dos modelos relevantes en USA, el Stellator y el sistema de pinzamiento, y sólo mas adelante nos habla de el Tomakak Ruso. Nos explica los principios teóricos básicos, y mas adelante nos cuenta cómo aparecen diversos problemas inesperados, todos relacionados con las inestabilidades del plasma.

Luego hay un capítulo sobre el affaire de la fusión fría, allá por mediados de los ochenta, con observaciones sobre la posible poca honestidad de los implicados, aparte de dar unos cuantos detalles técnicos sobre porque debería funcionar (aunque nunca llega a hablar del efecto túnel cuántico, que se supone que debería ser la justificación última de porque podría funcionar ese enfoque).

Luego hay otro capítulo sobre un intento de producir fusión mediante cavitación, un fenómeno dónde la formación y posterior contracción brusca, de burbujas en un líquido podría comprimir el deuterio lo bastante para crear fusión. En ese affair nos explica cómo estuvo implicado personalmente en algunos aspectos y cómo si bien hubo algunas irregularidades el procedimiento de los científicos fué mas riguroso que el que tuvieron los implicados en la fusión fría.

Hay otro capítulo dedicado a la fusión mediante lasser. Ahí nos cuenta su historia, cómo las esperanzas iniciales fallaron debido a las inestabilidades de Rayleight de la bola esférica de fluido que comprimen los lassers, y de cómo, en última instancia, la inversión de los USA en ese proyecto no se debe tanto a que sea una opción muy realista para obtener fusión cómo al hecho de que, de algún modo, sirva para mantener funcional el arsenal nuclear de los estados unidos. La verdad es que me parece interesante es información porque ya me había hecho yo esa pregunta alguna vez. Por un lado los materiales de fisión, por su misma naturaleza, se van volviendo inservibles, y, por otro, es una tecnología lo bastante compleja cómo para que se puedan perder conocimientos importantes sí la generación de científicos que creó esas armas no instruye en los detalles a nuevas generaciones. Dado que la información sobre esa fusión está en su mayor parte clasificada el autor no sabe exactamente cómo ese proyecto de fusión resuelve los problemas de mantenimiento del arsenal, pero al menos da pistas de porque está financiando un proyecto de poca viabilidad para su propósito mas oficial.

El último capítulo nos hablar sobre el ITER, y de cómo su coste supuso el fin de los planes en países individuales de la inversión en fusión caliente.

El libro está editado en la versión inglesa en 2008, aunque la edición española es mucho mas reciente, del 2015.

El autor es muy poco optimista sobre la viabilidad última de la fusión,en un plazo razonable al menos. Éso está en consonancia con un artículo que leí en su momento en investigación y ciencia. Yo no soy experto en el tema, y, desde luego, tengo mas esperanzas en que la física de altas energías dará en el futuro pistas para obtener energía mejores que la fusión. No obstante la fusión se basa en principios claramente establecidos,y sabemos que funciona (la prueba es el sol) y, pese a los problemas, me parece que no hay ninguna excusa para no seguir investigando a fondo en el tema. Las energías renovables pueden ser útiles en algunos aspectos, pero claramente hay una serie de funcionalidades que la fusión podría cubrir y las energías alternativas no.

En última instancia la energía de fusión está relacionada con la física de plasmas. En su momento, hace ya unos años, compré un libro de la editorial MIR sobre el tema que he ido leyendo a ratos libres, con mucha, mucha calma. A raíz de éste libro de Charles Seife lo he retomado, y, casualmente, iba por el capítulo dónde comentaba algunos de los aspectos de la física de plasmas mas relacionados con la fusión.

Este libro de física de plasmas es de divulgación al estilo Ruso, con profusión de fórmulas, y una pésima traducción por parte de la editorial MIR. Cómo no tengo mas conocimientos de física de plasmas de los que vienen en ese libro no puedo decir gran cosa sobre sí es bueno o malo, pero, en todo caso, es un libro barato, y contiene una gran cantidad de información,con unas cuantas fórmulas para darle un poco de empaque serio al tema, y, con lo baratos que son los libros de la editorial MIR, me parece una compra recomendable tanto en si misma cómo un complemento del libro al que dedico esta entrada.

The Shape of Inner Space

noviembre 7, 2016

Tras el anuncio de que el bump (bulto) estadístico difotónico a 750 MeV con el que despedimos el año pasado ha quedado descartado tras el anuncio de los nuevos datos este verano, y los nuevos límites en búsquedas ordinarias, ha habido bastante desencanto y las esperanzas de que el LHC encuentre nueva física han caído mucho. También los experimentos de búsqueda de materia oscura han dado resultados negativos que echan por tierra resultados previos que apuntaban a que se podría haber encontrado algo.

Eso, sumado a resultados negativos previos, cómo la verificación de que el anuncio de BICEP2 de haber encontrado modos B era debido al polvo interestelar, han echado por tierra todos los indicios experimentales de nueva física de partículas o cosmología (en particular la inflación) que han aparecido en los últimos años, más o menos desde el 2008.

En ese panorama traer a colación un libro del 2008, publicado justo antes del lanzamiento del LHC, y que habla de la matemática de la teoría de cuerdas, puede parecer cómo intentar reavivar un enfermo, pero la verdad es que me parece todo lo contrario, que es un excelente momento para leerlo. El motivo es que mucha de la fenomenología que se ha estado haciendo está inspirada en teoría de cuerdas, y no tiene apenas sentido mas allá de ella, pero, cuando uno mira los detalles, resulta que se hacen unas aproximaciones que, sí uno pretende ser consecuente con la teoría en la que se inspira, son, cuanto menos, muy chocantes. Por éso creo que habría que animar a la gente a aprender a fondo la teoría de cuerdas, o, si acaso, a hacer teorías aparte, pero no quedarse a mitad camino.

Pues bien, éste libro, aunque en su filosofía es de divulgación, contiene muchos detalles finos de teoría de cuerdas que posiblemente mucha gente que haya leído los libros de texto habituales en teoría de cuerdas no haya leído, o no haya apreciado adecuadamente.

Posiblemente cualquiera que haya leído algo de divulgación sobre cuerdas haya oído hablar de las compactificaciones de Calabbi-Yau, unos espacios cuya existencia conjeturó Calabbi y la existencia de los cuales probó Yau. Pues bien, el autor principal de este libro es Yau, Shing-Tung Yau. Por esa demostración -principalmente- recibió la medalla fields (ya se sabe, más o menos el nobel de las matemáticas, aunque sólo otorgable a gente de menos de 40 años, lo cuál es algo bastante discutible en mi opinión). Actualmente Yau es el jefe del departamento de matemáticas de la universidad de Harward, una de las mas importantes del mundo, y en particular es una de las mas prestigiosas en el mundo de la teoría de cuerdas, contando con algunos de los mas famosos físicos del área, cómo por ejemplo Cumrum Vafa.

Por lo expuesto en el párrafo anterior uno puede tener la sospecha de que Yau es un autor que debe saber bastante sobre los temas que trata, y así es. A lo largo del libro uno descubre que algunos físicos famosos, por ejemplo Brian Greene, autor del universo elegante, y descubridor de la simetría mirror, han sido estudiantes de doctorado suyos.

Aprovecho para dejar ahora un enlace a dos reviews del libro en dos blogs famosos, el de Peter Woit y el de Sabine Hossenfander escritos mucho antes que éste, y antes del actual cúmulo de resultados negativos en la búsqueda experimental de nueva física.

Bien, en ésos reviews dejan claro que el autor se centra bastante en lo que conoce mejor, las compactificaciones en espacios de Calabi-Yau, y la utilidad de éstas. Pero el caso es que muchas de las características generales que han ido apareciendo en la teoría de cuerdas desde los primeros tiempos, cosas cómo las D-Branas, las compactificaciones warped (deformadas, retorcidas)o el cálculo de la entropía de los agujeros negros en teoría de cuerdas tienen relación, en un momento u otro, con los calabi-Yau, así que, en el fondo, en el libro se analizan, y dando detalles muy jugosos, todos esos temas.

Destaco, así a vuela pluma, la relación entre el número de moduli de un calabi-yau y el famoso número de 10^500 compactificaciones que aparecen en el landscape (la idea es que el flujo que sirve para dar un potencial a un campo moduli está cuantizado, y, por tanto tiene un espectro discreto, y de hecho finito, así que una estimación del numero es el producto de el número de modulis (relacionado con los números de hodge de la familia del calabi-yau en cuestión, elevados al número de valores posibles para el valor del flujo) . También habla de compactificaciones que no son un producto cartesiano, y que se tratan cómo Warped compactificaciones, las condiciones de Strominger para compactificaciones generales, la relación entre la métrica de Ricci del calabi-Yau y la masa de las partículas relacionadas conla compactificación, y la constante de yukawa de las interacciones, etc, etc.

Realmente no es un libro para un lector que quiera tener una cultura superficial sobre la teoría de cuerdas sino para gente con una cierta base de física y matemáticas, y que haya leído ya bastante divulgación sobre diversos temas. Aunque, cómo digo al principio, puede encontrar cosas interesantes, gente que ya sepa bastante de teoría de cuerdas a nivel formal.

Aparte de el puro aspecto de la física y la matemática destaco lo que se adivina sobre la historia de la teoría de cuerdas, y su relación con la matemática pura (aplicación de la simetría mirror a algo denominado geometría enumerativa, de la que nunca había oído hablar, pero que explica en el libro en que consiste), Ahí se cuenta quien estudia con quien, cómo los físicos, y que físicos, preguntan a los matemáticos sobre tal o cuál cuestión, y viceversa, quien ha hecho avanzar tal o cuál rama, etc. Yo particularmente saco la impresión de que el hecho de que se acumulen tantos matemáticos y físicos de cuerdas en Harward, y centros muy influenciados por Harward, hacen que se priorice lo que allí se hace sobre otras opciones que, tal vez, podrían ser igual de interesantes.

A modo de comentario final, el libro de divulgación mas interesante que he leído nunca sobre teoría de cuerdas y sus matemáticas. Sinceramente, hay tópicos que ya están muy trillados, y creo que estaría bien que mucha gente leyese este libro, y comentase en detalle en sus blogs muchas de las cosas que allí se cuentan.

Singularidades desnudas en agujeros negros 5-dimensionales

mayo 6, 2016

En varios sitios, por ejemplo, physisorg, se han hecho eco de un resultado que considero potencialmente muy interesante.
Five-dimensional black hole could ‘break’ general relativity

El artículo técnico, publicado en physical review letters, tiene su correspondiente versión en arxiv

End Point of Black Ring Instabilities and the Weak Cosmic Censorship Conjecture

Este es el abstract:

“We produce the first concrete evidence that violation of the weak cosmic censorship conjecture can occur in asymptotically flat spaces of five dimensions by numerically evolving perturbed black rings. For certain thin rings, we identify a new, elastic-type instability dominating the evolution, causing the system to settle to a spherical black hole. However, for sufficiently thin rings the Gregory-Laflamme mode is dominant, and the instability unfolds similarly to that of black strings, where the horizon develops a structure of bulges connected by necks which become ever thinner over time.”

En el artículo de physicsorg por “romper” se refieren a que en cinco dimensiones puede darse el caso de lo que se conoce cómo una singularidad desnuda, es decir, un punto singular que no está rodeado por un horizonte de sucesos (la frontera de un agujero negro) y, por tanto, queda esa singularidad expuesta al resto del universo.
Por singularidad pueden entenderse varias cosas diferentes, la mas sencilla de entender es “un punto dónde la métrica se hace infinita”, o dónde la curvatura del espacio-tiempo se hace infinita, o la densidad de materia infinita. Pero quizás no sea esa la clave de la idea de singularidad. Lo importante es que es un punto del espacio-tiempo al que llegan curvas posibles, es decir, puedes llegar a él, hacerlo en un tiempo finito (tanto subjetivo cómo para un observador lejano, recordemos que el tiempo pasa de manera diferente para diversos observadores en función de diversos factores) y, una vez allí, las ecuaciones no predicen que pasa (se puede suponer que se queda allí para siempre, pero no es obvio que deba ser así).

El ejemplo que plantea esta gente es la evolución de un agujero negro en forma de anillo (Un black ring), de un cierto tipo especial, llamado delgado. La existencia de agujeros negros que no sean de forma esférica es algo que no ocurre en 3+1 dimensiones, así que no es posible extender este caso a nuestro espacio observable.

En teoría de cuerdas el universo debe tener 10 (11 en el caso de la variante llamada teoría M, aunque la historia es ligeramente mas complicada que éso) y en algunos escenarios alguna de las 6 que no observamos podría ser lo bastante extensa cómo para que un agujero de esas características se formase, así que éso supone un gran reto para la teoría de cuerdas (a ver cómo describiría esas situaciones, y que conclusiones sacaría) y la relatividad general sencillamente se queda sin herramientas para ir mas allá.
La verdad es que es un resultado que, sí es cierto, es muy importante ya que había la violación de la versión débil de la conjetura de censura cósmica (hecha por Penrose) que afirmaba que algo así no podía ocurrir. Siendo una conjetura no está demostrada, pero sí que había probado ser válida en muchos escenarios y, por ahora al menos, sólo hay este contraejemplo en 5 dimensiones.
La verdad es que estaría bien que no hubiera errores. Estando basado en cálculos en un superordenador es difícil una verificación independiente, y menos sí no se es experto en relatividad general numérica, que es un submundo aparte, pero me parece un resultado lo bastante interesante cómo para que la gente lo contraste (sí no se presta atención a algo así no sé a que se le va a prestar xD) y, caso de aceptarse estaría bien intentar recrear mediante cuerdas la situación, a ver que nos dicen.

Cuando haya leído con calma el artículo, sí veo que hay algo interesante que añadir, editaré la entrada para comentarlo.

Por cierto, imagino que a algunos les habrá extrañado que no mencionase nada sobre el famoso descubrimiento directo de ondas gravitacionales por parte de LIGO hace unos meses. Por un lado andaba liado en esas fechas, pero, más importante, sólo hay un evento. No he visto ninguna crítica por parte de nadie de que el resultado pueda ser falso, y hay rumores de que la colaboración tiene mas eventos candidatos, pero, tras el historial de los últimos años en varias áreas, no voy a estar del todo tranquilo hasta que no se hayan publicado otros eventos bien documentados.

Modelándolo todo

enero 26, 2016

Or at least the good ones 😉

El caso es que el gráfico de arriba (que, aclaro, no lo he hecho yo) no es demasiado “polémico”. En el caso del conejo se explica una reacción bioquímica relacionada con la respiración. El río es un fluido y se representa por las ecuaciones de Navier Stokes.  Dentro del sol  se han expuesto las reacciones nucleares de fisión básicas. Debajo de él aparece primero la fuerza gravitacional newtoniana, que es la que permite deducir la órbita que sigue la tierra alrededor del sol. Y, justo debajo, se escriben las ecuaciones de Einstein, que generalizan la teoría grabvitatoria de Newton a situaciones dónde la interacción gravitatoria es mas intensa.  Un poco mas a la derecha, y alrededor del sol, están las ecuaciones clásicas de Maxwell que describen la interacción electromagnética y, en particular, la radiación electromagnética (entre ella la luz visible) que nos llega del sol.

En el cielo, arriba, a la derecha, se ve un proceso que describe la caída de un rayo cósmico energético en la atmósfera que se va desintegrando en partículas cada vez mas ligeras. Debajo de los pájaros aparece la ecuación de Bernoulli de la dinámica de fluidos. Esas ecuaciones son un caso particular de las de Navier-Stokes para situaciones estacionarias, y en las que se ejemplifica la conservación de la energía. El hecho de colocarla junto a los pájaros proviene de que la fuerza de sustentación que mantiene un objeto que vuela en el aire se puede explicar mediante esa ecuación pues la diferencia de velocidades del aire que circula por encima y debajo del ala genera una diferencia de presiones que es la que hace que impulsa el ala hacia arriba. Aclaro que si bien esa ecuación explica muy bien el ala de un avión sospecho que el vuelo de un pájaro debe tener algunos otros factores, al menos en la fase en la que baten las alas.

En los árboles aparece una reacción química que es la contraria a la respiración del conejo ,la fotosíntesis (no soy químico, y no recuerdo los detalles, sí no es exactamente así que alguien me corrija).  En el fondo se ve una línea ondulante, que me imagino pretende representar un paisaje montañoso. Y,  siguiendo esa curva, aparece la expresión de el desarrollo en serie de Fourier de una función. Supongo que  éso significa que se considera que la línea  las montañas tiene algún tipo de periodicidad (ciertamente es muy sinusoidal) y que ,por consiguiente, puede hacerse un desarrollo en serie de Fourier de la gráfica de esa línea.

En la base de las montañas aparece la ecuación de Schröedinger dependiente del tiempo, aunque no entiendo muy bien que se supone que pinta ahí. Abajo, a la derecha, señalando a unas plantas que parecen helechos aparecen unas funciones f1 y f2, expresadas cómo un producto de unas matrices por unos vectores. no están completas y no tengo del todo claro que pueden ser, aunque me imagino que la idea es que sean algún tipo de ecuaciones de ecología matemática (pero no caigo ahora mismo en cuales podrían ser exactamente).

He dicho que esas ecuaciones no son demasiado polémicas porque básicamente, representan procesos físicos y químicos, y la gente normal no tiene problema con aceptar que se puedan describir objetos inanimados, y procesos “básicos” de los objetos animados con leyes matemáticas. Cuando les dices a la gente que eres físico/matemático y les expones estos temas, sí tienen afición por esas materias, normalmente a la gente les parece bien, supongo que porque de algún modo consideran que eso representa que has sido un “chico aplicado y listo” que ha aprovechado el tiempo y esas cosas de la “gente de bien”.

El problema, con alguna gente, es cuando el método científico que se ha utilizado para obtener esas leyes, intenta aplicarse a situaciones que ellos consideran mas delicadas, normalmente cuando afectan a aspectos de las sociedades humanas que se consideran “demasiado complejos”, como podría ser la economía, el arte, la psciología y demás. Aparentemente, para alguna gente, y según sus diversas orientaciones, sí te planteas, cómo es lo normal, hacer modelos matemáticos sobre estos temas parece cómo que estés intentando atentar contra su individualidad, el “espíritu humano”,  algún tipo de “orden divino”, la “armonía de la naturaleza”, o vaya usted a saber qué.

El tema enlaza también en parte con la muy manida frase ¿para que sirven las matemáticas sí yo no las uso en la vida cotidiana? Sé, por amplia experiencia  en discusiones con mucha gente, que de momento es prácticamente imposible que se disipe la polémica, y, en consecuencia, todo lo que voy a exponer, va a ser en buena parte tiempo perdido, pero, inevitablemente, a la larga, se irá imponiendo la realidad y se verá que sí se pueden hacer todo ese tipo de cosas y que ¡no pasa nada!, nada malo al menos, mas bien todo lo contrario. De hecho, aunque mucha gente lo ignore, ya hay mucho hecho en ese terreno (pero no remotamente lo que se podría y debería estar haciendo).

Lo primero es dejar claro que, para casi (dejo el casi por generosidad xD) cualquier actividad humana hay siempre algún tipo de modelo cognitivo.  Dependiendo de la actividad el modelo cognitivo será mas o menos elaborado. Cuanto menos habrá un modelo verbal, y el lenguaje en si mismo es un modelo de la realidad. Pero mediante modelos verbales no se puede llegar muy lejos, y siempre hay que procurar ir mas allá.

Voy a elegir, para empezar, un tema que conozco en relativa profundidad, la música. Ahí tenemos una realidad un conjunto de sonidos y silencios, que siguen una cierta pauta, hechos con diversos tipos de instrumentos musicales, incluida la voz, y que es considerada, normalmente “agradable”.

Bien, hoy día la música se representa en una partitura. Éso no fue siempre así. De hecho hubo un largo camino hasta obtener un sistema para poder poner en un papel una representación del hecho musical. En mi antiguo livejournal (sigue existiendo, pero ya no escribo)  puse en su momento una entrada sobre música medieval dónde, entre otras cosas, explico un poco la historia de la notación musical. La partitura es una construcción muy astuta pues plasmar algo tan complejo como el fenómeno musical no es nada trivial, pero no deja de ser un lenguaje escrito. Realmente la teoría musical va mucho mas allá del solfeo y consta de cosas cómo armonía, contrapunto, formas musicales, teoría de la melodía, teoría del acompañamiento, orquestación, etc, etc.  Y eso para música clásica, luego, para música electrónica hay que conocer un montón de aspectos sobre sintetizadores, samplers, secuenciadores, etc. Es curioso que la gente piense que la música es algo de “tener oído”  y “tocar un instrumento” para poder hacerla  y “sensibilidad musical” para apreciarla, pero la realidad es que sí se quiere ser un gran músico con eso no basta. La música clásica es totalmente académica, y requiere una extensísima formación muy regulada, pero incluso la música de jazz o el flamenco, que son mas “improvisados” requieren formación, mas anárquica, pero formación.  incluso la mayoría de los músicos pop que se saben “tres acordes” normalmente sí han (tal vez algunos no al inicio) estudiado mucha mas música de la que parece, y no sólo clases de instrumentos (obviamente de todo hay xD).

Lo interesante es que la teoría musical clásica, cuya base es la armonía, en particular la armonía tonal, (a partir del periodo clásico antes se hacía música contrapuntística, y la teoría formal armónica estaba en sus inicios) es un modelo cognitivo bastante complejo, y bastante astuto. En última instancia la armonía tonal está en  buena parte en relación con el análisis de Fourier en el sentido  de que los acordes que “suenan bien”, las terceras, son una nota base y otras que son armónicos de esa nota base. Y luego, una vez establecidos los acordes se crea una teoría de “tensión/relajación” (acordes en función de dominante y tónica respectivamente) y otras funciones armónicas de paso, que también tienen una cierta correspondencia con la teoría de Fourier, aunque posiblemente ahí pesen mas otros elementos.  En su momento recogí en el livejournal un estudio de unos psicólogos que relacionaban las funciones armónicas de tónica y dominante con estados psicológicos registrables mediante sensores, y lo relacionaban con la teoría matemática del caos determinista, viniendo a plantear que las funciones de dominante y tónica sería lo que se conoce en matemáticas cómo “atractores”. Podéis leer detalles en Math, psicology & music.  En esas dos entradas del livejournal abundo sobre aspectos de teoría musical, así que no me extenderé mucho mas aquí con ello. Lo interesante es que un modelo artístico, la teoría de la armonía clásica, esta muy relacionada con la teoría de Fourier (que es la base de la física del sonido), y que, mas adelante, se ve que hay indicios de que esa teoría músical pueda tener bases neuronales que se pueden modelizar mediante un sistema de ecuaciones diferenciales no lineal. Desde luego ha habido mas intentos de hacer correspondencia entre la música y la matemática, de otra índole. El siglo XX, una vez explorados muchos aspectos de la armonía tonal, llevó a considerar buena idea la música atonal, y para éso se crearon técnicas musicales específicas. la mas sencilla fué el dodecafonismo (obra de Arnold Schöemberg),  que establecía que cualquiera de las 7 notas naturales y sus correspondientes alteraciones (bemoles o sostenidos), osea, las doce notas, debían estar en pie de igualdad, y creó una técnica contrapuntística que permitía crear, de forma metódia, música en la que ninguna de las notas fuera mas importante que el resto. Mas adelante Boulez y otros ¿Stockhausen? llevó esa fórmula al extremo haciendo que no sólo ninguna nota tuviera un papel preponderante de forma tonal sino también a nivel rítmico, llevando al serialismo integral. El caso es que en esas teorías, aunque sobre el papel pautado (la partitura) eran bastante razonables obviaban toda la parte de la física del sonido. Esa gente pensaba que el sonido se habituaría a las disonancias extremas, lo mismo que se había ido habituando a la pualatina introducción de disonancias en los acordes de dominante (que aumentaban la tensión y daban variedad), pero, en función del muy escaso éxito de la música serial en el gran público parece que no fué así. Es posible que la causa última sea que ignoran la física del sonido, aunque la escisión de la cultura entre pop y académica en la segunda mitad del siglo XX es un tema muy complejo, y espero que algún día se vuelvan a fusionar, y que los intentos de confluencia actuales prosperen cuanto antes, pero ésa es otra historia.

Bien, la música es un caso interesante porque hay un modelo cognitivo endógeno (la teoría musical) que conecta de forma muy natural con la física, pero ¿hay mas casos? Ciertamente, pero mucho me temo que se me hace tarde y tendré que dejarlo para otro día, lo cuál, la gente que me conozca, esta al tanto de que eso es señal de que a saber cuando vuelvo a escribir sobre el asunto xD.

 

¿Es un pájaro, es un avión? ¡No, es superbump!

diciembre 19, 2015

Este año el LHC ha funcionado de manera bastante irregular, con bastantes problemas operativos, y a consecuencia de ello ha acumulado bastantes menos datos de los esperados. Los primeros resultados, expuestos en verano, no dieron grandes titulares, y sólo se vieron unas cuantas fluctuaciones estadísticas no muy significativas (que no obstante han dado lugar a un buen número de artículos.

Este martes, sin embargo, se ha hecho público el anuncio del análisis mas reciente de los datos acumulados y ha surgido la evidencia experimental mas firme de nueva física mas allá del modelo standard que se ha visto hasta el momento en ningún colisionador. La señal consiste en un exceso de difotones (osea, emisión de dos fotones cómo consecuencia del decay de una partícula) a una energía de 750 GeV. La señal se ha observado, para la misma partícula, en los dos grandes detectores del LHC, atlas y CMS.

ATLAS ve un exceso de 3.6 sigmas y CMS ve otro, del mismo tipo, y para los mismos valores, de 2.6 sigmas. Combinando ambos resultados la significación estadística sube a unos 4.4 sigmas. En esos datos hay que tener cuidado con el efecto “Look somewhere else” (y tener cuidado de no contarlo dos veces), lo cuál rebaja la significación estadística total. Dado que en física de partículas se necesita una significación estadística de 5 sigmas, por cada uno de los detectores, y sin considerar el efecto ése de “Mirar a cualquier otro lado”, los resultados no son firmes, y sigue teniendo, por ahora, el status de una fluctuación estadística. Eso sí, la mayor vista hasta el momento en un acelerador de partículas que no se corresponda con una partícula del modelo standard. Dado que la matemática de ese modelo se cerró (al menos en lo mas fundamental) a finales de los 70, y desde entonces todo lo que se ha encontrado pertenece a ese modelo estamos hablando de la mayor evidencia de física de partículas mas allá del modelo standard en unas 4 décadas.

Tomasso Dorigo (un físico que trabaja en uno de los detectores del LHC) analiza con mucho detalle los aspectos estadísticos en esta entrada de su blog.

Un aspecto llamativo es que en el Run I del LHC, efectuado a energías de 7 TeV, no había signo alguno de esa señal. La energía extra del Run 2 (que funciona a 13 TeV) permite que exista esa partícula, y que no haya evidencia a menos energía, pero eso supone bastantes restricciones. Cómo quiera que es la mayor evidencia experimental de nueva física en tantísimo tiempo ha habido ya, desde el martes hasta aquí, bastantes artículos analizando la cuestión (obviamente los autores tenían noticias de la señal antes del anuncio oficial).

Hay propuestas desde muchos ángulos posibles. Una de las primeras cosas que parecen estar claras es que la partícula debe ser una partícula vectorial, de spin distinto de 1 (existe un teorema, de Landau-Yang, que afirma que una partícula de spin 1 no puede decaer a dos fotones). Eso, para los amigos de SUSY, lleva inmediatamente a plantearse que pueda ser uno de los 5 bosones de Higgs (en el modelo standard sólo hay 1) que hay en los modelos supersimétricos. Eso sí, al no haber sido observada previamente en el Run I se puede verificar que sí es uno de esos Higgs estaríamos en versiones del modelo standard supersimétrico distinto al mas sencillo posible (El MSSM, minimal supersymmetric standard model).

También hay buenos motivos para descartar que sea una partícula de spin 2 (osea, en la práctica, una excitación tipo kaluza-klein del gravitón en una dimensión extra).

Bien, eso es lo que, más o menos, está descartado que sea, y las características generales de lo que debe ser. Dentro de esos límites hay varias posibilidades. En supersimetría se ha propuesto que pueda ser un sgoldstino. Lubos analiza los artículos que tratan esa posibilidad en <a href="http://motls.blogspot.com/2015/12/sgoldstino-at-750-gev-prevails-in.html"<esta entrada.

Un análisis, en español, de muchas de las posibilidades extra analizadas hasta ahora puede encontrarse en el blog de Francis.

Posibles partículas responsables del exceso a 750 GeV en el LHC Run 2

Lo interesante es que, caso de ser una señal auténtica, está en un punto dónde las posibilidades son relativamente escasas. La mayoría de los modelos requieren que, sí la señal es una nueva partícula, debe haber mas partículas de energías similares que se verán el año siguiente en el Run 2, o, incluso, que reexaminando los datos ya acumulados de éste año, y buscando a la luz de estos modelos, se vea evidencia de esas posibles otras partículas asociadas. De ésto nos habla Matt Strassler (pese a haber sido despedido de su puesto de profesor titular en su universidad, hay que ver que mal de fondos está la física de partículas en los USA, sic): So What Is It???

Debo decir que estaba un poco aburrido de hablar de fluctuaciones estadísticas que tenían muy pocas posibilidades de ser realmente indicios de nueva física, y ha habido muchas estos años. Ésta pinta bastante mejor que todas las anteriores, y confío en que, de una vez, sea algo y no se diluya, pero eso no se puede afirmar.

Aprovecho el resto de la entrada para hacer algo de publicidad. He estado haciendo estos meses un editor de ecuaciones para android. Contiene muchas mas opciones que nada de lo que había disponible en la plataforma. Para empezar incluye el código latex de la ecuación. De hecho la forma de crear la ecuación se apoya en el código Latex, aunque hay, por supuesto, una gran cantidad de símbolos (mas que ningún editor que yo conozca) que, al pulsarlo, escriben el código correspondiente. Además, para no tener que escribir una y otra vez la misma ecuación (hay ecuaciones de uso muy habitual) se pueden guardar las ecuaciones editadas, junto con información adicional, en una base de datos, para crear una “agenda de ecuaciones”. Y tienen bastantes opciones extra que facilitan mucho la vida a quien quiera publicar artículos de física, sea en una revista, sea en un blog. Os dejo los enlaces correspondientes de la google play.

Ésta es la versión gratuita.

dbLatexLitle

Y ésta la de pago (el precio es bastante comedido dada la gran cantidad de opciones que tiene la aplicación).

dbLatex