Singularidades desnudas en agujeros negros 5-dimensionales

mayo 6, 2016

En varios sitios, por ejemplo, physisorg, se han hecho eco de un resultado que considero potencialmente muy interesante.
Five-dimensional black hole could ‘break’ general relativity

El artículo técnico, publicado en physical review letters, tiene su correspondiente versión en arxiv

End Point of Black Ring Instabilities and the Weak Cosmic Censorship Conjecture

Este es el abstract:

“We produce the first concrete evidence that violation of the weak cosmic censorship conjecture can occur in asymptotically flat spaces of five dimensions by numerically evolving perturbed black rings. For certain thin rings, we identify a new, elastic-type instability dominating the evolution, causing the system to settle to a spherical black hole. However, for sufficiently thin rings the Gregory-Laflamme mode is dominant, and the instability unfolds similarly to that of black strings, where the horizon develops a structure of bulges connected by necks which become ever thinner over time.”

En el artículo de physicsorg por “romper” se refieren a que en cinco dimensiones puede darse el caso de lo que se conoce cómo una singularidad desnuda, es decir, un punto singular que no está rodeado por un horizonte de sucesos (la frontera de un agujero negro) y, por tanto, queda esa singularidad expuesta al resto del universo.
Por singularidad pueden entenderse varias cosas diferentes, la mas sencilla de entender es “un punto dónde la métrica se hace infinita”, o dónde la curvatura del espacio-tiempo se hace infinita, o la densidad de materia infinita. Pero quizás no sea esa la clave de la idea de singularidad. Lo importante es que es un punto del espacio-tiempo al que llegan curvas posibles, es decir, puedes llegar a él, hacerlo en un tiempo finito (tanto subjetivo cómo para un observador lejano, recordemos que el tiempo pasa de manera diferente para diversos observadores en función de diversos factores) y, una vez allí, las ecuaciones no predicen que pasa (se puede suponer que se queda allí para siempre, pero no es obvio que deba ser así).

El ejemplo que plantea esta gente es la evolución de un agujero negro en forma de anillo (Un black ring), de un cierto tipo especial, llamado delgado. La existencia de agujeros negros que no sean de forma esférica es algo que no ocurre en 3+1 dimensiones, así que no es posible extender este caso a nuestro espacio observable.

En teoría de cuerdas el universo debe tener 10 (11 en el caso de la variante llamada teoría M, aunque la historia es ligeramente mas complicada que éso) y en algunos escenarios alguna de las 6 que no observamos podría ser lo bastante extensa cómo para que un agujero de esas características se formase, así que éso supone un gran reto para la teoría de cuerdas (a ver cómo describiría esas situaciones, y que conclusiones sacaría) y la relatividad general sencillamente se queda sin herramientas para ir mas allá.
La verdad es que es un resultado que, sí es cierto, es muy importante ya que había la violación de la versión débil de la conjetura de censura cósmica (hecha por Penrose) que afirmaba que algo así no podía ocurrir. Siendo una conjetura no está demostrada, pero sí que había probado ser válida en muchos escenarios y, por ahora al menos, sólo hay este contraejemplo en 5 dimensiones.
La verdad es que estaría bien que no hubiera errores. Estando basado en cálculos en un superordenador es difícil una verificación independiente, y menos sí no se es experto en relatividad general numérica, que es un submundo aparte, pero me parece un resultado lo bastante interesante cómo para que la gente lo contraste (sí no se presta atención a algo así no sé a que se le va a prestar xD) y, caso de aceptarse estaría bien intentar recrear mediante cuerdas la situación, a ver que nos dicen.

Cuando haya leído con calma el artículo, sí veo que hay algo interesante que añadir, editaré la entrada para comentarlo.

Por cierto, imagino que a algunos les habrá extrañado que no mencionase nada sobre el famoso descubrimiento directo de ondas gravitacionales por parte de LIGO hace unos meses. Por un lado andaba liado en esas fechas, pero, más importante, sólo hay un evento. No he visto ninguna crítica por parte de nadie de que el resultado pueda ser falso, y hay rumores de que la colaboración tiene mas eventos candidatos, pero, tras el historial de los últimos años en varias áreas, no voy a estar del todo tranquilo hasta que no se hayan publicado otros eventos bien documentados.

Modelándolo todo

enero 26, 2016

Or at least the good ones😉

El caso es que el gráfico de arriba (que, aclaro, no lo he hecho yo) no es demasiado “polémico”. En el caso del conejo se explica una reacción bioquímica relacionada con la respiración. El río es un fluido y se representa por las ecuaciones de Navier Stokes.  Dentro del sol  se han expuesto las reacciones nucleares de fisión básicas. Debajo de él aparece primero la fuerza gravitacional newtoniana, que es la que permite deducir la órbita que sigue la tierra alrededor del sol. Y, justo debajo, se escriben las ecuaciones de Einstein, que generalizan la teoría grabvitatoria de Newton a situaciones dónde la interacción gravitatoria es mas intensa.  Un poco mas a la derecha, y alrededor del sol, están las ecuaciones clásicas de Maxwell que describen la interacción electromagnética y, en particular, la radiación electromagnética (entre ella la luz visible) que nos llega del sol.

En el cielo, arriba, a la derecha, se ve un proceso que describe la caída de un rayo cósmico energético en la atmósfera que se va desintegrando en partículas cada vez mas ligeras. Debajo de los pájaros aparece la ecuación de Bernoulli de la dinámica de fluidos. Esas ecuaciones son un caso particular de las de Navier-Stokes para situaciones estacionarias, y en las que se ejemplifica la conservación de la energía. El hecho de colocarla junto a los pájaros proviene de que la fuerza de sustentación que mantiene un objeto que vuela en el aire se puede explicar mediante esa ecuación pues la diferencia de velocidades del aire que circula por encima y debajo del ala genera una diferencia de presiones que es la que hace que impulsa el ala hacia arriba. Aclaro que si bien esa ecuación explica muy bien el ala de un avión sospecho que el vuelo de un pájaro debe tener algunos otros factores, al menos en la fase en la que baten las alas.

En los árboles aparece una reacción química que es la contraria a la respiración del conejo ,la fotosíntesis (no soy químico, y no recuerdo los detalles, sí no es exactamente así que alguien me corrija).  En el fondo se ve una línea ondulante, que me imagino pretende representar un paisaje montañoso. Y,  siguiendo esa curva, aparece la expresión de el desarrollo en serie de Fourier de una función. Supongo que  éso significa que se considera que la línea  las montañas tiene algún tipo de periodicidad (ciertamente es muy sinusoidal) y que ,por consiguiente, puede hacerse un desarrollo en serie de Fourier de la gráfica de esa línea.

En la base de las montañas aparece la ecuación de Schröedinger dependiente del tiempo, aunque no entiendo muy bien que se supone que pinta ahí. Abajo, a la derecha, señalando a unas plantas que parecen helechos aparecen unas funciones f1 y f2, expresadas cómo un producto de unas matrices por unos vectores. no están completas y no tengo del todo claro que pueden ser, aunque me imagino que la idea es que sean algún tipo de ecuaciones de ecología matemática (pero no caigo ahora mismo en cuales podrían ser exactamente).

He dicho que esas ecuaciones no son demasiado polémicas porque básicamente, representan procesos físicos y químicos, y la gente normal no tiene problema con aceptar que se puedan describir objetos inanimados, y procesos “básicos” de los objetos animados con leyes matemáticas. Cuando les dices a la gente que eres físico/matemático y les expones estos temas, sí tienen afición por esas materias, normalmente a la gente les parece bien, supongo que porque de algún modo consideran que eso representa que has sido un “chico aplicado y listo” que ha aprovechado el tiempo y esas cosas de la “gente de bien”.

El problema, con alguna gente, es cuando el método científico que se ha utilizado para obtener esas leyes, intenta aplicarse a situaciones que ellos consideran mas delicadas, normalmente cuando afectan a aspectos de las sociedades humanas que se consideran “demasiado complejos”, como podría ser la economía, el arte, la psciología y demás. Aparentemente, para alguna gente, y según sus diversas orientaciones, sí te planteas, cómo es lo normal, hacer modelos matemáticos sobre estos temas parece cómo que estés intentando atentar contra su individualidad, el “espíritu humano”,  algún tipo de “orden divino”, la “armonía de la naturaleza”, o vaya usted a saber qué.

El tema enlaza también en parte con la muy manida frase ¿para que sirven las matemáticas sí yo no las uso en la vida cotidiana? Sé, por amplia experiencia  en discusiones con mucha gente, que de momento es prácticamente imposible que se disipe la polémica, y, en consecuencia, todo lo que voy a exponer, va a ser en buena parte tiempo perdido, pero, inevitablemente, a la larga, se irá imponiendo la realidad y se verá que sí se pueden hacer todo ese tipo de cosas y que ¡no pasa nada!, nada malo al menos, mas bien todo lo contrario. De hecho, aunque mucha gente lo ignore, ya hay mucho hecho en ese terreno (pero no remotamente lo que se podría y debería estar haciendo).

Lo primero es dejar claro que, para casi (dejo el casi por generosidad xD) cualquier actividad humana hay siempre algún tipo de modelo cognitivo.  Dependiendo de la actividad el modelo cognitivo será mas o menos elaborado. Cuanto menos habrá un modelo verbal, y el lenguaje en si mismo es un modelo de la realidad. Pero mediante modelos verbales no se puede llegar muy lejos, y siempre hay que procurar ir mas allá.

Voy a elegir, para empezar, un tema que conozco en relativa profundidad, la música. Ahí tenemos una realidad un conjunto de sonidos y silencios, que siguen una cierta pauta, hechos con diversos tipos de instrumentos musicales, incluida la voz, y que es considerada, normalmente “agradable”.

Bien, hoy día la música se representa en una partitura. Éso no fue siempre así. De hecho hubo un largo camino hasta obtener un sistema para poder poner en un papel una representación del hecho musical. En mi antiguo livejournal (sigue existiendo, pero ya no escribo)  puse en su momento una entrada sobre música medieval dónde, entre otras cosas, explico un poco la historia de la notación musical. La partitura es una construcción muy astuta pues plasmar algo tan complejo como el fenómeno musical no es nada trivial, pero no deja de ser un lenguaje escrito. Realmente la teoría musical va mucho mas allá del solfeo y consta de cosas cómo armonía, contrapunto, formas musicales, teoría de la melodía, teoría del acompañamiento, orquestación, etc, etc.  Y eso para música clásica, luego, para música electrónica hay que conocer un montón de aspectos sobre sintetizadores, samplers, secuenciadores, etc. Es curioso que la gente piense que la música es algo de “tener oído”  y “tocar un instrumento” para poder hacerla  y “sensibilidad musical” para apreciarla, pero la realidad es que sí se quiere ser un gran músico con eso no basta. La música clásica es totalmente académica, y requiere una extensísima formación muy regulada, pero incluso la música de jazz o el flamenco, que son mas “improvisados” requieren formación, mas anárquica, pero formación.  incluso la mayoría de los músicos pop que se saben “tres acordes” normalmente sí han (tal vez algunos no al inicio) estudiado mucha mas música de la que parece, y no sólo clases de instrumentos (obviamente de todo hay xD).

Lo interesante es que la teoría musical clásica, cuya base es la armonía, en particular la armonía tonal, (a partir del periodo clásico antes se hacía música contrapuntística, y la teoría formal armónica estaba en sus inicios) es un modelo cognitivo bastante complejo, y bastante astuto. En última instancia la armonía tonal está en  buena parte en relación con el análisis de Fourier en el sentido  de que los acordes que “suenan bien”, las terceras, son una nota base y otras que son armónicos de esa nota base. Y luego, una vez establecidos los acordes se crea una teoría de “tensión/relajación” (acordes en función de dominante y tónica respectivamente) y otras funciones armónicas de paso, que también tienen una cierta correspondencia con la teoría de Fourier, aunque posiblemente ahí pesen mas otros elementos.  En su momento recogí en el livejournal un estudio de unos psicólogos que relacionaban las funciones armónicas de tónica y dominante con estados psicológicos registrables mediante sensores, y lo relacionaban con la teoría matemática del caos determinista, viniendo a plantear que las funciones de dominante y tónica sería lo que se conoce en matemáticas cómo “atractores”. Podéis leer detalles en Math, psicology & music.  En esas dos entradas del livejournal abundo sobre aspectos de teoría musical, así que no me extenderé mucho mas aquí con ello. Lo interesante es que un modelo artístico, la teoría de la armonía clásica, esta muy relacionada con la teoría de Fourier (que es la base de la física del sonido), y que, mas adelante, se ve que hay indicios de que esa teoría músical pueda tener bases neuronales que se pueden modelizar mediante un sistema de ecuaciones diferenciales no lineal. Desde luego ha habido mas intentos de hacer correspondencia entre la música y la matemática, de otra índole. El siglo XX, una vez explorados muchos aspectos de la armonía tonal, llevó a considerar buena idea la música atonal, y para éso se crearon técnicas musicales específicas. la mas sencilla fué el dodecafonismo (obra de Arnold Schöemberg),  que establecía que cualquiera de las 7 notas naturales y sus correspondientes alteraciones (bemoles o sostenidos), osea, las doce notas, debían estar en pie de igualdad, y creó una técnica contrapuntística que permitía crear, de forma metódia, música en la que ninguna de las notas fuera mas importante que el resto. Mas adelante Boulez y otros ¿Stockhausen? llevó esa fórmula al extremo haciendo que no sólo ninguna nota tuviera un papel preponderante de forma tonal sino también a nivel rítmico, llevando al serialismo integral. El caso es que en esas teorías, aunque sobre el papel pautado (la partitura) eran bastante razonables obviaban toda la parte de la física del sonido. Esa gente pensaba que el sonido se habituaría a las disonancias extremas, lo mismo que se había ido habituando a la pualatina introducción de disonancias en los acordes de dominante (que aumentaban la tensión y daban variedad), pero, en función del muy escaso éxito de la música serial en el gran público parece que no fué así. Es posible que la causa última sea que ignoran la física del sonido, aunque la escisión de la cultura entre pop y académica en la segunda mitad del siglo XX es un tema muy complejo, y espero que algún día se vuelvan a fusionar, y que los intentos de confluencia actuales prosperen cuanto antes, pero ésa es otra historia.

Bien, la música es un caso interesante porque hay un modelo cognitivo endógeno (la teoría musical) que conecta de forma muy natural con la física, pero ¿hay mas casos? Ciertamente, pero mucho me temo que se me hace tarde y tendré que dejarlo para otro día, lo cuál, la gente que me conozca, esta al tanto de que eso es señal de que a saber cuando vuelvo a escribir sobre el asunto xD.

 

¿Es un pájaro, es un avión? ¡No, es superbump!

diciembre 19, 2015

Este año el LHC ha funcionado de manera bastante irregular, con bastantes problemas operativos, y a consecuencia de ello ha acumulado bastantes menos datos de los esperados. Los primeros resultados, expuestos en verano, no dieron grandes titulares, y sólo se vieron unas cuantas fluctuaciones estadísticas no muy significativas (que no obstante han dado lugar a un buen número de artículos.

Este martes, sin embargo, se ha hecho público el anuncio del análisis mas reciente de los datos acumulados y ha surgido la evidencia experimental mas firme de nueva física mas allá del modelo standard que se ha visto hasta el momento en ningún colisionador. La señal consiste en un exceso de difotones (osea, emisión de dos fotones cómo consecuencia del decay de una partícula) a una energía de 750 GeV. La señal se ha observado, para la misma partícula, en los dos grandes detectores del LHC, atlas y CMS.

ATLAS ve un exceso de 3.6 sigmas y CMS ve otro, del mismo tipo, y para los mismos valores, de 2.6 sigmas. Combinando ambos resultados la significación estadística sube a unos 4.4 sigmas. En esos datos hay que tener cuidado con el efecto “Look somewhere else” (y tener cuidado de no contarlo dos veces), lo cuál rebaja la significación estadística total. Dado que en física de partículas se necesita una significación estadística de 5 sigmas, por cada uno de los detectores, y sin considerar el efecto ése de “Mirar a cualquier otro lado”, los resultados no son firmes, y sigue teniendo, por ahora, el status de una fluctuación estadística. Eso sí, la mayor vista hasta el momento en un acelerador de partículas que no se corresponda con una partícula del modelo standard. Dado que la matemática de ese modelo se cerró (al menos en lo mas fundamental) a finales de los 70, y desde entonces todo lo que se ha encontrado pertenece a ese modelo estamos hablando de la mayor evidencia de física de partículas mas allá del modelo standard en unas 4 décadas.

Tomasso Dorigo (un físico que trabaja en uno de los detectores del LHC) analiza con mucho detalle los aspectos estadísticos en esta entrada de su blog.

Un aspecto llamativo es que en el Run I del LHC, efectuado a energías de 7 TeV, no había signo alguno de esa señal. La energía extra del Run 2 (que funciona a 13 TeV) permite que exista esa partícula, y que no haya evidencia a menos energía, pero eso supone bastantes restricciones. Cómo quiera que es la mayor evidencia experimental de nueva física en tantísimo tiempo ha habido ya, desde el martes hasta aquí, bastantes artículos analizando la cuestión (obviamente los autores tenían noticias de la señal antes del anuncio oficial).

Hay propuestas desde muchos ángulos posibles. Una de las primeras cosas que parecen estar claras es que la partícula debe ser una partícula vectorial, de spin distinto de 1 (existe un teorema, de Landau-Yang, que afirma que una partícula de spin 1 no puede decaer a dos fotones). Eso, para los amigos de SUSY, lleva inmediatamente a plantearse que pueda ser uno de los 5 bosones de Higgs (en el modelo standard sólo hay 1) que hay en los modelos supersimétricos. Eso sí, al no haber sido observada previamente en el Run I se puede verificar que sí es uno de esos Higgs estaríamos en versiones del modelo standard supersimétrico distinto al mas sencillo posible (El MSSM, minimal supersymmetric standard model).

También hay buenos motivos para descartar que sea una partícula de spin 2 (osea, en la práctica, una excitación tipo kaluza-klein del gravitón en una dimensión extra).

Bien, eso es lo que, más o menos, está descartado que sea, y las características generales de lo que debe ser. Dentro de esos límites hay varias posibilidades. En supersimetría se ha propuesto que pueda ser un sgoldstino. Lubos analiza los artículos que tratan esa posibilidad en <a href="http://motls.blogspot.com/2015/12/sgoldstino-at-750-gev-prevails-in.html"<esta entrada.

Un análisis, en español, de muchas de las posibilidades extra analizadas hasta ahora puede encontrarse en el blog de Francis.

Posibles partículas responsables del exceso a 750 GeV en el LHC Run 2

Lo interesante es que, caso de ser una señal auténtica, está en un punto dónde las posibilidades son relativamente escasas. La mayoría de los modelos requieren que, sí la señal es una nueva partícula, debe haber mas partículas de energías similares que se verán el año siguiente en el Run 2, o, incluso, que reexaminando los datos ya acumulados de éste año, y buscando a la luz de estos modelos, se vea evidencia de esas posibles otras partículas asociadas. De ésto nos habla Matt Strassler (pese a haber sido despedido de su puesto de profesor titular en su universidad, hay que ver que mal de fondos está la física de partículas en los USA, sic): So What Is It???

Debo decir que estaba un poco aburrido de hablar de fluctuaciones estadísticas que tenían muy pocas posibilidades de ser realmente indicios de nueva física, y ha habido muchas estos años. Ésta pinta bastante mejor que todas las anteriores, y confío en que, de una vez, sea algo y no se diluya, pero eso no se puede afirmar.

Aprovecho el resto de la entrada para hacer algo de publicidad. He estado haciendo estos meses un editor de ecuaciones para android. Contiene muchas mas opciones que nada de lo que había disponible en la plataforma. Para empezar incluye el código latex de la ecuación. De hecho la forma de crear la ecuación se apoya en el código Latex, aunque hay, por supuesto, una gran cantidad de símbolos (mas que ningún editor que yo conozca) que, al pulsarlo, escriben el código correspondiente. Además, para no tener que escribir una y otra vez la misma ecuación (hay ecuaciones de uso muy habitual) se pueden guardar las ecuaciones editadas, junto con información adicional, en una base de datos, para crear una “agenda de ecuaciones”. Y tienen bastantes opciones extra que facilitan mucho la vida a quien quiera publicar artículos de física, sea en una revista, sea en un blog. Os dejo los enlaces correspondientes de la google play.

Ésta es la versión gratuita.

dbLatexLitle

Y ésta la de pago (el precio es bastante comedido dada la gran cantidad de opciones que tiene la aplicación).

dbLatex

Escribiendo latex con estilo, y con stylus

agosto 21, 2015

Edición: Cómo quiera que no me convence del todo lo de crear las ecuaciones en la página web que menciono en el texto he creado una pequeña aplicación que permite usar el programa myscript smart note sobre el que versa esta entrada de una manera más sencilla para crear ecuaciones y usar su código látex en blogs, como éste o los de blogspot que usen algún extra para poder usar latex.

El programa funciona de la siguiente manera. Uno hace una ecuación en myscript smart note, la selecciona y elige exportar como archivo latex. Eso genera un fichero de texto, que se puede guardar con según que programas. Sí se instala el que he hecho, y que he llamado AMyScrptClipBoard éste aparece en la lista de exportación y muestra la ruta del archivo, el contenido completo del mismo y, en un cuadro de texto editable, el código latex de la ecuación. Además, inmediatamente, ha copiado al portapapeles el código latex. Tiene tres botones que permiten añadir las etiquetas de apertura y cierre de ecuación típicas de wordpress y blogspot con el plugin habitual. El tercer botón elimina las etiquetas y deja sólo el código latex. Cualquiera de los botones, además, manda lo que muestra en el cuadro de texto al portapapeles.

Aviso que, en el momento de escribir ésto, el programa es muy cutre en su interfaz, y es mejorable de muchos modos. Aún así es útil y dejo por aquí el enlace, por si alguien lo quiere probar. AMyScrpClipboard

Y, ya por el vicio de usarlo, algunas ecuaciones hechas mediante el procedimiento descrito.
\left( a+b\right) ^{2}=a^{2}+b^{2}+2ab

\sigma _1=\left(  \begin{array}{cc}   0 & 1 \\   1 & 0  \end{array}  \right)

Cómo mencioné en la primera entrada sobre masas negativas había encontrado, mediante la opción de compartir de android, una forma relativamente sencillla de poner ecuaciones en las entradas desde el note. Basicamente la idea es que con el S-pen puedo recortar una imagen y compartirla con worpress, usando la apliación para android (añadiéndola a la librería multimedia directamente, sin usar entremedias scrpapbook cómo hice entonces).

Eso está bien, pero tiene sus limitaciones. Por un lado blogspot no tiene en su aplicación para android la posibilidad de añadir imágenes a una librería multimedia así que no me sirve en el otro blog. Y, claro, hay un tamaño de almacenamiento limitado y sí me pongo a escribir imágenes lo llenaría demasiado deprisa. También está el hecho de que sí se trata de ecuaciones que no tengo escritas en un libro y las escribo a mano en el tablet no quedan muy presentables. Y, además, estoy desperdiciando la capacidad nativa de wordpress de renderizar latex (y la no nativa, pero también existente de blogspot).

El programa S-note de los dispositivos note tiene un sistema de reconocimiento de ecuaciones, pero, excepto en la versión inicial, primero escribes toda la ecuación y luego, tras seleccionarla, la convierte en imagen, y no siempre acierta y debes reescribirla y probar de nuevo, lo cuál no es una buena estrategia. Y, además, no te exporta la ecuación a latex sino que te la manda al dichoso wolphram alpha, que no me gusta nada. Hay editores de ecuaciones para android, alguno de los cuales te permite exportar a latex, y no están mal, pero, leñe, ya que tienes el S-pen lo suyo es que se pueda usar, que es mas rápido e inmediato. Había buscado en su momento, pero no dí con nada, Ahora he vuelto a buscar y dí con un programa que casi, casi hace lo que le pido, myscript smartnote.

El editor de ecuaciones, en cuanto trabajas con él un poco para que se habitúe a tu escritura, y le pilles el truco a algunos caraceteres rebeldes, funciona muy bien y muy rápido. Con eso tienes una imagen que puedes exportar a la librería multimedia, lo cuál está muy bien. También te exporta a texto plano una representación de la ecuación, usando los símbolos de las fuentes habituales, bastante aproximada, y así puedes hacer un paste desde el portapapeles. Y, por último, tiene una opción de exportar a un archivo latex (extensión de texto con extensión .tex) el código latexde la ecuación, junto con un código de apertura del documento. De hecho puedes exportar todo el documento a latex, lo cuál es genial si quieres hacer un archivo para publicar en arxiv. Y también te genera el pdf. Todo ello es excelente, y muy útil, pero, por desgracia, no me permite exportar al portapapeles el código latex de una ecuación concreta, y sólo ese código.

Tras pillar la versión completa del programa (cuesta alrededor de 2 euros en una compra integrada) me puse en contacto con el servicio de soporte para pedir que incluyeran esa característica. Me respondieron rápido, y de manera muy amable, informando que consideraríanpara el futuro la posibilidad, pero no de forma inmediata, y ¡horror!, que mientras tanto usara una aplicación para IOS, que si tiene esa característica. El problema, por supuesto, es que los dispositivos IOS (Ipad y Iphone) son una castaña en general (salvo para audio) y, desde luego los stylus disponibles para el Ipad son todos una birria comparados con el S-pen. Les volví a escribir y me dieron otra opción temporal, hasta que añandan la característica al programa, una demo online del editor de ecuaciones que sí tiene la opción de ver el latex (o mathml), en un cuadro de texto que hay abajo, y copiarlo al portapapeles.

image

La demo es mas lenta que el programa nativo, y posiblemente deba lidiar con muchas letras manuscritas a la vez y no se hace con la tuya. No obstante funciona de forma razonable y le puede ser útil a cualquiera que tenga algún stylus wacom o ntrig (cómo en las surface).

Por cierto, en windows la versión de onenote para escritorio permite añadirle un plugin, microsoft math, que sí tiene esa opción, y muchas más. Incluso sin el plugin tienes un editor de ecuaciones muy majo, que permite reconocimiento de escritura a mano de ecuaciones. Desafortunadamente la versión para android de onenote no tiene esa opción.

Aprovecho para reseñar que ha salido la versión 5 del note phablet, pero es una basura infecta que no trae microSD, ni batería extraible. Algunos dicen que tampoco tiene MHL para poder conectarlo por HDMI a la televisión , e incluso que no tiene USB OTG para conectarlo a un pendrive, o cualquier otro dispositivo bluetooth. No sé si esto último es cierto, pero ya sólo por no llevar microSD me resulta inutil (un serivico de almacenamiento en la nube, no importa el tamaño, nunca me serviría de sustituto) así que descarto totalmente la compra de esa porquería, que es casi tan mala como un Iphone (su única ventaja es que tiene un stylus y android, y mas potencia hardware). Y de un sucesor del note 10-1 no se sabe nada (y si va a seguir los pasos de su primo phablet mejor no saberlo).

Eso me lleva a señalar que el windows 10, tanto para sobremesa como para tablet (includo el modo tablet en un sobremesa) funciona muy bien. Y, aparte de las carísimas surface hay tablets chinas que incluyen un stylus wacom (mejor que el ntrig de la última surface) a un precio muy assequible, cómo la Icube stylus. A día de hoy las aplicaciones para tablet de android son muy superiores a las que hay para windows (lo sé porque, aparte del note 10.1, tengo un tablet dual boot windows y android chino de 8 pulgadas muy barato -unos 100 euros- el chuwi vi8, que, desafortunadamente no tiene stylus) y sólo las de escritorio están por encima, aunque no son demasiado cómodas de usar en un tablet. En fin, Android ha mejorado mucho, y hay ya excelentes aplicaciones, en constante mejora, pero si google y sus secuaces (cómo Samsung ultimamente) siguen recortando opciones hardware para forzar que la gente se pase a la nube yo, y muchos, dejaremos de usar productos de Goolge (y Samsung), pero, por ahora, con el hardware android que tengo en éste momento, las soluciones para latex, y escribir ecuaciones matemáticas usando un stylus, son las que comento en el artículo. Sí alguien conce algo mejor se agradecería que lo expusiera en los comentarios.

Early quantum electrodynamic (book review)

agosto 11, 2015

El verano es una buena época para leer libros “recreativos”, y uno sobre la historia de la física claramente entra en esa categoría, aunque con un plus  de interés. En su momento me había leído el  libro de historia de la mecánica cuántica, parte I, de Jose Manuel Sanchez Ron, y me resultó muy interesante e instructivo. Desde entonces he estado esperando que saliera la segunda parte, pero la verdad es que se está retrasando mucho. También problé a leer otros libros sobre el tema, que siguieran desde el momento en que lo deja Sanchez Ron (ka publicación de la ecuación de Schroedinger y de la mecánica matricial de Heissenberg), pero no me terminaron de convencer (demasiado texto y demasiadas pocas fórmulas), Afortnadamente el libro del que trato en esta entrada sí trae todas las fórmulas oportunas😉.

Arthur I Miller  Early Quantum Electrodynamics: A Sourcebook

wpid-wp-1439264231130.jpeg

E libro se divide en dos partes. La primera, de unas 100 páginas, es la descripción histórica de los desarrollos en electrodinámica cuántica hechos entre 1927 y 1938, es decir, los primeros desarrollos de la misma. La electrodinámica cuántica es la interacción de partículas cargadas, principalmente el electrón, con la luz, es decir, con los fotones. En la forma actual se enseña cómo la ecuación de Dirac que representa a el electrón, acoplada a un campo electromagnético mediante un término de interacción cúbico. También se puede escribir, y es mas convencional verlo así, en términos de la derivada covariante asociada al campo gauge electromagnético.

image

siendo la derivada covariante

image

El caso es que, siendo la teoría cuántica de campos mas sencilla realizada en la naturaleza dista mucho de ser una teoría simple. En los cursos introductorios de teoría cuántica de campos se utiliza una teoría “de juguete”  para aprender el formalismo, el campo escalar interactuando consigo mismo con un término cuadrático. La QED tiene muchas mas dificultades, por un lado la ecuación de Dirac es espinorial, por otro el eletromagnetiso es una teoría con invarianza gauge que tiene dos problemas de renormalización, la ultravioleta, asociada a altas energías, y la infraroja, asociada al hecho de que los fotones pueden emitirse con una energía arbitrariamente baja.

Bien. esa versión de la QED que se estudia ahora debe mucho a Tomonaga, Schwinger y, sobre todo, a Feynman. Pero el libro trata de la primera generación de físicos que se ocuparon del tema, que incluye a un montón de nombres ilustres, Heisenberg, DIrac, Pauli, Fermi, Weiskopf, y, en general, la creme de la creme de esa época dorada. Lo curioso es que lo que ellos hicieron se parece muy poco a lo que se ve ahora.Para empezar casi no usaban los lagrangianos y todo se hacía con Hamiltonianos. En realidad hoy, en los curos de introducción, se siguen enseñando métodos hamiltonianos para ver la cuantización canónica, en la que se impone la tranformación de los corchetes de POisson clásicos de la teoría de campos correspondientes en operadores, lo cual lleva a l aintroducción de los operadores de creación-aniquilación. Pero, claro, en esa época acababan de crear una teoría para una partícula, el paso a una teoríacon varias partículas fué, el primer paso, y de eso va el segundo capítulo del libro (el primero es sobre todo introductorio). Esa parte la hicieron Jordan, en 1926, DIrac, y Pauli.

Lo siguiente es la ecuación de Dirac, y su interpretación en términos de huecos, y la descripción del campo electromagnético, y ese es el tercer capítulo del libro. Ya aviso que lo que ahí viene no es lo que se hace hoy día en QED. Se ocupan más de cosas como la masa del electrón, y el problema que supone un “mar de DIrac”, es decir, un conjunto infinito de electrones, con energía negativa. El problema viene cuando se considera el hecho de que ese número infinito de electrones dbería generar un campo eléctrico infinito, y hay que ver cómo se lidia con eso.

El cuarto capítulo abunda en esos problemas, y se va viendo como restar cantidades infinitas (preludio de lo que luego sería la teoría de renormalización), la a ecuación de Klein-gordon (el electron bosónico, cómo lo llamban), la conexión spin estadística, tema que se ve de forma distinta a la actual, debida a Schwinger, basada en causalidad. Pauli, responsable de esa primera versión, observó una analogíia entre las relaciones de los operadores de creación y aniquilación y las matrices de Dirac, y elaborando de aquí y allá llego a convencerse, correctamente, de que en relatividad especial el espín determina la estaadística.

El quinto, y último tema, trata las fuerza nuclear. A priori puede parecer un poco fuera de sitio en un libro sobre QED, pero en realidad es vital. Es importante, y sorprendente, darse cuenta de que cosas quedamos por sentadas no fueron nada obvias. Hasta 1932 se creía que el nucleo constaba de protones y electrones. Fue descubrimiento de un nucleo, el N^{14} que experimentalmente se ve que tiene spin entero, pero debería tenerlo semientero (14 protones y 7 electrones). Eso justificó la introducción del neutrón. Mas conocida es la introducción porparte de Pauli del neutrino para explicar que en el decaimiento beta el electrón pudier atener cualquier momento (y así salvar la conservación del momento). Aparte de eso lo mas relevante para la QED, y para las teorías de campos en general, es que de ahí surgieron las ideas de partículas intermediadoras de las fuerzas. EN realidad la primera idea surge del ión del helio, en el que se puede ver queel electrón compartido entre los dos protones, puede considerarse como un mediador.Pero eso no es muy convincente. Heisenber consideró, antes de la teoría del neutron, un mecanismo en que el intercambio de un electrón jugaba un papel en la teoría nuclear. Como es bien sabido no fué hasta que Yukawa presentó su teoría del pión que eso se consolidó, pero eso no ocurrió hasta 1935, y aún pasó un tiempo hasta que el aporte de Yukawa paso a ser reconocido. Eso signifca que la visión actual de las fuerzas mediadas por partículas bosónicas vino mas tarde, sobre todo con Feynman, y sus diagramas, y que todo el trabajo de esa primera época no tiene ninguna relación con ese punto de vista.

La segunda parte del libro, hasta llegar a unas 250 páginas, consta de algunos artículos selectos de la época, algunos de ellos traducidos del Alemán, y, aunque se les menciona en la otra parte, pueden leerse de forma independiente.

En definitiva, un libro muy interesante en su contendio y bastante bien esccrito, muy recomendble en definitiva.

Cómo el libro se queda en 1938, y eso deja fuera muchos aportes, tengo intención de leer otro libro sobre historia de la teoría de campos, clásica y cuántica, que cubre la relatividad general y la teoría cuántica de campos, incluyendo los campos gauge. Aunque uno conozca la presentación actual de esos temas es muy interesante saber el desarrollo histórico. La relativdad general es algo de lo que hay bastante material, pero de teoría cuántica de campos no tanto, y es bueno hacer publicidad del material existente.

Sobre la masa negativa

agosto 6, 2015

Como buen aficionado a la ciencia ficción me gustaría que ya existiesen cosas como los agujeros de gusano, los motores de distorsión (warp drives) y, en general, el tipo de cosas que las ecuaciones de la relatividad general nos muestran que seríab posibles si existiera la “materia exótica”, entendiendo como tal aquella que viola alguna de las condiciones de energía positiva.

El caso es que los medios habituales para conseguir esa materia exótica requieren crear dispositivos como las placas paralelas del famoso ejemplo de Casimir. La idea es simple, uno junta mucho dos placas metálicas y en la zona entre ambas se produce una cancelación de modos cuánticos que hace que en medio de las placas haya una muy leve violación de esas condiciones de energía positiva, es decir, que haya “energía negativa”.  Hay muchos problemas en llevar esa idea a una realización experimental y, en todo caso, la energía negativa es tan pequeña que no sirve para gran cosa.

Eso me llevó a plantearme una cuestión. En una zona del espacio normal, dónde se verifican las condiciones de energía positiva, se crean partículas de masa positiva ¿Sería factible que en las zonas de energía negativa se crearan partículas de masa negativa?. Caso de ser así sería muy útil. Uno podría tener sus placas de Casimir creando partículas de masa negativa, que podríamos extraer y almacenar, Esas partículas estarían disponibles como materia exótica una vez retiradas las placas, Claramente, cómo la cantidad de energía negativa es muy pequeña, sólo se podrían crear partículas de masa muy pequeña. De las partículas conocidas los únicos candidatos posibles serían los neutrinos, que no pueden ser almacenados, pero bueno, si damos con otra forma de crear zonas de mayor energía negativa tal vez pudieramos crear cosas como electrones “exóticos”.

Busqué si había algo en internet al respecto de la masa negativa y sólo encontre, en ese momento, una referencia a un trabajo de Robert L. Forward, físico y famoso escritor de ciencia ficción hard. Ahi explicaban que había que tener en cuenta la masa inercial por un ladoy la gravitacional por otro, y venía un análisis detallado de la masa gravitacional usando física newtoniana. Me pareció un análisis muy insuficiente así que me puse, en  ratos libres, a intentar hacer un análisis usando teoría cuántica de campos y relatividad general, y con algunas consideraciones de teoría de cuerdas, que es lo suyo en estos tiempos.

El punto de partida sería la ecuación de Klein-Gordon

wpid-wp-1438838368659.png

Ahí se puede observar que la masa aparece en un único término, y aparece elevado al cuadrado así que curiosamente, no se distingue una masa positiva de una negativa. Uno podría pensar que esto implica que la ecuación de KG es totalmente insensible al signo de la masa, pero uno debería ser cuidadoso y examinar con cuidado mas detalles de la misma. Bien, una de las cosas que son importantes en la ecuación de KG es que debe definir una densidad de probabiliad y una corriente conservada. Sí alguien ha estudiado mecánica cuántica ordinaria habrá visto que la densidad de probabilidad es el cuadrado de la función de onda \Phi^*\Phi . En una teoría cuántica de campos eso no es automáticamente así. La densidad de probabilidad va a ser la componente 0 de una cuadricorriente de Noether asociada a simetrías externas. Para el caso del campo escalar la densidad toma la forma (ver, por ejemplo, el libro de Hatfield “Quantum field theory of point particles and strings”:

image

Uno ve inmediatamente que en esa densidad de probabilidad la masa aparece dividiendo, y sin elevar al cuadrado. Eso significa que la densidad de probabilidad de una partícula de masa negativa será la opuesta de la de una de masa positiva. A poco que uno esté familiarizado con la teoría cuántica de campos ya sabrá la historia de la ecuación de Klein-Gordón: aparecen estados de probabilidad negativa, pero estos pueden ser interpretados como antipartículas que pueden interpretarse como antipartículas que viajan hacia atrás en el tiempo. Sí nos vamos a el campo escalar complejo puede probarse que éste campo tiene una simetría interna U(1), que, vía teorema de Noether, se convierte en una corriente cuya integral en una superficie cerrada da una carga que uno podría asociar (aunque no necesariamente) con la carga eléctrica. Se puede ver que las antipartículas tienen masa negativa. Pues bien, según éste análisis uno podría extraer la conclusión de que cambiar el signo de una masa -en este contexto masa inercial- es equivalente a intercambiar partículas por antipartículas, lo cuál choca con la hipótesis, no demostrada, de que partículas y antipartículas tienen la misma masa. Todo ésto es para la ecuación de KG libre, luego ya analiamos que pasa con las interacciones entre partículas, y con eso de que las antipartículas puedan tener masa negativa.

Antes de ir con otra ecuación vamos a otro aspecto importante, el de el campo gravitatorio creado por las partículas. En las ecuaciones de Einstein la parte que describe la materia es el tensor energía momento. Ese tensor aparece en los libros de teoría clásica y cuántica de campos, para la relatividad especial. Viene a ser poner en una cantidad tensorial las cantidades conservadas que se enseñan en los cursos de mecánica lagrangiana. Recordemos, asociada a una simetría del lagrangiano bajo traslaciones espaciales hay una cantidad conservada, que es el momento lineal. Asociada a una simetría bajo rotaciones se asocia la conservación del momento angular, y asociada a una invarianza bajo traslaciones temporales se asocia la conservación de la energía. Combinando eso en un tensor se obtiene el susodicho tensor energía-momento.

image

Esa expresión es válida en relatividad especial. En relatividad general hay que sustituirla por otra, que viene a ser la variación de el lagrangiano respecto a la métrica (los detalles vienen discutidos en, por ejemplo, el libro de relatividad general de Wald, en el apéndice sobre formulación Lagrangiana de la relatividad general”. La expresión concreta es:

image

Donde Sm es la acción de la materia. Para el lagrangiano de KG, en un espacio curvo (que es el normal, pero sustituyendo las derivadas normales por derivadas covariantes) el resultado de evaluar esa expresión nos da:

image

Se puede observar que, una vez mas, la masa aparece al cuadrado y, por tanto, según eso, una masa negativa debería producir exactamente el mismo campo gravitatorio que una masa positiva, lo cuál es realmente chocante. En los libros dónde se obtiene esa expresión no he visto ninguna mención de ese hecho, aunque me consta que la gente de relatividad general ha analizado la masa negativa. Hablaré mas de ese aspecto posteriormente. De momento una observación basada en un cálculo (trivial) propio. Sí uno coge un tensor energía momento clásico el caso mas sencillo es el de un fluido perfecto (es decir, de viscosidad nula). Ese tipo de tensor se usa en los modelos cosmológicos mas sencillos, cómo el de FRW (Friedman-Robertson-Walker), o el de la ecuación de Tolman-Openheimer para modelizar una estrella (soluciones interiores de la ecuación de Schwarschild). Su expresión es:

image

En esa ecuación rho es la densidad, u la cuadrivelocidad del fluido y P la presión. La masa total es la integral de la densidad. Obviamente ahí una masa negativa significa una densidad negativa. Sí se va a usar en una ecuación cómo la de Schwarschild rho debe tener simetría radial y, por tanto, las integrales serán sólo en la coordenada radial. Un caso entretenido es el de una capa esférica de densidad negativa (y, para simplificar, presión nula). Sí uno resuelve la ecuación correspondiente se obtiene de forma muy sencilla que sí esa capa externa de densidad negativa tiene la misma masa que la masa interna positiva se obtiene en el exterir la métrica de Minkowsky en esféricas, es decir, se ha apantallado la masa interior (esto es entendible también desde el análogo para relatividad general del teorema de Gauss en electroestática, el teorema de Ostrogowsky creo que se llama). Éso podría permitir cosas muy entretenidas desde el punto de vista de la ciencia ficción. Se podría, por ejemplo, ocultar gravitatoriamente cosas cómo un planeta (o una nave cómo la estrella de la muerte). Sí eso se combina con una ocultación visual nos lleva a la posibilidad de que una raza alien pudiera colocar un planeta, o una luna, al lado de la tierra y no se lo podría detectar😉.

Bien, volvamos a un terreno mas serio. Al principio había mencionado que la materia exótica era la que violaba alguna condición de energía positiva, pero no había explicado en que consiste eso. La razón es que explicar ese concepto requiere el tensor de energía momento y aún no lo había definido. La idea es que la mayoría de tensores energía-momento son de la forma 1 de la clasificación de Hawking-Ellis.

image

Se ve que es muy parecido al tensor de un fluido ideal, con una densidad y una presión. La idea es que ese tensor, contraido con cuadrivectores, debe dar un resultado positivo. Cómo en relatividad hay cuadrivectores positivos, negativos y nulos no es tan sencillo cómo el caso de formas bilineales definidas positivas y hay varias definiciones posibles para la energía positiva. Visser en su libro de referencia sobre agujeros de gusano enumera 7 tipos diferentes. En el siguiente apartado hace un análisis de las posibles violaciones. Lo primero que nos enseña es que el campo escalar de Klein-Gordon no viola ninguna de esas condiciones. Lo hace para masa positiva, pero, cómo ya hemos visto, también es válido para masa negativa.

El siguiente ejemplo que analiza es el de Casimir, que tanto he mencionado. El truco es que las placas paralelas conductoras modifican el vacío de la electrodinámica cuántica.

image

El tensor correspondiente es

image

Ahí z es la coordenada perpendicular a las placas, separadas por una distancia a. Se puede ver facilmente que ese tensor viola varias de las condiciones (un buen signo de ello es que la densidad es negativa). Es interesante señalar que la materia de las placas es ordinaria y que es un efecto cuántico, debido a la modificación de la energía del vacío en QED, debido a las placas, la que genera la energía positiva. Es decir, no se necesita materia exótica para tener energía negativa. Lo interesante sería que se pudiera crear una zona de energía negativa para crear materia exótica. Visser analiza algún ejemplo más cómo por ejemplo el entorno de un agujero negro (vacío de Hartle-Hawking) y ve que allí hay una violación considerable de las condiciones de energía positiva. También algunos campos de los que se usan en modelos de quintaesencia para explicar la expansión acelerada del universo hay violaciones de la condición de energía débil. Realmente uno podría considerar que esos campos son energía exótica, pero no tienen masa negativa, y no cubren el analisis que yo pretendía. Ya hemos visto que con un campo de Klein-Gordon no se puede lograr eso.

La siguiente opción, en orden de complejidad, dentro de las ecuaciones relativisatas es la de Dirac.

image
Aqui la masa no esta elevada al cuadrado así que esta ecuación distingue masa positiva de negativa ¡Menos mal! Pero no cantemos victoria todavía, que también nos va a dar unas cuantas sorpresas.

En fin, veo que, cómo es habitual, en cuanto intento explicar algo que considero medianamente interesante las entradas se vuelven muy largas así que lo dejo aquí de momento. Quedan muchas cosas que comentar, cómo por ejemplo las ligeras relaciones entre ésto y la correspondencia AdS/CFT de Maldacena, las ecuaciones para spin mayor que 1/2, el caso del bosón de Higgs, etc, etc.

Quien me conozca seguramente estará aterrado ante semjante afirmación porque sabe de mi tendencia a no publicar las entradas sucesivas de un tema cuando decido dividirlo en varias partes. Para intentar tranquilizarle voy a comentar un aspecto técnico sobre wordpress y el galaxy note. Escribir matemáticas en el note, con el S-pen, es fantástico, y las característicar para hacer copy/paste de fórmulas de libros para tenerlas a mano también funciona bastante bien. En contraposición escribir fórmulas con latex en wordpress es muy tedioso (aunque bienvenida sea la posibilidad). He buscado bastante tiempo una herramienta que tranforme una fórmula escrita a mano al latex correspondiente y lo copie al portapapeles, para así poderlo pegar en el wordpress, pero no he dado con ella. Tampoco veía un modo sencillo de que las imágenes copiadas al portapapeles del note pudieran ser incluidas en wordpress, hasta que he descubierto que mediante un programilla del note (scrappbook) y la opción de exportación a la aplicación de worpress para android puedo subir las imágenes recortadas al portapapeles de manera razonablemente directa. He usado esa opción en casi todas las fórmulas de esta entrada, y es mucho mas rápido que el latex. Supongo que, en cierta manera, era esa diferencia de flexibilidad a la hora de escribir fórmulas entre el note y el blog- unido a otros factores, como que la física teórica está un poco aburridilla- lo que me ha tenido tan reacio todo este tiempo a escribir por aquí. Confío que, con esta nueva facilidad, me animaré a escribir de nuevo mas menudo.

¿Está la física teórica erosionando la confianza del público en la ciencia?

junio 23, 2015

Con excepción de una entrada que escribí para aclarar dudas sobre la pseudociencia de la consciencia cuántica y la teoría de la inmortalidad cuántica de Robert Lanza, que se perdió por aquello de las sesiones de wordpress, no he escrito nada en casi un año.

El motivo no es falta de tiempo, tengo más o menos el mismo tiempo libre que antes, o que me haya desconectado de la física o las matemáticas (De hecho posiblemente haya dedicado mas tiempo a estos temas éste año que otros anteriores).

La causa es que no ha habido temas novedosos que me hayan invitado a escribir de ellos. Una cosa es que, para estar al día, yo me tenga que leer lo que se hace y otra informar a un público general sobre una sucesión indefinida de temas que no llevan a una verificación experimental o a un avance teórico rompedor que de perspectivas serias de que eso pueda suceder.

El caso es que recientemente se ha publicado un artículo con el tema que planteo en el título.

Could the evolution of theoretical physics harm public trust in science?

La cuestión que plantea lleva en el aire mas de una década, y de dos, la incapacidad de la teoría de cuerdas para hacer predicciones claras, complicadas con los modelos inflacionarios, que lo mismo que la propia teoría de cuerdas, abren la ventana al tema del multiverso. Por supuesto, cómo ya he explicado en este blog, y como está explicado en otros sitios, la teoría de cuerdas sí impone serias ligaduras a los universos posibles, más de lo que hacen  las teorías cuánticas de campos. Pero el problema es que, según pasa el tiempo, cada vez los desarrollos teóricos se basan en otros desarrollos previos, y, de ese modo, la conexión con los datos probados experimentalmente se hace mas difusa.

Se puede argumentar que esos progresos son de tipo matemático, y que, por tanto, son tan ciertos cómo los postulados inicales. Pero, cómo nos ha enseñado una y otra vez la historia, la  interpretación física de unos resultados matemáticos no es un tema neutral en absoluto. Y sin una guía experimental una gente puede creer que unos resultados matemáticos signifcan una cosa, y que existe tal o cuál objeto, y que los sistemas se comportan de tal o cuál forma, y otros no estar de acuerdo. Un claro ejemplo de eso es la polémica sobre la pérdida de información en agujeros negros, que ha pasado por el principio de complementariedad,  el holográfico, la correspondencia de Maldacena  (un tema para darle de comer aparte), la propuesta de Polchinsky y Cia de los firewalls detrás de un horizonte de sucesos (o la teoría de fuzballs de Mazur unos años antes), la correspondencia ER-EPR surgida a raíz del debate de los firewalls, o cómo ese ER-EPR veta la existencia de agujeros de gusano atravesables (soluciones de la relatividad general perfectamente válidas, que ahora alguna gente descarta con unos argumentos muy difusos, sin entrar en ningún tipo de detalle, pero con mucha rotundidad).

En definitiva, mucha superestructura, cada día más, y cada vez menos cerca de lo actualmente establecido de forma experimental. Eso deja cada vez mas espacio para que se hayan ido colando muchos errores que tal vez, analizando de forma teórica, se puedan detectar en el futuro, pero que rebajan la credibilidad.

Afortunadamente no todo es así, y hay mucha gente que sigue preocupada de hacer predicciones verificables en el LHC, o en medidas cosmológicas. Ciertamente para hacer esas predicciones eligen, de entre las posibilidades de la teoría de cuerdas, un subconjunto de opciones, de forma algo arbitraria, pero está bien que haya quien no pierda de vista la opción de tener resultados experimentales.

Por supuesto ahora que el LHC esta activo de nuevo, y funcionando a mas energía, es posible que en cualquier momento encuentre algo nuevo, y deje obsoleta esta entrada ¡Ojalá se así!.

Aprovecho también para dejar constancia de que esta semana se esta celebrando en india la conferencia Strings 2015. Lo mismo ahí anuncian alguna idea nueva realmente interesante (no es algo que haya que descartar).

Strings 2015

String technology: brane bombs, rayos desintegradores, escudos ultrarresistentes…

octubre 26, 2014

Cómo ya he dicho mas veces hace unas décadas la ciencia ficción imaginaba nuevas tecnologías, muchas de las cuales se han visto realizadas, y muchas otras, posiblemente algunas de las más interesantes, no.

Hoy en día la mayoría de los autores de ciencia ficción están muy por detrás de la ciencia actual y son incapaces de concebir cosas que sean medianamente basadas en física seria y sean novedosas. En vista de ello voy a dedicar esta entrada a explicar algunas ideas para posibles nuevas tecnologías basadas en la teoría de cuerdas. El nivel va a ser a nivel de ciencia ficción hard, con conceptos más o menos firmes, y alguna fórmula. Son todo ideas propias aunque supongo que cualquiera que domine la teoría de cuerdas podría tener ideas similares o mejores.

Por supuesto antes de exponer las ideas necesito explicar bastante cosas de ciencia. Muchas de estas ideas ya han sido expuestas en este blog, pero en mor de intentar la mayor autocompletitud posible se volverán a exponer.

El concepto de brane bomb (sería mejor hablar de bombs, porque habría varios tipos) no sé si ha sido considerado con anterioridad. Se me ha ocurrido a mí, y no he consultado aún si hay algo hecho en esa línea. Está, como su nombre sugiere, basado en el concepto de branas (sobre todo Dn-branas) de la teoría de cuerdas.

Una Dn-brana viene a ser un objeto de n dimensiones (hay varios valores, entre 1 y 9 posibles para n). Esas branas serían zonas en las que se pueden mover los extremos de una cuerda abierta. Eso llevó al concepto de braneworld, consistente en que el universo de 3+1 dimensiones sería una D3-brana en el que se moverían las partículas del modelo standard, que serían cuerdas abiertas, y sólo el gravitón, que es una cuerda cerrada, podría moverse en las dimensiones extra (recordar que las cuerdas requieren un universo de 9+1 dimensiones.

El concepto más sencillo de braneworld admite muchas generalizaciones. En todo caso los elementos genéricos que necesitan conocerse para entender lo que sería una brane bomb necesitan que explique alguna cosa más recordemos que la forma más simple de reconciliar las dimensiones extra de la teoría de cuerdas con el universo de 3+1 dimensiones es hacer que esas dimensiones sobrantes sean de un tamaño inapreciable (del orden de la longitud de Planck en el caso más típico). Se dice que esas dimensiones están compactificadas. Las propiedades de la física del modelo standard (que es una teoría cuántica de toda la física observada experimentalmente, excepto la gravedad, la materia oscura y la energía oscura) depende de las propiedades de esa compactificación: por ejemplo, el número de familias de partículas sería el número de Euler de la variedad en que se compactifican las dimensiones.

En torno a esas dimensiones dobladas sobre si mismas podría haber Dn-branas que se enrollasen en ellas total o parcialmente. En De ese modo se conjugan los modelos más sencillos con los de d-branas. Es importante notar que el tamaño de esas dimensiones extra debe mantenerse bajo control. Ese tamaño y forma está asociado a unos campos escalares llamados moduli, en referencia a los moduli de geometría algebraica. Un moduli sería un parámetro que nos daría información sobre la forma de una familia de superficies. El caso mas sencillo posible seguramente sea el moduli de un toro. En este caso el móduli sería un cociente entre los dos radios del toro. En teoría de cuerdas ese moduli matemático sería un campo escalar cuyo valor fijaría las proporciones y tamaños de la compatificación.

Para que el tamaño esté fijado debe generarse un potencial para esos moduli. Caso de no ser así habría una inestabilidad potencial y cualquier pequeña perturbación podría hacer que alguna, o todas de esas dimensiones extras creciera o decreciera sin control. En una versión mas refinada se tendría lo que se conoce cómo el problema de polony. Los moduli, por argumentos relacionados con la supersimetría, y en concreto la energía en la que se rompe la supersimetría Msusy. En concreto tendrían una masa del orden de m=c.M_{susy} dónde c es un parámetro del orden de M_{susy}/M_{planck}. Con esa masa los modelos cosmológicos indican que los moduli aportarian demasiada energía en el inicio del universo conduciendo a una sobreclausura. Para evitar ese problema se debe general algún potencial para los moduli Ese potencial lo generaría el flujo, una generalización del concepto del flujo magnético, de unos campos antisimétricos que tendrían su fuente en las Dn-branas. Entrar en mas detalles haría que el post se volviese demasiado técnico. Un buen review, relativamente sencillo, de la teoría de compactificaciones de flujo es Pyhsics of String Flux compactifications

Es importante entender que las constantes de acoplo del modelo standard (las que deciden la intensidad de las interacciones) dependerían del tamaño de esas dimensiones extra. Por ejemplo, en el caso mas trivial posible, el modelo de Kaluza-klein del electromagnetismo, muy anterior a la teoría de cuerdas (1919) la constante de estructura fina está relacionada con el radio R de compactificación por la expresión \alpha=\frac{4l_p^4}{\Phi R^2}  Aquí \Phi es el dilatón, el campo que fija el tamaño de la compactificación, y sería, por tanto, un moduli, aunque uno muy especial. Aclaro que las cosas no son tan sencillas en un escenario realista. Sabemos por el modelo standard (verificado al haberse descubierto el bosón de Higgs) que el fotón está asociado a una simetría gauge que proviene de la ruptura de simetría de un grupo SU(2)xU(1) electrodébil. El U(1) de antes de la simetría no es el mismo U(1) del electromagnetismo. El fotón es una combinación del campo Z (bosón electrodébil neutro) sin masa antes de la ruptura de la simetria, y el bosón del U(1) original. Podríamos irnos a alguna realización”stringy” del modelo standard SU(3)xSU(2)xU(1) que, en principio, nos daría las constante de acoplo de los diversos grupos gauge directamente a partir de los tamaños de compactificación y luego, echando para atrás, a partir de los ángulos de Weinberg y de los valores observados de las constantes deducir el tamaño de cada una de esas compactificaciones. Por supuesto los detalles matemáticos serían horribles, y, además, nada nos garantiza que ese modo de obtener el modelo standard a partir de la teoría de cuerdas es el que ha seguido la naturaleza. El problema del landscape nos dice que podría haber una cantidad enorme, el número que se suele dar es 10^500, formas de obtener el modelo standard a partir de las cuerdas. Pero eso, para los propósitos de lo que quiero discutir aquí no es tan importante.

La idea que nos interesa es que, sí de algún modo pudiéramos controlar los flujos que regulan el potencial de los moduli podríamos cambiar el valor de las constantes de acoplo. Claro, el valor observado de las constantes depende de elementos circunstanciales (a que escala se rompió la supersimetría, el valor de vacío que tomó el bosón de Higgs, etc), y no es nada sencillo imaginar que pasaría exactamente sí se lograra cambiar algún móduli concreto, entre otras cosas porque no sabemos experimentalmente nada más allá del modelo standard, que ni siquiera tiene supersimetría. Pero, en principio, una física más avanzada que conociese esas cosas (suponiendo que la supersimetría y la teoría de cuerdas son la descripción correcta de esa física) podría predecir ese tipo de cosas.

Para más dificultad, y ya a modo de explicar mas cosas sobre cuerdas, señalar que los escenarios concretos que se pueden dar en teoría de cuerdas son muy variados. Puede haber varias Dn-branas, de diferentes dimensiones, enrolladas sobre diferentes “agujeros” de las dimensiones compactificadas, y que unos campos gauge vivan en membranas diferentes, con los fermiones viviendo en las intersecciones de dichas branas, claro. Es complica aún más los cálculos, pero bueno, a los físicos se nos paga (o debería pagar) por ese tipo de cosas.

Vamos ahora con los conceptos pertinentes de las bombas. Una bomba siempre está asociada a una reacción exoenergética espontánea. Esto se da cuando se tiene un estado estable, que deja de serlo al cambiar las condiciones por ejemplo, al añadir un nuevo reactivo) o uno metastable es decir, qué puede llegar a otro estado de menos energía, pero para ello se requiere un aporte de energía para superar un gap que impide alcanzar el nuevo vacío. Es importante, además, que la diferencia de energía entre ambos vacíos sea menor que la del gap. De ese modo se puede dar una “reacción en cadena” en la que parte de la energía liberada cuando una zona concreta de la sustancia alcanza el nuevo vacío se usa para que otra parte de la sustancia supere a su vez el gap. Los detalles cambian, pero cualquier bomba (o ya puestos, fuente de energía, al fín y al cabo la diferencia entre una bomba y una fuente de energía es básicamente la velocidad de la reacción) se basa en esos principios.

Un caso muy típico es el de las reacciones nucleares. Hay una fórmula, la fórmula semiempírica de masas, que nos da las masas (relacionadas con las energías de ligadura) de los núcleos en función de su número Z. Esta es la gráfica de esa relación.

He sacado la imagen de una página que explica los detalles de esa fórmula. NIELS BOHR Y LA FISIÓN NUCLEAR

La idea es que hay un máximo de la energía de ligadura para un cierto Zc (un valor relativamente pequeño). Para átomos con un Z menor que Zc es favorable una fusión de los mismos para tener una ligadura mas fuerte (valor mas estable) y para átomos con Z mayor que Zc es favorable que se dividan en otros mas pequeños.

Bien, entonces tenemos ya los ingredientes para los rayos desintegradores, brane bombs y demás. Vamos a ir con ello.

Imaginemos que logramos modificar, en una zona concreta del espacio, el valor de una constante fundamental, por ejemplo la constante de fermi G_F (el modelo de fermi es un modelo fenomenológico que describe muchos de los procesos de desintegración nuclear débil, y puede ponerse en términos de las constantes del modelo de Weinberg-Salan SU(2)xU(1)). Eso podría hacer que las desintegraciones nucleares ocurriesen a un ritmo muchísimo mas veloz que el actual. La mayoría de los núcleos son inestables, aunque su ritmo de desintegración es totalmente despreciable. Pero sí se hace que G_F sea lo bastante grande cualquier cosa se podría desintegrar en un tiempo arbitrariamente pequeño.

Y ahí ya entramos un poco en imponderables. Lo normal sería que para crear esa zona con G_F enorme tuviéramos que aportar muchísima mas energía de la que producirían los núcleos al desintegrarse. En ese caso habríamos creado una zona del espacio que desintegraría la materia. Sí esa zona la podemos expandir en forma de rayo, pues sí, tendríamos un rayo desintegrador. No tengo claro cómo sería de energético el proceso de desintegración en sí. Una bomba de fisión nuclear genera mucha energía en poco tiempo porque es una reacción autocatalizada, y que ocurre en un tiempo infinitésimal. Sí ajustamos los valores para que, en promedio, los átomos de un cuerpo macroscópico típico se desintegren en, digamos 5 segundos, y teniendo en cuenta que los núcleos normalmente estables lo son porque están relativamente cerca de el máximo de energía de ligadrua, y que, por tanto, el gap de energía al desintegrarse sería pequeño, supongo que el cuerpo se desintegraría “limpiamente” y no en una explosión que aniquilaría todo lo de alrededor, pero tampoco estoy muy seguro. Sería un ejercicio interesante para un examen de un curso introductorio de física nuclear😉.

Vamos ahora a ver un modelo posible de “bomba brana”. Imaginemos que vivimos en un mundo dónde las branas están enrolladas sobre una de las dimensiones extra. Sí en un punto hacemos crecer el valor del flujo lo suficiente podríamos plantearnos la posibilidad de “pinchar la brana” en ese punto. Aclaro que ese concepto no tengo claro que esté contemplado en detalle (o incluso si está contemplado) en la ortodoxia. En principio creo que sería posible, y que podría intentar calcular la energía necesaria usando la acción de Bron-Infield que describe el comportamiento de la brana, pero ni me planteo ahora meterme a analizar los detalles. Bien, sí eso es posible se generaría, imagino, una onda de Shock en la brana. Esa onda se transmitiría por la brana desde le punto de “pinzamiento”. La brana, dentro de la cuál vivimos, respondería a esa onda calentándose a grandes temperaturas. Eso es al menos lo que se propone en el modelo cosmológico conocido como modelo ekpirótico en el que el “big bang” se debería a una colisión de la brana que vivimos con una paralela. El modelo en sí está bastante desacreditado, pero los cálculos de lo que ocurriría sí una brana choca con otra debería ser similar a lo que produciría la onda generada por un pinzamiento, imagino.

Los efectos de esa hipotética “bomba brana” sería que en una zona del espacio-tiempo, expandiéndose cómo una onda desde el punto de pinzamiento (punto de la “explosión”) la temperatura alcanzaría un valor elevadísimo (cuanto depende de los detalles). Ese calor, al estar en la brana, y está en el propio espacio-tiempo, actuaría desde dentro de los cuerpos sólidos, no desde fuera. Sin meterme a calcular se puede estimar que las energías y temperaturas deberían ser mucho mas elevadas que las de cualquier bomba nuclear. Además, la “explosión” iría por “dentro del espacio-tiempo” y no serviría de nada ningún tipo de barrera o escudo.

Y vamos con el último punto, los escudos ultrarresistentes (pero inútiles contra bombas brana xD). La idea seria crear una zona dónde la constante electromagnética alpha fuese mas grande (sin tocar el resto de constantes de acoplo). Eso, en principio, dejaría la materia estable, pero permitiría que los átomos se pudieran agrupar mucho mas cerca unos de otros. Para hacernos una idea de los órdenes de magnitud con los que podríamos jugar esta bien esta visualización. Sí hiciéramos crecer un núcleo atómico al tamaño de un balón de fútbol el átomo tendría el tamaño de la provincia de Madrid. Cómo no se pueden agrupar átomos mas cerca de su tamaño atómico, y la masa del átomo está casi toda en el núcleo, tenemos que la materia sólida es, en cierto modo, increíblemente porosa y muy poco empaquetada. Si hacemos crecer alpha lo bastante tendríamos que podríamos empaquetar la materia muchísimo más. Y no sólo eso, los enlaces electromagnéticos, de los que dependen las propiedades de consistencia de la materia ordinaria, serían mucho mas fuertes, y tendríamos por tanto una materia muy densa y muy resistente, ideal para construir materiales que sirvieran de escudos, bien contra bombas nucleares, bien contra rayos cósmicos. Esto último serviría para evitar que los astronautas recibieran demasiada radiación en largos viajes espaciales. Bueno, y también, supongo, se podría hacer escudos capaces de resistir el impacto contra micrometeorítos (aunque no sé yo sí con eso bastaría para asegurar la supervivencia del astronauta pues aunque no se rompiera el escudo la deceleración podría ser lo bastante como para pulverizar al astronauta contra el caso de la nave, sería cuestión de hacer los cálculos).

Obviamente todo lo que he dicho es muy, muy hipotético, empezando porque la propia teoría de cuerdas es hipotética en si misma. Pero incluso dentro de la teoría de cuerdas hago muchas suposiciones. Además, no explico, porque no tengo ni idea, cómo podríamos controlar el campo de flujo que nos permitiría cambiar el valor de los moduli, y por tanto de las constante de acoplo. Incluso sí esto estuviera bien tampoco analizo los detalles exactos que sí se podrían calcular usando la física conocida. Todo eso llevaría muchísimo tiempo, y no tengo claro que fuese algo que se pudiera incluir en ningún programa de investigación “vendible” a una universidad.

Con todo creo que puede ser interesante para estimular un poco la imaginación de que tipo de tecnologías se podrían crear basadas en la teoría de cuerdas (sí esta resulta ser cierta) y que son imposibles en el marco de otras teorías. Y, además, me ha servido de excusa para divulgar un montón de conceptos interesantes en si mismos. Espero que una cantidad suficiente de lectores hayan entendido lo suficiente, porque admito que no es un asunto para nada sencillo, pero, hey, es ciencia ficción basada en el cutting-edge de la física actúal, algo que hecho muchísimo en falta en la literatura de género actual. Dejo total libertad a que cualquier escritor de CF use estas ideas (aunque caso de hacerlo agradecería que dejase referencia). Por supuesto si cualquiera usa estas ideas para construir una bomba brana y destruir el planeta tierra yo declino toda responsabilidad😉.

Los resultados de BICEP2 casi desmentidos por los datos de Planck

septiembre 22, 2014

Hace unos meses el experimento BICEP2 proclamó haber encontrado evidencias de ondas gravitacionales primordiales, producidas por la inflación, siendo pues una evidencia también de la existencia de la inflación. Esto se había logrado al encontrar modos B en el fondo cósmico de microondas. Este tipo de ondas significan que un ratio, llamado r, tenía un valor 0.2, mucho mayor que lo esperado según los modelos considerados hasta ese momento.

Desde la publicación de ese anuncio el arxiv ha visto una media de tres artículos diarios sobre inflación (eso he leído, habiendo seguido el arxiv casi a diario yo diría que más). Yo, en su momento, no puse nada sobre la noticia por un sencillo motivo: en el pasado he dejado constancia de muchos posibles descubrimientos, y, excepto el Higgs, todos han resutltado quedar en nada (vale, también es que para cuando había entendido bien que eran los dichosos modos B, el índice r, y el resto de detalles la noticia ya había dejado de serlo xD).

El caso es que cuando se publicó el resultado ya se avisó que era necesario que otros experimentos relacionados, y en particular el satélite Planck, contrastaran la observación. Hoy el experimento Planck se ha pronunciado, y lo que ha dicho es que el resultado de BICEP2 podría ser debido exclusivamente a polarización del fondo de microondas provocado por polvo interestelar en la zona de cielo observada y no debido a ondas primordiales. El problema es que BICEP2 medía la polarización exclusivamente en una frecuencia, y dependía de modelos teóricos para estimar el fondo. Planck usa medidas en 5 frecuencias, y mira una zona mas amplia del cielo, y no tiene ese problema.

El artículo de Planck en cuestión es éste: Planck intermediate results. XXX. The angular power spectrum of polarized dust emission at intermediate and high Galactic latitudes.

Se puede leer más sobre el tema en el blog de Sean Carrol, preprosperous universe: Planck Speaks: Bad News for Primordial Gravitational Waves? o, también, en un blog que no conocía de nada, cuyo link ha dado Peter Woit ‘Big Bang Signal’ Could All Be Dust. Este último blog da muchos detalles, y no me cabe duda de que la mayoría de los blogs famosos tendrán entrada al respecto, así que recomiendo ojearlos.

De haberse confirmado este experimento habría significado un premio nobel teórico para los proponentes de la inflacción (Allan Guth y Andre Linde), y otro para el grupo experimental, bien por la medida de la inflación o bien por las ondas gravitacionales (al fín y al cabo sería la primera evidencia casi directa de la existencia de las mismas), o incluso uno nobel por cada uno de los descubrimientos, vaya. Pero, en vista de lo que ha publicado hoy Planck parece que va a quedarse en nada, lo cuál, con la escasez de descubrimientos positivos en física y cosmología fundamental, es siempre algo antipático. De hecho esta contumaz costumbre de resultados experimentales a medias, que siempre terminan siendo desmentidos, que tenemos en la última década es lo que hace que cada vez me de mas pereza publicar sobre lo que se está haciendo hoy día y me divierta más escribir sobre ideas propias, que aunque no sean tan importantes cómo lo que pueda hacerse por ahí, me resulta mas entretendio exponer. Aún así seguiré poniendo de vez en cuando noticias sobre temas que me resulten llamativos y también seguiré con otras entradas didácticas sobre temas ya establecidos.

Juegos formales: Masas tensoriales I (planteamiento).

septiembre 13, 2014

Debo decir que las cosas que se están haciendo últimamente en física teórica, a nivel mas innovativo, no me entusiasman terriblemente, así que por eso estoy esforzándome en reflejar lo que se está haciendo. Además, ya está el blog de Lubos y otra gente. Uno de los artículos más interesantes en bastante tiempo, que no puedo dejar de recomendar, es éste:
Vafa: supergroups, non-unitary cousins of CFT, and black hole puzzles en el que comenta este artículo de el famoso Cumrum Vafa (posiblemente el físico de cuerdas mas prestigioso después de Ed Witten, con permiso de Juan Maldacena) Non-Unitary Holography.

Hay alguna cosa más, que ya iré mencionando según vaya leyendo y analizando, pero hoy me voy a centrar en algo que estuve haciendo hace un tiempo, y que creo puede resultar entretenido, y que ayuda a replantearse cosas, pasar de una física en la que la masa es una constante a ser una magnitud tensorial.

Lo primero es indicar las motivaciones iniciales para considerar esa posiblidad. La primera idea la tuve a raíz de un polémico experimento de PODKLETNOV y su presunta máquina de antigravedad . La verdad es que el experimento y la polémica quedaron en nada, al menos hasta dónde sé. Pero la idea que me planteé es la siguiente. Sí uno piensa en que en una zona de la tierra hay una máquina de antigravedad eso significaría que el campo gravitatorio resultante perdería su simetría esférica. En el límite en que se hace que la masa que provoca el campo sea puntual tendríamos que en vez de un punto sin estructura en la que estuviera toda la masa tendríamos algo que tendría una distribución angular, bien en forma de vector, o de tensor de segundo orden (o alguna forma mas complicada como un desarrollo en serie de términos tensoriales de orden creciente, pero vamos, mejor empezar por las generalizaciones mas sencillas.

Bien, esa es la primera idea. La segunda sería ¿Y cómo sería el comportamiento inercial de esa masas vectoriales o tensoriales? Por supuesto sabemos que, al menos en promedio, la masa no tiene estructura. Ahora bien, pensemos en un electrón (o cualquier otra partícula subatómica). Imaginemos que moverlo en una dirección sea ligeramente mas difícil que moverlo en alguna otra, pero que la orientación de ese vector, o tensor masa, varíe de un electrón a otro. Así, en promedio, para una cantidad macroscópica de electrones, no habrá ninguna dirección privilegiada. Luego, si vamos a el caso del análisis de un electrón aislado, al ser cuántico y no seguir una trayectoria, pues ya no tiene mucho sentido el estudio clásico y habría que ir a el caso cuántico. La verdad es que imagino que habrá límites experimentales que, desde ya, se pueden hacer a la posible asimetría vectorial/tensorial de la masa de las subpartículas, aunque siempre se podría argumentar que sí son muy pequeños no serían observables si no se busca específicamente.

Una consecuencia práctica de este posible carácter vectorial/tensorial de la materia sería la siguiente. Sí se pudiera “polarizar” la materia de tal forma que todas las subpartículas, orientadas de manera aleatoria, alinearan sus masas en una dirección concreta tendríamos una situación interesante. La “masa total” (el módulo del vector, o sí es un tensor, alguna norma matricial adecuada) se mantendría, pero resultaría que mover un objeto en la dirección del menor valor de la masa sería mas sencillo que en las otras. Así, si realmente la materia tuviera esa naturaleza, y supiéramos cómo polarizarla, podríamos, dependiendo del grado de asimetría, hacer que mover un cuerpo en una dirección requiriese muy poca fuerza (y por consiguiente gasto energético) a costa de que fuese mas difícil de maniobrar, debido a la mayor masa en las otras direcciones. Sí, por ejemplo, la asimetria pudiera ser de un 30% eso significaría que ahorraríamos un 30% de gasto en transporte.

Ok, hasta ahí consideraciones muy mundanas. Vamos a ir a algo mas abstracto. En relatividad general el campo gravitatorio newtoniano pasa a ser la geometria del espacio-tiempo, y en concreto su métrica, un tensor de orden 2 (una matriz, para entendernos). A partir de la métrica (que generaliza el potencial, la componente 00 de la métrica está relacionada con el potencial newtoniano clásico) se obtiene el tensor de curvatura de Ricci, otro tensor de orden 2. Cómo ya mencioné en la entrada anterior, comentando el libro sobre Riemman, la parte de geometría diferencial estaba hecha en 1902 o así, y la idea de que el espacio podría ser curvo llega hasta, cuanto menos, Gauss, y ya un físico formuló una idea de que la materia curvaba el espacio a mediados del siglo XIX. El éxito de Einstein fué pasar de esas consideraciones etéreas a algo mas concreto. En concreto, sospecho, la gran dificultad de la RG, que pasa desapercibida, y no se hace suficiente énfasis, es
cómo relacionar esas ideas geométricas con la materia. La solución, desde el punto de vista actual, es el tensor de energía momento. Una introducción muy detallada a las ideas básicas de ese tensor la podéis encontrar en el estupendo blog sobre la teoría de la relatividad, en concreto esta entrada. En física teórica se suele definir una fórmula general para obtener ese tensor a partir del lagrangiano de un campo. Ese campo puede ser el campo electromagnético, o un campo cuántico genérico, cómo el campo de klein-gordon o el de Dirac. Estos últimos surgen de la idea de tomar la “función de onda” de una partícula que cumpla las respectivas ecuaciones cómo un campo “clásico” cuyo valor se interpreta cómo la probabilidad de crear una partícula que cumpla esas ecuaciones (el bosón de Higgs seguiría la ecuación de Klein-Gordon, el electrón la de Dirac). Lo interesante es que esos lagrangianos, cuando tienen una masa en el término cinético, es una masa “escalar”. Uno se podría plantear que tal vez sea mas “natural” que ya de principio la masa sea un tensor, cómo el lado derecho de la ecuación, el tensor de Ricci. Desde luego no es esta la idea mas habitual. Lo que la gente ha buscado es que la materia sea en si misma algo con estructura geométrica. En esa línea lo último que he visto es un trabajo del famoso matemático (galardonado con la medalla fields), Michael Atiya Geometric Models of Matter que, la verdad, no ha tenido una gran repercusión.

Aparte de estas justificaciones “abstractas” otra motivación mas pragmática y fenomenológica vendría de la posibilidad de que sí vivimos en un “braneworld” en el que la materia está restringida a moverse en una brana tal vez haya alguna asimetría en la brana, que varíe de un punto a otro, y que esa asimetría cause esa “masa tensorial”. O, tal vez, podríamos pensar en un mecanismo de Higgs alterado, con un Higgs que no sea escalar sino vectorial, y que no represente una simetría interna sino externa. La verdad es que esto está muy traído por los pelos y, en última instancia, es casi mas interesante el juego conceptual, y lo que se puede aprender siguiéndolo, que la parte práctica, aunque nunca se sabe😉.

Bien, entonces tras esta exposición de las motivaciones pasaré, en la siguiente entrada, a exponer cómo implementar la idea, y lo que se aprende en el intento.


Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 38 seguidores