Escribiendo latex con estilo, y con stylus

agosto 21, 2015

Cómo mencioné en la primera entrada sobre masas negativas había encontrado, mediante la opción de compartir de android, una forma relativamente sencillla de poner ecuaciones en las entradas desde el note. Basicamente la idea es que con el S-pen puedo recortar una imagen y compartirla con worpress, usando la apliación para android (añadiéndola a la librería multimedia directamente, sin usar entremedias scrpapbook cómo hice entonces).

Eso está bien, pero tiene sus limitaciones. Por un lado blogspot no tiene en su aplicación para android la posibilidad de añadir imágenes a una librería multimedia así que no me sirve en el otro blog. Y, claro, hay un tamaño de almacenamiento limitado y sí me pongo a escribir imágenes lo llenaría demasiado deprisa. También está el hecho de que sí se trata de ecuaciones que no tengo escritas en un libro y las escribo a mano en el tablet no quedan muy presentables. Y, además, estoy desperdiciando la capacidad nativa de wordpress de renderizar latex (y la no nativa, pero también existente de blogspot).

El programa S-note de los dispositivos note tiene un sistema de reconocimiento de ecuaciones, pero, excepto en la versión inicial, primero escribes toda la ecuación y luego, tras seleccionarla, la convierte en imagen, y no siempre acierta y debes reescribirla y probar de nuevo, lo cuál no es una buena estrategia. Y, además, no te exporta la ecuación a latex sino que te la manda al dichoso wolphram alpha, que no me gusta nada. Hay editores de ecuaciones para android, alguno de los cuales te permite exportar a latex, y no están mal, pero, leñe, ya que tienes el S-pen lo suyo es que se pueda usar, que es mas rápido e inmediato. Había buscado en su momento, pero no dí con nada, Ahora he vuelto a buscar y dí con un programa que casi, casi hace lo que le pido, myscript smartnote.

El editor de ecuaciones, en cuanto trabajas con él un poco para que se habitúe a tu escritura, y le pilles el truco a algunos caraceteres rebeldes, funciona muy bien y muy rápido. Con eso tienes una imagen que puedes exportar a la librería multimedia, lo cuál está muy bien. También te exporta a texto plano una representación de la ecuación, usando los símbolos de las fuentes habituales, bastante aproximada, y así puedes hacer un paste desde el portapapeles. Y, por último, tiene una opción de exportar a un archivo latex (extensión de texto con extensión .tex) el código latexde la ecuación, junto con un código de apertura del documento. De hecho puedes exportar todo el documento a latex, lo cuál es genial si quieres hacer un archivo para publicar en arxiv. Y también te genera el pdf. Todo ello es excelente, y muy útil, pero, por desgracia, no me permite exportar al portapapeles el código latex de una ecuación concreta, y sólo ese código.

Tras pillar la versión completa del programa (cuesta alrededor de 2 euros en una compra integrada) me puse en contacto con el servicio de soporte para pedir que incluyeran esa característica. Me respondieron rápido, y de manera muy amable, informando que consideraríanpara el futuro la posibilidad, pero no de forma inmediata, y ¡horror!, que mientras tanto usara una aplicación para IOS, que si tiene esa característica. El problema, por supuesto, es que los dispositivos IOS (Ipad y Iphone) son una castaña en general (salvo para audio) y, desde luego los stylus disponibles para el Ipad son todos una birria comparados con el S-pen. Les volví a escribir y me dieron otra opción temporal, hasta que añandan la característica al programa, una demo online del editor de ecuaciones que sí tiene la opción de ver el latex (o mathml), en un cuadro de texto que hay abajo, y copiarlo al portapapeles.

image

La demo es mas lenta que el programa nativo, y posiblemente deba lidiar con muchas letras manuscritas a la vez y no se hace con la tuya. No obstante funciona de forma razonable y le puede ser útil a cualquiera que tenga algún stylus wacom o ntrig (cómo en las surface).

Por cierto, en windows la versión de onenote para escritorio permite añadirle un plugin, microsoft math, que sí tiene esa opción, y muchas más. Incluso sin el plugin tienes un editor de ecuaciones muy majo, que permite reconocimiento de escritura a mano de ecuaciones. Desafortunadamente la versión para android de onenote no tiene esa opción.

Aprovecho para reseñar que ha salido la versión 5 del note phablet, pero es una basura infecta que no trae microSD, ni batería extraible. Algunos dicen que tampoco tiene MHL para poder conectarlo por HDMI a la televisión , e incluso que no tiene USB OTG para conectarlo a un pendrive, o cualquier otro dispositivo bluetooth. No sé si esto último es cierto, pero ya sólo por no llevar microSD me resulta inutil (un serivico de almacenamiento en la nube, no importa el tamaño, nunca me serviría de sustituto) así que descarto totalmente la compra de esa porquería, que es casi tan mala como un Iphone (su única ventaja es que tiene un stylus y android, y mas potencia hardware). Y de un sucesor del note 10-1 no se sabe nada (y si va a seguir los pasos de su primo phablet mejor no saberlo).

Eso me lleva a señalar que el windows 10, tanto para sobremesa como para tablet (includo el modo tablet en un sobremesa) funciona muy bien. Y, aparte de las carísimas surface hay tablets chinas que incluyen un stylus wacom (mejor que el ntrig de la última surface) a un precio muy assequible, cómo la Icube stylus. A día de hoy las aplicaciones para tablet de android son muy superiores a las que hay para windows (lo sé porque, aparte del note 10.1, tengo un tablet dual boot windows y android chino de 8 pulgadas muy barato -unos 100 euros- el chuwi vi8, que, desafortunadamente no tiene stylus) y sólo las de escritorio están por encima, aunque no son demasiado cómodas de usar en un tablet. En fin, Android ha mejorado mucho, y hay ya excelentes aplicaciones, en constante mejora, pero si google y sus secuaces (cómo Samsung ultimamente) siguen recortando opciones hardware para forzar que la gente se pase a la nube yo, y muchos, dejaremos de usar productos de Goolge (y Samsung), pero, por ahora, con el hardware android que tengo en éste momento, las soluciones para latex, y escribir ecuaciones matemáticas usando un stylus, son las que comento en el artículo. Sí alguien conce algo mejor se agradecería que lo expusiera en los comentarios.

Early quantum electrodynamic (book review)

agosto 11, 2015

El verano es una buena época para leer libros “recreativos”, y uno sobre la historia de la física claramente entra en esa categoría, aunque con un plus  de interés. En su momento me había leído el  libro de historia de la mecánica cuántica, parte I, de Jose Manuel Sanchez Ron, y me resultó muy interesante e instructivo. Desde entonces he estado esperando que saliera la segunda parte, pero la verdad es que se está retrasando mucho. También problé a leer otros libros sobre el tema, que siguieran desde el momento en que lo deja Sanchez Ron (ka publicación de la ecuación de Schroedinger y de la mecánica matricial de Heissenberg), pero no me terminaron de convencer (demasiado texto y demasiadas pocas fórmulas), Afortnadamente el libro del que trato en esta entrada sí trae todas las fórmulas oportunas ;).

Arthur I Miller  Early Quantum Electrodynamics: A Sourcebook

wpid-wp-1439264231130.jpeg

E libro se divide en dos partes. La primera, de unas 100 páginas, es la descripción histórica de los desarrollos en electrodinámica cuántica hechos entre 1927 y 1938, es decir, los primeros desarrollos de la misma. La electrodinámica cuántica es la interacción de partículas cargadas, principalmente el electrón, con la luz, es decir, con los fotones. En la forma actual se enseña cómo la ecuación de Dirac que representa a el electrón, acoplada a un campo electromagnético mediante un término de interacción cúbico. También se puede escribir, y es mas convencional verlo así, en términos de la derivada covariante asociada al campo gauge electromagnético.

image

siendo la derivada covariante

image

El caso es que, siendo la teoría cuántica de campos mas sencilla realizada en la naturaleza dista mucho de ser una teoría simple. En los cursos introductorios de teoría cuántica de campos se utiliza una teoría “de juguete”  para aprender el formalismo, el campo escalar interactuando consigo mismo con un término cuadrático. La QED tiene muchas mas dificultades, por un lado la ecuación de Dirac es espinorial, por otro el eletromagnetiso es una teoría con invarianza gauge que tiene dos problemas de renormalización, la ultravioleta, asociada a altas energías, y la infraroja, asociada al hecho de que los fotones pueden emitirse con una energía arbitrariamente baja.

Bien. esa versión de la QED que se estudia ahora debe mucho a Tomonaga, Schwinger y, sobre todo, a Feynman. Pero el libro trata de la primera generación de físicos que se ocuparon del tema, que incluye a un montón de nombres ilustres, Heisenberg, DIrac, Pauli, Fermi, Weiskopf, y, en general, la creme de la creme de esa época dorada. Lo curioso es que lo que ellos hicieron se parece muy poco a lo que se ve ahora.Para empezar casi no usaban los lagrangianos y todo se hacía con Hamiltonianos. En realidad hoy, en los curos de introducción, se siguen enseñando métodos hamiltonianos para ver la cuantización canónica, en la que se impone la tranformación de los corchetes de POisson clásicos de la teoría de campos correspondientes en operadores, lo cual lleva a l aintroducción de los operadores de creación-aniquilación. Pero, claro, en esa época acababan de crear una teoría para una partícula, el paso a una teoríacon varias partículas fué, el primer paso, y de eso va el segundo capítulo del libro (el primero es sobre todo introductorio). Esa parte la hicieron Jordan, en 1926, DIrac, y Pauli.

Lo siguiente es la ecuación de Dirac, y su interpretación en términos de huecos, y la descripción del campo electromagnético, y ese es el tercer capítulo del libro. Ya aviso que lo que ahí viene no es lo que se hace hoy día en QED. Se ocupan más de cosas como la masa del electrón, y el problema que supone un “mar de DIrac”, es decir, un conjunto infinito de electrones, con energía negativa. El problema viene cuando se considera el hecho de que ese número infinito de electrones dbería generar un campo eléctrico infinito, y hay que ver cómo se lidia con eso.

El cuarto capítulo abunda en esos problemas, y se va viendo como restar cantidades infinitas (preludio de lo que luego sería la teoría de renormalización), la a ecuación de Klein-gordon (el electron bosónico, cómo lo llamban), la conexión spin estadística, tema que se ve de forma distinta a la actual, debida a Schwinger, basada en causalidad. Pauli, responsable de esa primera versión, observó una analogíia entre las relaciones de los operadores de creación y aniquilación y las matrices de Dirac, y elaborando de aquí y allá llego a convencerse, correctamente, de que en relatividad especial el espín determina la estaadística.

El quinto, y último tema, trata las fuerza nuclear. A priori puede parecer un poco fuera de sitio en un libro sobre QED, pero en realidad es vital. Es importante, y sorprendente, darse cuenta de que cosas quedamos por sentadas no fueron nada obvias. Hasta 1932 se creía que el nucleo constaba de protones y electrones. Fue descubrimiento de un nucleo, el N^{14} que experimentalmente se ve que tiene spin entero, pero debería tenerlo semientero (14 protones y 7 electrones). Eso justificó la introducción del neutrón. Mas conocida es la introducción porparte de Pauli del neutrino para explicar que en el decaimiento beta el electrón pudier atener cualquier momento (y así salvar la conservación del momento). Aparte de eso lo mas relevante para la QED, y para las teorías de campos en general, es que de ahí surgieron las ideas de partículas intermediadoras de las fuerzas. EN realidad la primera idea surge del ión del helio, en el que se puede ver queel electrón compartido entre los dos protones, puede considerarse como un mediador.Pero eso no es muy convincente. Heisenber consideró, antes de la teoría del neutron, un mecanismo en que el intercambio de un electrón jugaba un papel en la teoría nuclear. Como es bien sabido no fué hasta que Yukawa presentó su teoría del pión que eso se consolidó, pero eso no ocurrió hasta 1935, y aún pasó un tiempo hasta que el aporte de Yukawa paso a ser reconocido. Eso signifca que la visión actual de las fuerzas mediadas por partículas bosónicas vino mas tarde, sobre todo con Feynman, y sus diagramas, y que todo el trabajo de esa primera época no tiene ninguna relación con ese punto de vista.

La segunda parte del libro, hasta llegar a unas 250 páginas, consta de algunos artículos selectos de la época, algunos de ellos traducidos del Alemán, y, aunque se les menciona en la otra parte, pueden leerse de forma independiente.

En definitiva, un libro muy interesante en su contendio y bastante bien esccrito, muy recomendble en definitiva.

Cómo el libro se queda en 1938, y eso deja fuera muchos aportes, tengo intención de leer otro libro sobre historia de la teoría de campos, clásica y cuántica, que cubre la relatividad general y la teoría cuántica de campos, incluyendo los campos gauge. Aunque uno conozca la presentación actual de esos temas es muy interesante saber el desarrollo histórico. La relativdad general es algo de lo que hay bastante material, pero de teoría cuántica de campos no tanto, y es bueno hacer publicidad del material existente.

Sobre la masa negativa

agosto 6, 2015

Como buen aficionado a la ciencia ficción me gustaría que ya existiesen cosas como los agujeros de gusano, los motores de distorsión (warp drives) y, en general, el tipo de cosas que las ecuaciones de la relatividad general nos muestran que seríab posibles si existiera la “materia exótica”, entendiendo como tal aquella que viola alguna de las condiciones de energía positiva.

El caso es que los medios habituales para conseguir esa materia exótica requieren crear dispositivos como las placas paralelas del famoso ejemplo de Casimir. La idea es simple, uno junta mucho dos placas metálicas y en la zona entre ambas se produce una cancelación de modos cuánticos que hace que en medio de las placas haya una muy leve violación de esas condiciones de energía positiva, es decir, que haya “energía negativa”.  Hay muchos problemas en llevar esa idea a una realización experimental y, en todo caso, la energía negativa es tan pequeña que no sirve para gran cosa.

Eso me llevó a plantearme una cuestión. En una zona del espacio normal, dónde se verifican las condiciones de energía positiva, se crean partículas de masa positiva ¿Sería factible que en las zonas de energía negativa se crearan partículas de masa negativa?. Caso de ser así sería muy útil. Uno podría tener sus placas de Casimir creando partículas de masa negativa, que podríamos extraer y almacenar, Esas partículas estarían disponibles como materia exótica una vez retiradas las placas, Claramente, cómo la cantidad de energía negativa es muy pequeña, sólo se podrían crear partículas de masa muy pequeña. De las partículas conocidas los únicos candidatos posibles serían los neutrinos, que no pueden ser almacenados, pero bueno, si damos con otra forma de crear zonas de mayor energía negativa tal vez pudieramos crear cosas como electrones “exóticos”.

Busqué si había algo en internet al respecto de la masa negativa y sólo encontre, en ese momento, una referencia a un trabajo de Robert L. Forward, físico y famoso escritor de ciencia ficción hard. Ahi explicaban que había que tener en cuenta la masa inercial por un ladoy la gravitacional por otro, y venía un análisis detallado de la masa gravitacional usando física newtoniana. Me pareció un análisis muy insuficiente así que me puse, en  ratos libres, a intentar hacer un análisis usando teoría cuántica de campos y relatividad general, y con algunas consideraciones de teoría de cuerdas, que es lo suyo en estos tiempos.

El punto de partida sería la ecuación de Klein-Gordon

wpid-wp-1438838368659.png

Ahí se puede observar que la masa aparece en un único término, y aparece elevado al cuadrado así que curiosamente, no se distingue una masa positiva de una negativa. Uno podría pensar que esto implica que la ecuación de KG es totalmente insensible al signo de la masa, pero uno debería ser cuidadoso y examinar con cuidado mas detalles de la misma. Bien, una de las cosas que son importantes en la ecuación de KG es que debe definir una densidad de probabiliad y una corriente conservada. Sí alguien ha estudiado mecánica cuántica ordinaria habrá visto que la densidad de probabilidad es el cuadrado de la función de onda \Phi^*\Phi . En una teoría cuántica de campos eso no es automáticamente así. La densidad de probabilidad va a ser la componente 0 de una cuadricorriente de Noether asociada a simetrías externas. Para el caso del campo escalar la densidad toma la forma (ver, por ejemplo, el libro de Hatfield “Quantum field theory of point particles and strings”:

image

Uno ve inmediatamente que en esa densidad de probabilidad la masa aparece dividiendo, y sin elevar al cuadrado. Eso significa que la densidad de probabilidad de una partícula de masa negativa será la opuesta de la de una de masa positiva. A poco que uno esté familiarizado con la teoría cuántica de campos ya sabrá la historia de la ecuación de Klein-Gordón: aparecen estados de probabilidad negativa, pero estos pueden ser interpretados como antipartículas que pueden interpretarse como antipartículas que viajan hacia atrás en el tiempo. Sí nos vamos a el campo escalar complejo puede probarse que éste campo tiene una simetría interna U(1), que, vía teorema de Noether, se convierte en una corriente cuya integral en una superficie cerrada da una carga que uno podría asociar (aunque no necesariamente) con la carga eléctrica. Se puede ver que las antipartículas tienen masa negativa. Pues bien, según éste análisis uno podría extraer la conclusión de que cambiar el signo de una masa -en este contexto masa inercial- es equivalente a intercambiar partículas por antipartículas, lo cuál choca con la hipótesis, no demostrada, de que partículas y antipartículas tienen la misma masa. Todo ésto es para la ecuación de KG libre, luego ya analiamos que pasa con las interacciones entre partículas, y con eso de que las antipartículas puedan tener masa negativa.

Antes de ir con otra ecuación vamos a otro aspecto importante, el de el campo gravitatorio creado por las partículas. En las ecuaciones de Einstein la parte que describe la materia es el tensor energía momento. Ese tensor aparece en los libros de teoría clásica y cuántica de campos, para la relatividad especial. Viene a ser poner en una cantidad tensorial las cantidades conservadas que se enseñan en los cursos de mecánica lagrangiana. Recordemos, asociada a una simetría del lagrangiano bajo traslaciones espaciales hay una cantidad conservada, que es el momento lineal. Asociada a una simetría bajo rotaciones se asocia la conservación del momento angular, y asociada a una invarianza bajo traslaciones temporales se asocia la conservación de la energía. Combinando eso en un tensor se obtiene el susodicho tensor energía-momento.

image

Esa expresión es válida en relatividad especial. En relatividad general hay que sustituirla por otra, que viene a ser la variación de el lagrangiano respecto a la métrica (los detalles vienen discutidos en, por ejemplo, el libro de relatividad general de Wald, en el apéndice sobre formulación Lagrangiana de la relatividad general”. La expresión concreta es:

image

Donde Sm es la acción de la materia. Para el lagrangiano de KG, en un espacio curvo (que es el normal, pero sustituyendo las derivadas normales por derivadas covariantes) el resultado de evaluar esa expresión nos da:

image

Se puede observar que, una vez mas, la masa aparece al cuadrado y, por tanto, según eso, una masa negativa debería producir exactamente el mismo campo gravitatorio que una masa positiva, lo cuál es realmente chocante. En los libros dónde se obtiene esa expresión no he visto ninguna mención de ese hecho, aunque me consta que la gente de relatividad general ha analizado la masa negativa. Hablaré mas de ese aspecto posteriormente. De momento una observación basada en un cálculo (trivial) propio. Sí uno coge un tensor energía momento clásico el caso mas sencillo es el de un fluido perfecto (es decir, de viscosidad nula). Ese tipo de tensor se usa en los modelos cosmológicos mas sencillos, cómo el de FRW (Friedman-Robertson-Walker), o el de la ecuación de Tolman-Openheimer para modelizar una estrella (soluciones interiores de la ecuación de Schwarschild). Su expresión es:

image

En esa ecuación rho es la densidad, u la cuadrivelocidad del fluido y P la presión. La masa total es la integral de la densidad. Obviamente ahí una masa negativa significa una densidad negativa. Sí se va a usar en una ecuación cómo la de Schwarschild rho debe tener simetría radial y, por tanto, las integrales serán sólo en la coordenada radial. Un caso entretenido es el de una capa esférica de densidad negativa (y, para simplificar, presión nula). Sí uno resuelve la ecuación correspondiente se obtiene de forma muy sencilla que sí esa capa externa de densidad negativa tiene la misma masa que la masa interna positiva se obtiene en el exterir la métrica de Minkowsky en esféricas, es decir, se ha apantallado la masa interior (esto es entendible también desde el análogo para relatividad general del teorema de Gauss en electroestática, el teorema de Ostrogowsky creo que se llama). Éso podría permitir cosas muy entretenidas desde el punto de vista de la ciencia ficción. Se podría, por ejemplo, ocultar gravitatoriamente cosas cómo un planeta (o una nave cómo la estrella de la muerte). Sí eso se combina con una ocultación visual nos lleva a la posibilidad de que una raza alien pudiera colocar un planeta, o una luna, al lado de la tierra y no se lo podría detectar ;-).

Bien, volvamos a un terreno mas serio. Al principio había mencionado que la materia exótica era la que violaba alguna condición de energía positiva, pero no había explicado en que consiste eso. La razón es que explicar ese concepto requiere el tensor de energía momento y aún no lo había definido. La idea es que la mayoría de tensores energía-momento son de la forma 1 de la clasificación de Hawking-Ellis.

image

Se ve que es muy parecido al tensor de un fluido ideal, con una densidad y una presión. La idea es que ese tensor, contraido con cuadrivectores, debe dar un resultado positivo. Cómo en relatividad hay cuadrivectores positivos, negativos y nulos no es tan sencillo cómo el caso de formas bilineales definidas positivas y hay varias definiciones posibles para la energía positiva. Visser en su libro de referencia sobre agujeros de gusano enumera 7 tipos diferentes. En el siguiente apartado hace un análisis de las posibles violaciones. Lo primero que nos enseña es que el campo escalar de Klein-Gordon no viola ninguna de esas condiciones. Lo hace para masa positiva, pero, cómo ya hemos visto, también es válido para masa negativa.

El siguiente ejemplo que analiza es el de Casimir, que tanto he mencionado. El truco es que las placas paralelas conductoras modifican el vacío de la electrodinámica cuántica.

image

El tensor correspondiente es

image

Ahí z es la coordenada perpendicular a las placas, separadas por una distancia a. Se puede ver facilmente que ese tensor viola varias de las condiciones (un buen signo de ello es que la densidad es negativa). Es interesante señalar que la materia de las placas es ordinaria y que es un efecto cuántico, debido a la modificación de la energía del vacío en QED, debido a las placas, la que genera la energía positiva. Es decir, no se necesita materia exótica para tener energía negativa. Lo interesante sería que se pudiera crear una zona de energía negativa para crear materia exótica. Visser analiza algún ejemplo más cómo por ejemplo el entorno de un agujero negro (vacío de Hartle-Hawking) y ve que allí hay una violación considerable de las condiciones de energía positiva. También algunos campos de los que se usan en modelos de quintaesencia para explicar la expansión acelerada del universo hay violaciones de la condición de energía débil. Realmente uno podría considerar que esos campos son energía exótica, pero no tienen masa negativa, y no cubren el analisis que yo pretendía. Ya hemos visto que con un campo de Klein-Gordon no se puede lograr eso.

La siguiente opción, en orden de complejidad, dentro de las ecuaciones relativisatas es la de Dirac.

image
Aqui la masa no esta elevada al cuadrado así que esta ecuación distingue masa positiva de negativa ¡Menos mal! Pero no cantemos victoria todavía, que también nos va a dar unas cuantas sorpresas.

En fin, veo que, cómo es habitual, en cuanto intento explicar algo que considero medianamente interesante las entradas se vuelven muy largas así que lo dejo aquí de momento. Quedan muchas cosas que comentar, cómo por ejemplo las ligeras relaciones entre ésto y la correspondencia AdS/CFT de Maldacena, las ecuaciones para spin mayor que 1/2, el caso del bosón de Higgs, etc, etc.

Quien me conozca seguramente estará aterrado ante semjante afirmación porque sabe de mi tendencia a no publicar las entradas sucesivas de un tema cuando decido dividirlo en varias partes. Para intentar tranquilizarle voy a comentar un aspecto técnico sobre wordpress y el galaxy note. Escribir matemáticas en el note, con el S-pen, es fantástico, y las característicar para hacer copy/paste de fórmulas de libros para tenerlas a mano también funciona bastante bien. En contraposición escribir fórmulas con latex en wordpress es muy tedioso (aunque bienvenida sea la posibilidad). He buscado bastante tiempo una herramienta que tranforme una fórmula escrita a mano al latex correspondiente y lo copie al portapapeles, para así poderlo pegar en el wordpress, pero no he dado con ella. Tampoco veía un modo sencillo de que las imágenes copiadas al portapapeles del note pudieran ser incluidas en wordpress, hasta que he descubierto que mediante un programilla del note (scrappbook) y la opción de exportación a la aplicación de worpress para android puedo subir las imágenes recortadas al portapapeles de manera razonablemente directa. He usado esa opción en casi todas las fórmulas de esta entrada, y es mucho mas rápido que el latex. Supongo que, en cierta manera, era esa diferencia de flexibilidad a la hora de escribir fórmulas entre el note y el blog- unido a otros factores, como que la física teórica está un poco aburridilla- lo que me ha tenido tan reacio todo este tiempo a escribir por aquí. Confío que, con esta nueva facilidad, me animaré a escribir de nuevo mas menudo.

¿Está la física teórica erosionando la confianza del público en la ciencia?

junio 23, 2015

Con excepción de una entrada que escribí para aclarar dudas sobre la pseudociencia de la consciencia cuántica y la teoría de la inmortalidad cuántica de Robert Lanza, que se perdió por aquello de las sesiones de wordpress, no he escrito nada en casi un año.

El motivo no es falta de tiempo, tengo más o menos el mismo tiempo libre que antes, o que me haya desconectado de la física o las matemáticas (De hecho posiblemente haya dedicado mas tiempo a estos temas éste año que otros anteriores).

La causa es que no ha habido temas novedosos que me hayan invitado a escribir de ellos. Una cosa es que, para estar al día, yo me tenga que leer lo que se hace y otra informar a un público general sobre una sucesión indefinida de temas que no llevan a una verificación experimental o a un avance teórico rompedor que de perspectivas serias de que eso pueda suceder.

El caso es que recientemente se ha publicado un artículo con el tema que planteo en el título.

Could the evolution of theoretical physics harm public trust in science?

La cuestión que plantea lleva en el aire mas de una década, y de dos, la incapacidad de la teoría de cuerdas para hacer predicciones claras, complicadas con los modelos inflacionarios, que lo mismo que la propia teoría de cuerdas, abren la ventana al tema del multiverso. Por supuesto, cómo ya he explicado en este blog, y como está explicado en otros sitios, la teoría de cuerdas sí impone serias ligaduras a los universos posibles, más de lo que hacen  las teorías cuánticas de campos. Pero el problema es que, según pasa el tiempo, cada vez los desarrollos teóricos se basan en otros desarrollos previos, y, de ese modo, la conexión con los datos probados experimentalmente se hace mas difusa.

Se puede argumentar que esos progresos son de tipo matemático, y que, por tanto, son tan ciertos cómo los postulados inicales. Pero, cómo nos ha enseñado una y otra vez la historia, la  interpretación física de unos resultados matemáticos no es un tema neutral en absoluto. Y sin una guía experimental una gente puede creer que unos resultados matemáticos signifcan una cosa, y que existe tal o cuál objeto, y que los sistemas se comportan de tal o cuál forma, y otros no estar de acuerdo. Un claro ejemplo de eso es la polémica sobre la pérdida de información en agujeros negros, que ha pasado por el principio de complementariedad,  el holográfico, la correspondencia de Maldacena  (un tema para darle de comer aparte), la propuesta de Polchinsky y Cia de los firewalls detrás de un horizonte de sucesos (o la teoría de fuzballs de Mazur unos años antes), la correspondencia ER-EPR surgida a raíz del debate de los firewalls, o cómo ese ER-EPR veta la existencia de agujeros de gusano atravesables (soluciones de la relatividad general perfectamente válidas, que ahora alguna gente descarta con unos argumentos muy difusos, sin entrar en ningún tipo de detalle, pero con mucha rotundidad).

En definitiva, mucha superestructura, cada día más, y cada vez menos cerca de lo actualmente establecido de forma experimental. Eso deja cada vez mas espacio para que se hayan ido colando muchos errores que tal vez, analizando de forma teórica, se puedan detectar en el futuro, pero que rebajan la credibilidad.

Afortunadamente no todo es así, y hay mucha gente que sigue preocupada de hacer predicciones verificables en el LHC, o en medidas cosmológicas. Ciertamente para hacer esas predicciones eligen, de entre las posibilidades de la teoría de cuerdas, un subconjunto de opciones, de forma algo arbitraria, pero está bien que haya quien no pierda de vista la opción de tener resultados experimentales.

Por supuesto ahora que el LHC esta activo de nuevo, y funcionando a mas energía, es posible que en cualquier momento encuentre algo nuevo, y deje obsoleta esta entrada ¡Ojalá se así!.

Aprovecho también para dejar constancia de que esta semana se esta celebrando en india la conferencia Strings 2015. Lo mismo ahí anuncian alguna idea nueva realmente interesante (no es algo que haya que descartar).

Strings 2015

String technology: brane bombs, rayos desintegradores, escudos ultrarresistentes…

octubre 26, 2014

Cómo ya he dicho mas veces hace unas décadas la ciencia ficción imaginaba nuevas tecnologías, muchas de las cuales se han visto realizadas, y muchas otras, posiblemente algunas de las más interesantes, no.

Hoy en día la mayoría de los autores de ciencia ficción están muy por detrás de la ciencia actual y son incapaces de concebir cosas que sean medianamente basadas en física seria y sean novedosas. En vista de ello voy a dedicar esta entrada a explicar algunas ideas para posibles nuevas tecnologías basadas en la teoría de cuerdas. El nivel va a ser a nivel de ciencia ficción hard, con conceptos más o menos firmes, y alguna fórmula. Son todo ideas propias aunque supongo que cualquiera que domine la teoría de cuerdas podría tener ideas similares o mejores.

Por supuesto antes de exponer las ideas necesito explicar bastante cosas de ciencia. Muchas de estas ideas ya han sido expuestas en este blog, pero en mor de intentar la mayor autocompletitud posible se volverán a exponer.

El concepto de brane bomb (sería mejor hablar de bombs, porque habría varios tipos) no sé si ha sido considerado con anterioridad. Se me ha ocurrido a mí, y no he consultado aún si hay algo hecho en esa línea. Está, como su nombre sugiere, basado en el concepto de branas (sobre todo Dn-branas) de la teoría de cuerdas.

Una Dn-brana viene a ser un objeto de n dimensiones (hay varios valores, entre 1 y 9 posibles para n). Esas branas serían zonas en las que se pueden mover los extremos de una cuerda abierta. Eso llevó al concepto de braneworld, consistente en que el universo de 3+1 dimensiones sería una D3-brana en el que se moverían las partículas del modelo standard, que serían cuerdas abiertas, y sólo el gravitón, que es una cuerda cerrada, podría moverse en las dimensiones extra (recordar que las cuerdas requieren un universo de 9+1 dimensiones.

El concepto más sencillo de braneworld admite muchas generalizaciones. En todo caso los elementos genéricos que necesitan conocerse para entender lo que sería una brane bomb necesitan que explique alguna cosa más recordemos que la forma más simple de reconciliar las dimensiones extra de la teoría de cuerdas con el universo de 3+1 dimensiones es hacer que esas dimensiones sobrantes sean de un tamaño inapreciable (del orden de la longitud de Planck en el caso más típico). Se dice que esas dimensiones están compactificadas. Las propiedades de la física del modelo standard (que es una teoría cuántica de toda la física observada experimentalmente, excepto la gravedad, la materia oscura y la energía oscura) depende de las propiedades de esa compactificación: por ejemplo, el número de familias de partículas sería el número de Euler de la variedad en que se compactifican las dimensiones.

En torno a esas dimensiones dobladas sobre si mismas podría haber Dn-branas que se enrollasen en ellas total o parcialmente. En De ese modo se conjugan los modelos más sencillos con los de d-branas. Es importante notar que el tamaño de esas dimensiones extra debe mantenerse bajo control. Ese tamaño y forma está asociado a unos campos escalares llamados moduli, en referencia a los moduli de geometría algebraica. Un moduli sería un parámetro que nos daría información sobre la forma de una familia de superficies. El caso mas sencillo posible seguramente sea el moduli de un toro. En este caso el móduli sería un cociente entre los dos radios del toro. En teoría de cuerdas ese moduli matemático sería un campo escalar cuyo valor fijaría las proporciones y tamaños de la compatificación.

Para que el tamaño esté fijado debe generarse un potencial para esos moduli. Caso de no ser así habría una inestabilidad potencial y cualquier pequeña perturbación podría hacer que alguna, o todas de esas dimensiones extras creciera o decreciera sin control. En una versión mas refinada se tendría lo que se conoce cómo el problema de polony. Los moduli, por argumentos relacionados con la supersimetría, y en concreto la energía en la que se rompe la supersimetría Msusy. En concreto tendrían una masa del orden de m=c.M_{susy} dónde c es un parámetro del orden de M_{susy}/M_{planck}. Con esa masa los modelos cosmológicos indican que los moduli aportarian demasiada energía en el inicio del universo conduciendo a una sobreclausura. Para evitar ese problema se debe general algún potencial para los moduli Ese potencial lo generaría el flujo, una generalización del concepto del flujo magnético, de unos campos antisimétricos que tendrían su fuente en las Dn-branas. Entrar en mas detalles haría que el post se volviese demasiado técnico. Un buen review, relativamente sencillo, de la teoría de compactificaciones de flujo es Pyhsics of String Flux compactifications

Es importante entender que las constantes de acoplo del modelo standard (las que deciden la intensidad de las interacciones) dependerían del tamaño de esas dimensiones extra. Por ejemplo, en el caso mas trivial posible, el modelo de Kaluza-klein del electromagnetismo, muy anterior a la teoría de cuerdas (1919) la constante de estructura fina está relacionada con el radio R de compactificación por la expresión \alpha=\frac{4l_p^4}{\Phi R^2}  Aquí \Phi es el dilatón, el campo que fija el tamaño de la compactificación, y sería, por tanto, un moduli, aunque uno muy especial. Aclaro que las cosas no son tan sencillas en un escenario realista. Sabemos por el modelo standard (verificado al haberse descubierto el bosón de Higgs) que el fotón está asociado a una simetría gauge que proviene de la ruptura de simetría de un grupo SU(2)xU(1) electrodébil. El U(1) de antes de la simetría no es el mismo U(1) del electromagnetismo. El fotón es una combinación del campo Z (bosón electrodébil neutro) sin masa antes de la ruptura de la simetria, y el bosón del U(1) original. Podríamos irnos a alguna realización”stringy” del modelo standard SU(3)xSU(2)xU(1) que, en principio, nos daría las constante de acoplo de los diversos grupos gauge directamente a partir de los tamaños de compactificación y luego, echando para atrás, a partir de los ángulos de Weinberg y de los valores observados de las constantes deducir el tamaño de cada una de esas compactificaciones. Por supuesto los detalles matemáticos serían horribles, y, además, nada nos garantiza que ese modo de obtener el modelo standard a partir de la teoría de cuerdas es el que ha seguido la naturaleza. El problema del landscape nos dice que podría haber una cantidad enorme, el número que se suele dar es 10^500, formas de obtener el modelo standard a partir de las cuerdas. Pero eso, para los propósitos de lo que quiero discutir aquí no es tan importante.

La idea que nos interesa es que, sí de algún modo pudiéramos controlar los flujos que regulan el potencial de los moduli podríamos cambiar el valor de las constantes de acoplo. Claro, el valor observado de las constantes depende de elementos circunstanciales (a que escala se rompió la supersimetría, el valor de vacío que tomó el bosón de Higgs, etc), y no es nada sencillo imaginar que pasaría exactamente sí se lograra cambiar algún móduli concreto, entre otras cosas porque no sabemos experimentalmente nada más allá del modelo standard, que ni siquiera tiene supersimetría. Pero, en principio, una física más avanzada que conociese esas cosas (suponiendo que la supersimetría y la teoría de cuerdas son la descripción correcta de esa física) podría predecir ese tipo de cosas.

Para más dificultad, y ya a modo de explicar mas cosas sobre cuerdas, señalar que los escenarios concretos que se pueden dar en teoría de cuerdas son muy variados. Puede haber varias Dn-branas, de diferentes dimensiones, enrolladas sobre diferentes “agujeros” de las dimensiones compactificadas, y que unos campos gauge vivan en membranas diferentes, con los fermiones viviendo en las intersecciones de dichas branas, claro. Es complica aún más los cálculos, pero bueno, a los físicos se nos paga (o debería pagar) por ese tipo de cosas.

Vamos ahora con los conceptos pertinentes de las bombas. Una bomba siempre está asociada a una reacción exoenergética espontánea. Esto se da cuando se tiene un estado estable, que deja de serlo al cambiar las condiciones por ejemplo, al añadir un nuevo reactivo) o uno metastable es decir, qué puede llegar a otro estado de menos energía, pero para ello se requiere un aporte de energía para superar un gap que impide alcanzar el nuevo vacío. Es importante, además, que la diferencia de energía entre ambos vacíos sea menor que la del gap. De ese modo se puede dar una “reacción en cadena” en la que parte de la energía liberada cuando una zona concreta de la sustancia alcanza el nuevo vacío se usa para que otra parte de la sustancia supere a su vez el gap. Los detalles cambian, pero cualquier bomba (o ya puestos, fuente de energía, al fín y al cabo la diferencia entre una bomba y una fuente de energía es básicamente la velocidad de la reacción) se basa en esos principios.

Un caso muy típico es el de las reacciones nucleares. Hay una fórmula, la fórmula semiempírica de masas, que nos da las masas (relacionadas con las energías de ligadura) de los núcleos en función de su número Z. Esta es la gráfica de esa relación.

He sacado la imagen de una página que explica los detalles de esa fórmula. NIELS BOHR Y LA FISIÓN NUCLEAR

La idea es que hay un máximo de la energía de ligadura para un cierto Zc (un valor relativamente pequeño). Para átomos con un Z menor que Zc es favorable una fusión de los mismos para tener una ligadura mas fuerte (valor mas estable) y para átomos con Z mayor que Zc es favorable que se dividan en otros mas pequeños.

Bien, entonces tenemos ya los ingredientes para los rayos desintegradores, brane bombs y demás. Vamos a ir con ello.

Imaginemos que logramos modificar, en una zona concreta del espacio, el valor de una constante fundamental, por ejemplo la constante de fermi G_F (el modelo de fermi es un modelo fenomenológico que describe muchos de los procesos de desintegración nuclear débil, y puede ponerse en términos de las constantes del modelo de Weinberg-Salan SU(2)xU(1)). Eso podría hacer que las desintegraciones nucleares ocurriesen a un ritmo muchísimo mas veloz que el actual. La mayoría de los núcleos son inestables, aunque su ritmo de desintegración es totalmente despreciable. Pero sí se hace que G_F sea lo bastante grande cualquier cosa se podría desintegrar en un tiempo arbitrariamente pequeño.

Y ahí ya entramos un poco en imponderables. Lo normal sería que para crear esa zona con G_F enorme tuviéramos que aportar muchísima mas energía de la que producirían los núcleos al desintegrarse. En ese caso habríamos creado una zona del espacio que desintegraría la materia. Sí esa zona la podemos expandir en forma de rayo, pues sí, tendríamos un rayo desintegrador. No tengo claro cómo sería de energético el proceso de desintegración en sí. Una bomba de fisión nuclear genera mucha energía en poco tiempo porque es una reacción autocatalizada, y que ocurre en un tiempo infinitésimal. Sí ajustamos los valores para que, en promedio, los átomos de un cuerpo macroscópico típico se desintegren en, digamos 5 segundos, y teniendo en cuenta que los núcleos normalmente estables lo son porque están relativamente cerca de el máximo de energía de ligadrua, y que, por tanto, el gap de energía al desintegrarse sería pequeño, supongo que el cuerpo se desintegraría “limpiamente” y no en una explosión que aniquilaría todo lo de alrededor, pero tampoco estoy muy seguro. Sería un ejercicio interesante para un examen de un curso introductorio de física nuclear ;-).

Vamos ahora a ver un modelo posible de “bomba brana”. Imaginemos que vivimos en un mundo dónde las branas están enrolladas sobre una de las dimensiones extra. Sí en un punto hacemos crecer el valor del flujo lo suficiente podríamos plantearnos la posibilidad de “pinchar la brana” en ese punto. Aclaro que ese concepto no tengo claro que esté contemplado en detalle (o incluso si está contemplado) en la ortodoxia. En principio creo que sería posible, y que podría intentar calcular la energía necesaria usando la acción de Bron-Infield que describe el comportamiento de la brana, pero ni me planteo ahora meterme a analizar los detalles. Bien, sí eso es posible se generaría, imagino, una onda de Shock en la brana. Esa onda se transmitiría por la brana desde le punto de “pinzamiento”. La brana, dentro de la cuál vivimos, respondería a esa onda calentándose a grandes temperaturas. Eso es al menos lo que se propone en el modelo cosmológico conocido como modelo ekpirótico en el que el “big bang” se debería a una colisión de la brana que vivimos con una paralela. El modelo en sí está bastante desacreditado, pero los cálculos de lo que ocurriría sí una brana choca con otra debería ser similar a lo que produciría la onda generada por un pinzamiento, imagino.

Los efectos de esa hipotética “bomba brana” sería que en una zona del espacio-tiempo, expandiéndose cómo una onda desde el punto de pinzamiento (punto de la “explosión”) la temperatura alcanzaría un valor elevadísimo (cuanto depende de los detalles). Ese calor, al estar en la brana, y está en el propio espacio-tiempo, actuaría desde dentro de los cuerpos sólidos, no desde fuera. Sin meterme a calcular se puede estimar que las energías y temperaturas deberían ser mucho mas elevadas que las de cualquier bomba nuclear. Además, la “explosión” iría por “dentro del espacio-tiempo” y no serviría de nada ningún tipo de barrera o escudo.

Y vamos con el último punto, los escudos ultrarresistentes (pero inútiles contra bombas brana xD). La idea seria crear una zona dónde la constante electromagnética alpha fuese mas grande (sin tocar el resto de constantes de acoplo). Eso, en principio, dejaría la materia estable, pero permitiría que los átomos se pudieran agrupar mucho mas cerca unos de otros. Para hacernos una idea de los órdenes de magnitud con los que podríamos jugar esta bien esta visualización. Sí hiciéramos crecer un núcleo atómico al tamaño de un balón de fútbol el átomo tendría el tamaño de la provincia de Madrid. Cómo no se pueden agrupar átomos mas cerca de su tamaño atómico, y la masa del átomo está casi toda en el núcleo, tenemos que la materia sólida es, en cierto modo, increíblemente porosa y muy poco empaquetada. Si hacemos crecer alpha lo bastante tendríamos que podríamos empaquetar la materia muchísimo más. Y no sólo eso, los enlaces electromagnéticos, de los que dependen las propiedades de consistencia de la materia ordinaria, serían mucho mas fuertes, y tendríamos por tanto una materia muy densa y muy resistente, ideal para construir materiales que sirvieran de escudos, bien contra bombas nucleares, bien contra rayos cósmicos. Esto último serviría para evitar que los astronautas recibieran demasiada radiación en largos viajes espaciales. Bueno, y también, supongo, se podría hacer escudos capaces de resistir el impacto contra micrometeorítos (aunque no sé yo sí con eso bastaría para asegurar la supervivencia del astronauta pues aunque no se rompiera el escudo la deceleración podría ser lo bastante como para pulverizar al astronauta contra el caso de la nave, sería cuestión de hacer los cálculos).

Obviamente todo lo que he dicho es muy, muy hipotético, empezando porque la propia teoría de cuerdas es hipotética en si misma. Pero incluso dentro de la teoría de cuerdas hago muchas suposiciones. Además, no explico, porque no tengo ni idea, cómo podríamos controlar el campo de flujo que nos permitiría cambiar el valor de los moduli, y por tanto de las constante de acoplo. Incluso sí esto estuviera bien tampoco analizo los detalles exactos que sí se podrían calcular usando la física conocida. Todo eso llevaría muchísimo tiempo, y no tengo claro que fuese algo que se pudiera incluir en ningún programa de investigación “vendible” a una universidad.

Con todo creo que puede ser interesante para estimular un poco la imaginación de que tipo de tecnologías se podrían crear basadas en la teoría de cuerdas (sí esta resulta ser cierta) y que son imposibles en el marco de otras teorías. Y, además, me ha servido de excusa para divulgar un montón de conceptos interesantes en si mismos. Espero que una cantidad suficiente de lectores hayan entendido lo suficiente, porque admito que no es un asunto para nada sencillo, pero, hey, es ciencia ficción basada en el cutting-edge de la física actúal, algo que hecho muchísimo en falta en la literatura de género actual. Dejo total libertad a que cualquier escritor de CF use estas ideas (aunque caso de hacerlo agradecería que dejase referencia). Por supuesto si cualquiera usa estas ideas para construir una bomba brana y destruir el planeta tierra yo declino toda responsabilidad ;-).

Los resultados de BICEP2 casi desmentidos por los datos de Planck

septiembre 22, 2014

Hace unos meses el experimento BICEP2 proclamó haber encontrado evidencias de ondas gravitacionales primordiales, producidas por la inflación, siendo pues una evidencia también de la existencia de la inflación. Esto se había logrado al encontrar modos B en el fondo cósmico de microondas. Este tipo de ondas significan que un ratio, llamado r, tenía un valor 0.2, mucho mayor que lo esperado según los modelos considerados hasta ese momento.

Desde la publicación de ese anuncio el arxiv ha visto una media de tres artículos diarios sobre inflación (eso he leído, habiendo seguido el arxiv casi a diario yo diría que más). Yo, en su momento, no puse nada sobre la noticia por un sencillo motivo: en el pasado he dejado constancia de muchos posibles descubrimientos, y, excepto el Higgs, todos han resutltado quedar en nada (vale, también es que para cuando había entendido bien que eran los dichosos modos B, el índice r, y el resto de detalles la noticia ya había dejado de serlo xD).

El caso es que cuando se publicó el resultado ya se avisó que era necesario que otros experimentos relacionados, y en particular el satélite Planck, contrastaran la observación. Hoy el experimento Planck se ha pronunciado, y lo que ha dicho es que el resultado de BICEP2 podría ser debido exclusivamente a polarización del fondo de microondas provocado por polvo interestelar en la zona de cielo observada y no debido a ondas primordiales. El problema es que BICEP2 medía la polarización exclusivamente en una frecuencia, y dependía de modelos teóricos para estimar el fondo. Planck usa medidas en 5 frecuencias, y mira una zona mas amplia del cielo, y no tiene ese problema.

El artículo de Planck en cuestión es éste: Planck intermediate results. XXX. The angular power spectrum of polarized dust emission at intermediate and high Galactic latitudes.

Se puede leer más sobre el tema en el blog de Sean Carrol, preprosperous universe: Planck Speaks: Bad News for Primordial Gravitational Waves? o, también, en un blog que no conocía de nada, cuyo link ha dado Peter Woit ‘Big Bang Signal’ Could All Be Dust. Este último blog da muchos detalles, y no me cabe duda de que la mayoría de los blogs famosos tendrán entrada al respecto, así que recomiendo ojearlos.

De haberse confirmado este experimento habría significado un premio nobel teórico para los proponentes de la inflacción (Allan Guth y Andre Linde), y otro para el grupo experimental, bien por la medida de la inflación o bien por las ondas gravitacionales (al fín y al cabo sería la primera evidencia casi directa de la existencia de las mismas), o incluso uno nobel por cada uno de los descubrimientos, vaya. Pero, en vista de lo que ha publicado hoy Planck parece que va a quedarse en nada, lo cuál, con la escasez de descubrimientos positivos en física y cosmología fundamental, es siempre algo antipático. De hecho esta contumaz costumbre de resultados experimentales a medias, que siempre terminan siendo desmentidos, que tenemos en la última década es lo que hace que cada vez me de mas pereza publicar sobre lo que se está haciendo hoy día y me divierta más escribir sobre ideas propias, que aunque no sean tan importantes cómo lo que pueda hacerse por ahí, me resulta mas entretendio exponer. Aún así seguiré poniendo de vez en cuando noticias sobre temas que me resulten llamativos y también seguiré con otras entradas didácticas sobre temas ya establecidos.

Juegos formales: Masas tensoriales I (planteamiento).

septiembre 13, 2014

Debo decir que las cosas que se están haciendo últimamente en física teórica, a nivel mas innovativo, no me entusiasman terriblemente, así que por eso estoy esforzándome en reflejar lo que se está haciendo. Además, ya está el blog de Lubos y otra gente. Uno de los artículos más interesantes en bastante tiempo, que no puedo dejar de recomendar, es éste:
Vafa: supergroups, non-unitary cousins of CFT, and black hole puzzles en el que comenta este artículo de el famoso Cumrum Vafa (posiblemente el físico de cuerdas mas prestigioso después de Ed Witten, con permiso de Juan Maldacena) Non-Unitary Holography.

Hay alguna cosa más, que ya iré mencionando según vaya leyendo y analizando, pero hoy me voy a centrar en algo que estuve haciendo hace un tiempo, y que creo puede resultar entretenido, y que ayuda a replantearse cosas, pasar de una física en la que la masa es una constante a ser una magnitud tensorial.

Lo primero es indicar las motivaciones iniciales para considerar esa posiblidad. La primera idea la tuve a raíz de un polémico experimento de PODKLETNOV y su presunta máquina de antigravedad . La verdad es que el experimento y la polémica quedaron en nada, al menos hasta dónde sé. Pero la idea que me planteé es la siguiente. Sí uno piensa en que en una zona de la tierra hay una máquina de antigravedad eso significaría que el campo gravitatorio resultante perdería su simetría esférica. En el límite en que se hace que la masa que provoca el campo sea puntual tendríamos que en vez de un punto sin estructura en la que estuviera toda la masa tendríamos algo que tendría una distribución angular, bien en forma de vector, o de tensor de segundo orden (o alguna forma mas complicada como un desarrollo en serie de términos tensoriales de orden creciente, pero vamos, mejor empezar por las generalizaciones mas sencillas.

Bien, esa es la primera idea. La segunda sería ¿Y cómo sería el comportamiento inercial de esa masas vectoriales o tensoriales? Por supuesto sabemos que, al menos en promedio, la masa no tiene estructura. Ahora bien, pensemos en un electrón (o cualquier otra partícula subatómica). Imaginemos que moverlo en una dirección sea ligeramente mas difícil que moverlo en alguna otra, pero que la orientación de ese vector, o tensor masa, varíe de un electrón a otro. Así, en promedio, para una cantidad macroscópica de electrones, no habrá ninguna dirección privilegiada. Luego, si vamos a el caso del análisis de un electrón aislado, al ser cuántico y no seguir una trayectoria, pues ya no tiene mucho sentido el estudio clásico y habría que ir a el caso cuántico. La verdad es que imagino que habrá límites experimentales que, desde ya, se pueden hacer a la posible asimetría vectorial/tensorial de la masa de las subpartículas, aunque siempre se podría argumentar que sí son muy pequeños no serían observables si no se busca específicamente.

Una consecuencia práctica de este posible carácter vectorial/tensorial de la materia sería la siguiente. Sí se pudiera “polarizar” la materia de tal forma que todas las subpartículas, orientadas de manera aleatoria, alinearan sus masas en una dirección concreta tendríamos una situación interesante. La “masa total” (el módulo del vector, o sí es un tensor, alguna norma matricial adecuada) se mantendría, pero resultaría que mover un objeto en la dirección del menor valor de la masa sería mas sencillo que en las otras. Así, si realmente la materia tuviera esa naturaleza, y supiéramos cómo polarizarla, podríamos, dependiendo del grado de asimetría, hacer que mover un cuerpo en una dirección requiriese muy poca fuerza (y por consiguiente gasto energético) a costa de que fuese mas difícil de maniobrar, debido a la mayor masa en las otras direcciones. Sí, por ejemplo, la asimetria pudiera ser de un 30% eso significaría que ahorraríamos un 30% de gasto en transporte.

Ok, hasta ahí consideraciones muy mundanas. Vamos a ir a algo mas abstracto. En relatividad general el campo gravitatorio newtoniano pasa a ser la geometria del espacio-tiempo, y en concreto su métrica, un tensor de orden 2 (una matriz, para entendernos). A partir de la métrica (que generaliza el potencial, la componente 00 de la métrica está relacionada con el potencial newtoniano clásico) se obtiene el tensor de curvatura de Ricci, otro tensor de orden 2. Cómo ya mencioné en la entrada anterior, comentando el libro sobre Riemman, la parte de geometría diferencial estaba hecha en 1902 o así, y la idea de que el espacio podría ser curvo llega hasta, cuanto menos, Gauss, y ya un físico formuló una idea de que la materia curvaba el espacio a mediados del siglo XIX. El éxito de Einstein fué pasar de esas consideraciones etéreas a algo mas concreto. En concreto, sospecho, la gran dificultad de la RG, que pasa desapercibida, y no se hace suficiente énfasis, es
cómo relacionar esas ideas geométricas con la materia. La solución, desde el punto de vista actual, es el tensor de energía momento. Una introducción muy detallada a las ideas básicas de ese tensor la podéis encontrar en el estupendo blog sobre la teoría de la relatividad, en concreto esta entrada. En física teórica se suele definir una fórmula general para obtener ese tensor a partir del lagrangiano de un campo. Ese campo puede ser el campo electromagnético, o un campo cuántico genérico, cómo el campo de klein-gordon o el de Dirac. Estos últimos surgen de la idea de tomar la “función de onda” de una partícula que cumpla las respectivas ecuaciones cómo un campo “clásico” cuyo valor se interpreta cómo la probabilidad de crear una partícula que cumpla esas ecuaciones (el bosón de Higgs seguiría la ecuación de Klein-Gordon, el electrón la de Dirac). Lo interesante es que esos lagrangianos, cuando tienen una masa en el término cinético, es una masa “escalar”. Uno se podría plantear que tal vez sea mas “natural” que ya de principio la masa sea un tensor, cómo el lado derecho de la ecuación, el tensor de Ricci. Desde luego no es esta la idea mas habitual. Lo que la gente ha buscado es que la materia sea en si misma algo con estructura geométrica. En esa línea lo último que he visto es un trabajo del famoso matemático (galardonado con la medalla fields), Michael Atiya Geometric Models of Matter que, la verdad, no ha tenido una gran repercusión.

Aparte de estas justificaciones “abstractas” otra motivación mas pragmática y fenomenológica vendría de la posibilidad de que sí vivimos en un “braneworld” en el que la materia está restringida a moverse en una brana tal vez haya alguna asimetría en la brana, que varíe de un punto a otro, y que esa asimetría cause esa “masa tensorial”. O, tal vez, podríamos pensar en un mecanismo de Higgs alterado, con un Higgs que no sea escalar sino vectorial, y que no represente una simetría interna sino externa. La verdad es que esto está muy traído por los pelos y, en última instancia, es casi mas interesante el juego conceptual, y lo que se puede aprender siguiéndolo, que la parte práctica, aunque nunca se sabe ;-).

Bien, entonces tras esta exposición de las motivaciones pasaré, en la siguiente entrada, a exponer cómo implementar la idea, y lo que se aprende en el intento.

RIEMANN: UNA VISION NUEVA DE LA GEOMETRIA

agosto 12, 2014

De vez en cuando me gusta leer biografías de científicos famosos (preferentemente físicos y matemáticos).Este verano he leído de la de Riemann, escrita por Jose Luís Muñoz.

El libro mantiene un muy buen equilibrio entre los aspectos biográficos (especialmente los pertinentes a la parte académica, lógicamente), y los de la matemática.

Empieza por los primeros trabajos en variable compleja (ecuaciones de Cauchy-Rieman para determinar si una función es analítica, superficies de Riemann para funciones complejas multivaluadas, y su utilidad), y en teoría de la integral (integral de Riemann, claro xD) haciendo hincapié no tanto en la definición en sí (se supone que el lector debería tener cuanto menos una base de bachillerato y conocerla) cómo en las implicaciones de esta par aformalizar y poner en base firme muchos resultados anteriores, y posreriores (hasta la llegada de la integral de Lebesgue, y la teoría genera de la medida e integral, que serían necesarias mas adelante, pero eso no quita que la definición de Riman siga siendo muy válida en muchos casos).

Luego pasa a la parte que da al libro su subtítulo. Ahí habla de cómo para obtener una plaza de profesor debe hacer una lectura para conseguir una plaza de profesor permanente. Según la tradición propone 3 temas el último de los cuales era la geometría. Entre el jurado está Gauss, del cuál Riemann había sido alumno. Cómo quiera que Gauss había publicado muy recientemente su trabajo en geometría. Este versaba principalmente geometría intrínseca de superficies, de gran importancia, culminado por su “teorema egregio” que vincula la integral de su curvatura intrínseca -no depende del “embeding” de la superficie en \mathbb{R} ^3 con una propiedad topológica de la superficie, el género, que había aparecido en el trabajo de Riemann en superficies de Riemann compactas. El caso es que bien sea por mala uva (algo siempre posible en Gauss) o porque tenía curiosidad de ver que aportaba alguien tan brillante cómo Riemann al tema decidió que el trabajo versara sobre la tercera opción (cuando siempre se había mantenido la tradición de que versase sobre la primera).

El caso es que, con gran estrés, Riemann preparó una lectura magistral dónde generalizó los resultados de gauss a un número arbitrario de dimensiones. Para ello introdujo el concepto de variedad. Eso sí, cómo el trabajo debía leerse ante un público amplio que, aparte de matemáticos, incluía físicos, biólogos, geólogos, etc, no entraba en muchos detalles. Sea por eso, o por que el autor del libro así lo decidió, la verdad es que apenas comenta ningún punto técnico al respecto.

No obstante, pese a esa falta de detalles técnicos, si hay dos punto muy curiosos. Por un lado menciona a Kingdon Clifford, muy conocido por las álgebras que llevan su nombre, pero mucho menos (yo desde luego lo ignoraba) por su teoría de la gravitación basada en la geometría. Cierto es que ya Gauss había comentado que determinar en que geometría vivimos debería ser algo empírico, y basado en medidas locales (de ahí su geometría intrínseca, inspirada por su trabajo cómo cartógrafo). Pero Clifford va mas allá y afirma que es la materia la que curva el espacio. Esto lo publica en 1870, 45 años antes de que Einstein desarrollase la relatividad general. Por supuesto su teoría es mas una idea filosófica que algo bien desarrollado física y matemáticamente. Y aún estaba lejos el concepto de espacio-tiempo, en el que el tiempo y el espacio es algo que depende del espectador (manteniéndose invariante la velocidad de la luz, o la métrica de minkowsky).

También habla de dos discípulos Italianos (en el final de su vida Riemann fué a dar clase a Italia, por motivos de salud) de Riemmann, Cristoffel y Levi-Civitta. Estos continuarían su trabajo en geometría y construirían el cálculo tensorial que luego usaría Einstein en su relatividad general. Lo curioso es que ese trabajo ya estaba hecho en 1901. Con eso nos quedamos con que el 1870 ya se había sugerido que la materia curvaba el espacio. Muy poco tiempo después, 1907, de publicar su relatividad especial Herman Minkowsky pondría esa teoría en un formalismo geométrico, creando el concepto de espacio tiempo con una métrica constante. En conclusión, Einstein ya tenía en 1907 todos los ingredientes para cocinar su relatividad general. De hecho en la presentación actual el paso de un espacio-tiempo plano a uno curvo es algo tan “autoevidente” que resulta hasta extraño creer que le llevase tanto tiempo dar el salto. Admitamos que Einstein no conociera esa matemática. Pero el cálculo tensorial tampoco es tan complicado de entender (al menos sí lo explica alguien que sepa). Se puede tardar, en la forma en que se presentaba en esa época, unos 4 meses, cómo mucho. Realmente con clases privadas de un experto (cómo fué le caso de Einstein) yo creo que se podría reducir el tiempo a un mes o menos (realmente no sé l oque tardó, a lo mejor visto desde la perspectiva actual parece mas sencillo de lo que era en la época).

Entonces sí todo parecía tan predeterminado ,y estaban todos los ingredientes, y Einstein era tan listo, una vez más ¿Por qué tardó tanto? Bueno, supongo que por un lado porque las cosas parecen mas sencillas después. Y, por otro, porque estaba listo todo el aparato matemático de la geometría. Lo que no estaba nada, nada claro, sospecho, es cómo relacionar la materia con esa geometría. Además, Einstein trabajaba con observadores. Desde un punto de vista geométrico las cosas se ven de una forma, y desde los observadores de otra. Supongo que uno podría plantearse que pasa con observadores con aceleración lineal constante primero, y luego con una aceleración centrípeta constante (he leído varias biografías de Einstien, y me parece recordar que en parte si hizo eso). De hecho es pensando en observadores cómo sale el famoso experimento mental del ascensor, y de ahí la idea de la geometría cómo campo gravitatorio (en realidad hay mas factores históricos, pero eso es otro asunto). Pero, insisto, yo creo que la parte que fué mas difícil es la de la inclusión de la materia. Realmente uno puede saltarse toda esa búsqueda de Einstien y tener una forma de trabajo “operativa”. Aprende a calcular el tensor de Einstein y luego sabe que al otro lado está el tensor energía-momento. Se puede quedar con que para un fluido (algo importante en cosmología) tiene la forma que tiene (sí le apetece se lee los detalles de porque eso está relacionado con la teoría de fluidos standard). Y, luego para cuando se empieza de un lagrangiano, uno se queda con que del lagrangiano se saca el tensor energía momento mediante variaciones. Es algo realmente latoso el cálculo de ese tensor, no confundir con el tensor de energía-momento de nóether, con aquello de calcular las variaciones respecto a la métrica, y hay que usar varias formulilas para poner eso en forma tratable y etc, etc (yo hice hace poco el cálculo del tensor energía-momento de una cuerda bosónica, para ver si era capaz de reproducir los resultados de libro, y me costó lo suyo aunque la final lo saqué). Per ovamos, eso, que si a uno le plantan el lagrangiano del sector geométrico ya sabe que de ahí salen, mediante variaciones, el tensor de Einstein. Y si le plantan el lagrangiano de la la materia pues entonces puede “aplicar la receta”. Realmente son tareas precisas, y metódicas, y pueden hacerse con un ordenador. Para mathemática hay mcushos scripts de cálculo tensorial. máxima lo trae incorporado. no sé si hay scripts que calculen el tensor energía-momento a partir de un lagrangiano pero no se me ocurre motivos para que no pueda haberlos.
En definitiva, que puede ser engañosamente fácil la inclusión de la materia, pero sospecho, puede haber ahí mucha sutileza oculta.

Pero dejemos la relativdad y sigamos con Riemann. Tras eso el libro se pone a hablar de su trabajo en funciones elípticas. Ahí el libro entra en muchos detalles. Hace una introducción al tema desde el principio, definiendo las integrales elípiticas, y otras similares mas sencillas. Luego hace un repaso de los trabajos previos de los Benouilli, euler, Legendre, Abel y Jacobbi (y cómo Gauss ya tenía estos últimos trabajos antes que esos dos, pero sin publicar). Y luego, claro, explica el trabajo de Riemann. Realmente no puede usarse cómo libro de texto sobre funciones elípticas (una introducción a las ideas mas habituales y de mas uso viene en libros de física matemática, cómo , por ejemplo. El Mathews Walker). Es curioso eso de las funciones elípticas. Aunque he leído sobre ellas, por completitud, la verdad es que no me las pusieron nunca en un plan de estudios ni en física ni en matemáticas (y eso que en matemáticas cogí, mala elección a la postre ya que de las partes que me interesaban del temario no se dió nada, variable compleja II). La verdead es que no tengo claro sí siguen siendo importantes en alguna rama de las matemáticas hoy día o si son algo así como una “abandonamath”. Sé que existen las funciones automórficas y modulares, y me parece que, de algún modo, tiene algo que ver con las funciones elípticas. Pero el caso es que asistí en la complutense a un curso (abierto a todo el público) de funciones automorfas y modulares y si hay alguna relación no se mencionó.

La última parte del libro, cómo podría esperarse, trata de la famosa hipótesis de Riemann, Ahí se trata las propiedades de la función z de Rieman y de las partes pertinentes de la teoría de números (dsitribución de los números primos basicamente)

Hay algún aspecto más en el libro que no he mencionado (funciones hipergeométricas, por ejemplo). Y poco he dicho de los aspectos biográficos. Quien quiera los detalles que lea el libro, que merece mucho la pena ;).

Introducción a la supersimetría II: El modelo de Wess-Zumino

julio 14, 2014

Continúo con el tema de los posts de supersimetría traídos del otro blog. En realidad este se ve correctamente allí porque ya había añadido matajax, que por ahora sigue funcionando, a mi plantilla de blogspot, pero por completitud, y en previsión de que termine fallando el plugin, lo dejo por aquí también.

Continuo el tema introduciendo una realización de dicha supersimetría en términos de un lagrangiano sencillo, lo que se conoce como el modelo de Wess-Zumino. Quien no tenga muy recientes sus conocimientos de teoría cuántica de campos, y en particular los tipos posibles de spinores, puede leer sobre ello en esta entrada.

Este va a constar de dos campos, un campo escalar complejo \phi formado por dos campos reales A y B, \phi=(A+iB/\sqrt{2}) y un campo spinorial de Majorana \psi . Ambos campos van a carecer de masa. El motivo para ello es que en la naturaleza no se ha observado la supersimetría, lo cuál indica que caso de existir, la supersimetría debe estar rota. Se supone que las partículas supersimétricas de las partículas conocidas habrán adquirido masa a través de un proceso de ruptura de esta supersimetría. Con estos ingredientes el término cinético de nuestro lagrangiano será.

1.L= \partial^{\mu} \phi^*\partial_{\mu}\phi ~ + ~ 1/2i\bar\Psi\displaystyle{\not} \partial \Psi

Ese lagrangiano es invariante bajo una transformación SUSY global:

2. \delta A=\bar\epsilon\psi \delta B=i\bar \epsilon\gamma_5 \psi

\delta \psi=-i\gamma^\mu[\partial_\mu (A + i \gamma_5B)]\epsilon

Donde \epsilon es el generador infinitesimal (asumo que el lector esta familiarizado con como surgen los generadores infinitesimales de simetrías en mecánica cuántica y su relación con las simetrías globales a través de la exponenciación) de la supersimetría, un spinor infinitesimal de Majorana.

Puede verse que, como se espera de una supersimetría, esta transformación nos cambia campos bosónicos en campos fermiónicos. Para ser supersimétrica el lagrangiano debe ser invariante bajo esta transformación. Se puede verificar que bajo ese cambio la variación del lagrangiano es:

3. \delta L=\partial_\mu[1/2\bar\epsilon\gamma^\nu(\displaystyle{\not}\partial(A + i\gamma_5 B))\psi]

Este delta L es una derivada total y por tanto no contribuye a la variación total de la acción y , como anunciaba, hace que 1 sea un lagrangiano supersimétrico. En general los lagrangianos supersimétricos no pueden ser invariantes bajo supersimetría, salvo que sean constantes, y siempre debe entenderse la invarianza en el sentido de que su variación es una derivada total.

Este lagrangiano es adecuado para partículas libres. Si añadimos interacciones se encuentra que le conmutador de dos transformaciones no es cerrado fuera de la capa de masas, y por tanto no es adecuado. Para paliar eso deben añadirse dos campos bosónicos extra, normalmente designados F y G, cuyo lagrangiano es:

4. L= 1/2F^2 + 1/2 G^2

La solución de la ecuación de Euler Lagrange asociada al lagrangiano 4 es F=G=0 y por tanto estos campos no tiene estados en la capa de masas, intervienen en la teoría sólo como partículas virtuales intermedias.

Se ha descrito hasta ahora como sería el lagrangiano para partículas sin masa. Nada impide construir el lagrangiano para partículas con masa. El término de masa tendría la forma:

5. L _m= m(FA + GB -1/2\bar\psi \psi)

La forma mas general de un término de interacción -renormalizable sería.

6. L_i= g/\sqrt{2}[FA^2 - FB^2 + 2GAB - \bar\psi(A - i\gamma_5B)\psi]

Este sería el modelo elemental de Wess-Zumino. Si uno pretende hacer teorías de campos supersimétricas realistas debería trabajar con fermiones quirales zurdos. No es especialmente complicado hacerlo, y repitiendo los pasos uno llegaría a una expresión de los lagrangianos anteriores en términos de esos fermiones quirales. El aspecto más interesante de ese desarrollo es que uno termina con un lagrangiano que puede expresarse de la forma:

7.L = L_K - |\partial W/\partial \phi|^2 ~ - ~ 1/2(\partial^2 W/\partial \phi^2\psi^T_L C \psi_L + herm.conj)

Aquí L_k sería el término cinético para los campos correspondientes y W sería lo que se conoce como el superpotencial. Este juega un papel importante en muchas discusiones sobre supersimetría y será tratado con mas detalle en ulteriores entradas. Por ahora decir que para el modelo sencillo que estamos considerando aquí su expresión más general sería:

8.W= 1/2m\phi^2 ~ + ~ 1/3 g\phi^3

En esta entrada se ha presentado el que posiblemente sea el tratamiento mas sencillo posible de la supersimetría. Actualmente es muy común usar el formalismo de supercampos. Este se basa en la noción de superespacio. El superespacio es el resultado de añadir a las componentes geométricas normales unas componentes “fermiónicas” representadas como variables de Grassman. Un supercampo dependería de ambos tipos de variables. Dadas las peculiares propiedades de las variables de grassman es muy sencillo ver que un desarrollo en serie en términos de las mismas es finito y que, por tanto, se puede dar una expresión general para un supercampo. Cuando se hace eso para campos que solamente tengan spin 1/2 y y 0 se puede ver que el modelo de supercampos obtenido es equivalente a el modelo de Wess-Zumino presentado aquí. Si además se impone que los campos fermiónicos sean quirales se obtiene la versión quiral del modelo de Wess-Zumino. El supercampo que cumple esas características es conocido cómo “supercampo quiral”. Por supuesto se pueden hacer construcciones supersimétricas para campos gauge y, de ese modo, teorías gauge supersimétricas y análogos supersimétricos del modelo standard. La extensión supersimétrica mas sencilla de el modelo standard se conoce como MSSSM (minimal supersymetric stadard modell).

Aquí hemos tratado la supersimetría global. Cuando esta se hace local aparece de manera natural la gravitación y tendríamos teorías de supergravedad. Dado que la supersimétria no esta realizada en el modelo standard se asume que si el universo presenta supersimetría debe hacerlo en una versión con supersimetría rota. La ruptura de supersimetría es un tópico complejo, y juega un papel fundamental en la mayoría de modelos fenomenológicos que se postulan para extender el modelo standard de partículas. Indirectamente eso significa que también juegan un papel en las teorías de cuerdas, en sus diversas variantes. Por ejemplo la teoría F, la mas desarrollada a nivel fenomenológico utiliza una variante del mecanismo de supersimetría conocido como modelo de guidicce-massiero.

Se irán tratando esos tópicos en posteriores entradas.

Finalizo diciendo que estos posts siguen principalmente el libro de texto de P.D. B. Collins, A.D. Martin y E.J Squires “Particle physics and cosmology”. A eso he añadido información adicional de los libros de M. Dine “Supersymmetry and superstrings” y el volumen III de el libro de teoría cuántica de campos de Steven Weinberg.

Introducción a la supersimetría

julio 14, 2014

Continúo con la tarea de rescate de entradas del otro blog que han quedado inoperantes por aquello de que en blogspot no hay soporte nativo para latex, ahora toca un par de entradas sobre supersimetría.

Mucho se ha hablado de supercuerdas. Esta palabra consta de dos partes. La parte de “cuerdas” más o menos es algo que todo el mundo puede entender en el sentido de que todo el mundo tiene la idea intuitiva de lo que es una cuerda. La parte “rara” es la de super.

El prefijo “super” se usó mucho en física en una época. Los casos más destacados probablemente sean los superconductores y la supersimetría. Pese a la coincidencia en el nombre no tiene nada que ver uno con otro. Vamos a ver, inevitablemente muy por encima, cómo avanza el tópico, qué es la supersimetría, SUSY para los amigos.

La motivación inicial para esta teoría provino del problema de la jerarquía. ¿Cuál es este problema? En el marco de las teorías de gran unificación, hay una gran diferencia de energía entre la escala de la ruptura de la simetría electrodébil y la de la de la ruptura de la teoría unificada(SU(5) o la que fuera). Si uno se mete en los tecnicismos del mecanismo de Highs esto requiere un ajuste muy fino de parámetros. Y esto es algo que siempre desagrada.

Una forma de solventarlo es la existencia de cierto tipo de campos escalares de masa 0. Pero no hay ninguna buena razón para esto. Lo que si hay es una buena razón para la existencia de fermiones quirales (o quasiquirales), el hecho de que se hayan observado (son los neutrinos). Estos fermiones quirales tiene masa 0. Si hubiera de algún modo una partícula de spin 0 ligada a ellos tendríamos resuelto el problema pués esa partícula debería tener masa 0.

Para esto uno busca que pueda existir una simetría que transforme bosones en fermiones, y viceversa. denotémosla por Q, i.e.

1.  Q|F>=|B>  Q|B>=|F>

Para ilustrar algunas propiedades clave de la supersimetría cojamos un ejemplo muy sencillo basado en un oscilador armónico cuántico que incluya bosones a y fermiones b, que satisfacen las relaciones de conmutación (y anticonmutación):

2.  [a, a^+]=1, [a,a]=[a^+,a^+]=0

\{b, b^+\}=1, \{b,b\}=\{b^+,b^+\}=0

Dónde, por si alguien no lo conoce {x,y}=x.y +y.x.

El hamiltoniano para este sistema es:

3. H=1/2w_B\{a^+,a\} + 1/2w_F[b^+,b]

Siendo un oscilador armónico sabemos cuál va a ser su energía:

4. E=w_B(n_B + 1/2) + w_F(n_F - 1/2)= w(n_F + n_F)

Dónde en el último paso hemos asumido que las w fermiónica y bosónica sean iguales.

Se puede ver fácilmente que que cada estado tiene una degeneración con el mismo número de grados de libertad bosónicos y fermiónicos.

Edto indica que debe haber algún tipo de (super)simetría en el hamiltoniano. Y en efecto, uno puede comprobar que los operadores:

5. Q=\sqrt{2w}a^+b,   Q^+=\sqrt{2w}b^+a

conmutan con el hamiltoniano, es decir:

6. [Q,H]=[Q+,H]=0

Obviamente los operadores Q y Q+ claramente intercambian un fermión por un bosón y viceversa.

Además tenemos que:

7. {Q,Q+}=2H

Pués bien, esta es la esencia de los operadores de SUSY expresados para un caso sencillo de mecánica cuántica no relativista. Pero claramente estamos interesados en mecánica cuántica relativista, i.e. teoría de campos.

Dejaré para otra ocasión cómo se realiza el álgebra SUSY en teoria de campos. Señalar solamente una característica específica de la SUSY no mencionada hasta ahora que tiene un cierto interés.

Desde que empezó a surgir el interés por las teorías gauge, puede que incluso antes, se planteó la cuestión de si había alguna forma de tener un grupo que mezclara las simetrías internas con la simetría del grupo de Poincaré. Coleman y Mandula en 1967 demostraron que bajo supuestos muy generales esto era imposible.

Pués bien, la superismetría escapa este teorema “no-go” pués aparte del los generadores P_{\nu} (momento lineal) y M_{\mu\nu} (momento angular) y Ta (generadores del grupo gauge) incluye los generadores de la supersimetría.

De hecho estos estarán relacionados con el operador momento por la relación:

8. 

Por cierto, para los posibles lectores de exactas decir que en términos matemáticos la supersimetría tiene la estructura de una álgebra de Lie graduada.

Bien, este ha sido un primer contacto con la supersimetría. En la siguiente entrada hablaré del modelo supersimétrico más sencillo, el de Wess-Zumino.


Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 31 seguidores