Archive for 20 mayo 2011

Multiverso y mecánica cuántica

mayo 20, 2011

Hoy ha aparecido en arxiv un artículo de dos “pesos pesados”, Leonard Suskind y Raphael Bousso sobre la relación entre las bases de la mecánica cuántica y el multiverso: The Multiverse Interpretation of Quantum Mechanics.

El abstract del artíclo es bastante auto-explicativo:

We argue that the many-worlds of quantum mechanics and the many worlds of the multiverse are the same thing, and that the multiverse is necessary to give exact operational meaning to probabilistic predictions from quantum mechanics.
Decoherence – the modern version of wave-function collapse – is subjective in that it depends on the choice of a set of unmonitored degrees of freedom, the “environment”. In fact decoherence is absent in the complete description of any region larger than the future light-cone of a measurement event. However, if one restricts to the causal diamond – the largest region that can be causally probed – then the boundary of the diamond acts as a one-way membrane and thus provides a preferred choice of environment. We argue that the global multiverse is a representation of the many-worlds (all possible decoherent causal diamond histories) in a single geometry.
We propose that it must be possible in principle to verify quantum-mechanical predictions exactly. This requires not only the existence of exact observables but two additional postulates: a single observer within the universe can access infinitely many identical experiments; and the outcome of each experiment must be completely definite. In causal diamonds with finite surface area, holographic entropy bounds imply that no exact observables exist, and both postulates fail: experiments cannot be repeated infinitely many times; and decoherence is not completely irreversible, so outcomes are not definite. We argue that our postulates can be satisfied in “hats” (supersymmetric multiverse regions with vanishing cosmological constant). We propose a complementarity principle that relates the approximate observables associated with finite causal diamonds to exact observables in the hat.
.

No es la primera vez que se ha intentado hacer algo en esta línea. Peter Woit, el autor del blog contrario a la teoría de cuerdas “not even wrong” ha puesto una entrada sobre este artículo Cosmological Interpretations of Quantum Mechanics dónde da un enlace a un artículo del año pasado. En el libro Universe o multiverse del 2003 ya se trataba este tema.

Digamos que lo importante no es que se haya tratado el asunto sino que lo hayan hecho dos físicos tan famosos como Susskind y Bousso.

La idea de este tipo de artículos es más o menos sencilla de entender. En mecánica cuántica la función de onda evoluciona de manera determinista. Sin embargo cuando “colapsa”, es decir, cuando se hace una “observación” el resultado de la medida es incierto y esta distribuido probabilisticamente entre una serie de valores posibles. Una interpretación famosa de ese hecho, distinta a la interpretación escolástica de cophenage es la interpretación de los “muchos mundos” de Everett. En esa interpretación cada vez que se hace una medida se produce un universo nuevo, uno por cada resultado posible de la medida. En las teorías modernas de inflación (la inflacion es una etapa de expansión muy acelerada del universo, requerida para conciliar algunas observaciones cosmológicas del universo en sus primeros instantes) es requerido que no haya una sino muchas, en la práctica infinitas, inflacciones Cada una de estas crearía su propio universo, y el conjunto de todos esos universos el multiverso. La tentación es obvia, unir la interpretación de Everett de la mecánica cuántica y estos modelos de “inflación eterna” o “inflación caótica” de tal modo que cada universo opcional de Everet es un universo real creado por el mecanismo de inflación.

En eete artículo usan, como paso intermedio, la interpretación de decoherencia de la mecánica cuántica. Esta consiste en eliminar los “observadores” y simplemente hablar de dos sistemas cuánticos: uno muy pequeño, con pocos grados de libertad (la partícula o átomo a estudiar) y otro grande con muchos grados de libertad (el sistema de laboratorio y el observador que lo manipula). Ahí el “colapso” de la función de onda es una mezcla (entrelazamiento) de los estados del sistema pequeño con los del sistema grande. La interpretación de decoherencia, en mi opinión es la mas “razonable”, en el sentido de menos metafísica, de las disponibles, pero tiene algunos problemas (que son expuestos en el artículo de Suskind-Bousso. Argumentan que, aparte de los problemas habituales, la deocherencia no funciona en el multiverso. No he leído aún el artículo entero, pero veo que .hacen una llamda al principio de complementariedad de agujeros negros (que dice que la interpretación cuántica del interior de un agujero negro y debe ser la misma, es decir, debe tener los mismos estados cuánticos, para observadores fuera y dentro del agujero negro).

Imagino que Lubos estará a punto de publicar algo sobre este artículo, y sabiendo su poco cario al multiverso no creo que sea una muy favorable (aunque Susskind sea uno de los físicos que mas respeta). A mi particularmente no me atraen tampoco nada este tipo de especulaciones. Leeré el artículo porque sospecho que es de lectura casi obligada y que en el futuro se citará bastante, pero a priori soy bastante escéptico sobre la idea de mezclar la inflación eterna y el multiverso (que me parecen una hipótesis razonablemente fundada, lo cuál no significa que tenga que ser cierta, por supuesto) y los problemas de la interpretación de la mecánica cuántica. En fin, dejo el link porque sé que es importante y posiblemente algunos lectores querrán explorarlo por su cuenta (es un artículo relativamente “asequible”) pero ciertamente no es el tipo de cosas que me entusiasman.

Actualización: Cómo imaginaba Lubos analiza el artículo. Y acerté, no le gusta. Eso sí, me quedé algo algo corto en mis estimaciones sobre el desagrado que le produciría porque su post empieza fuerte, compara el artículo de Susskind-Bousso con uno similar de Smolin. Para quienes no estén al tanto indicar que Lubos considera que Smolin (poseedor de un doctorado en física por Harward y profesor de física en el instituo perímeter) es un chalado incurable y con muy pocas luces. El link concreto a la entrada es este: The Bousso-Susskind hypermultiverse.

Anuncios

¿Es la ciberpolítica el futuro inmediato?

mayo 18, 2011

En este blog (y en la última entrada del blog de CF hard) he hecho referencia en varias ocasiones al hecho de que en la actualidad internet juega un papel importante en la economía y que la economía tradicional no sabe incluirlo en sus estructuras (al igual que no sabe incluir la mayoría de las cosas porque el capitalismo , y el comunismo, son estructuras cuyas bases se crearon hace demasiado tiempo pese a sus retoque están básicamente obsoletos).

En España, como creo que sabe todo el mundo, hay un descontento con la política tradicional y hay manifestaciones varias que buscan nuevas vías políticas, sino directamente dar la espalda a la política hasta que esta no se rehaga y se independice de su servilismo a los mercados (ver la web, o mejor aún el facebook, de democracia real ya ).

No quiero entrar mucho en temas políticos así que me limitaré a unos comentarios básicos. Lo primero señalar que hasta dónde sé el problema de la independencia de los partidos europeos surge en parte por la comunidad económica. Al fin y al cabo hay una serie de directrices generales que la comunidad europea da a sus países miembros. El problema es que muchos dirigentes de la comunidad europea están puestos ahí por medios algo difusos y que en ningún caso requieren una votación directa del ciudadano de algún país. Eso abre las puertas para una influencia muy directa de “los mercados” en esos cargos. De hecho no olvidemos que la comunidad europea intentó imponer una medida de jornadas laborales de 10 horas o más (y casi lo consigue) y es obvio que ningún partido que se presente a unas elecciones se atrevería a llevar algo así en su programa político.

Si se acepta la observación anterior las reivindicaciones de los manifestantes españoles son muy lógicas. Pero la solución no estaría sólo en manos de los votantes españoles y reformas del sistema político español sino que requeriría una acción coordinada que incluyera, además, reformas del marco de la comunidad europea que bloqueara esos altos cargos que no están ahí elegidos por ningún ciudadano.

Esos son problemas muy difíciles de abordar, sin duda. Así que de momento, yendo a lo práctico, me planteo que es la acción inmediata mas útil. Como dije en entradas anteriores, en especial refiriéndome a los derechos de autor, internet es algo muy nuevo en la economía. Si quisiéramos intentar incluirlo en las estructuras tradicionales del capitalismo diríamos que internet es la única vía de crecimiento posible cuando se han agotado (o se está muy cerca del límite de los mismos) los recursos de una biosfera. El truco sería definir el crecimiento económico de una forma mas generalizada y abstracta. Hasta ahora el crecimiento económico viene a ser, más o menos, cualquier medio de desviar recursos de la biosfera de un uso compartido por los ecosistemas naturales a ecosistemas al servicio exclusivo de los humanos (y de sus animales y plantas “domésticos”).

Intenert podría entrar en ese factor de crecimiento si consideramos que una vez cubiertas las necesidades más básicas la siguiente prioridad de los humanos es ocuparse de necesidades mas abstractas (cultura, educación, iencia, etc, etc). Y también crear medios de gestión social efectivos. Al fin y al cabo hay estudios de sistemas complejos (estudiados mediante teoría de redes/grafos)que indican que cuando aumenta la complejidad la mayor parte de los recursos se dedican hacia la creación de sistemas de gestión eficientes. Por ejemplo, sólo una pequeña parte del ADN fabrica proteinas. La mayor parte (eso que se llama epigenética) está dedicada a los factores de expresión de genes y cosas así, es decir, factores estructurales.

Si admitimos eso internet sería un crecimiento económico. No en el plano puramente físico, pero si dentro de lo que podríamos llamar “el espacio de fases” de la economía. En ese escenario internet vendría a significar lo mas cercano a la economía y política mas actual. Piensese, por ejemplo, que las manifestaciones políticas ajenas a los partidos políticos surgen de las redes sociales. Tal vez, sólo tal vez, los partidos cuyo principal centro de atención sea internet estén mas alejados de las estructuras políticas convencionales y mas cerca de lo que realmente es relevante en el escenario actual.

No conozco mucho el panorama ciberplítico. Sé que está por algún lado el partido pirata. Buscando en google he dado con el partido de internet. Me han informado también de que existe un partido formado por un tal Victor domingo, que era (o es) presidente de la asociación de internet: Ciudadanos noroeste (o algo así).

Las elecciones actuales son locales (ayuntamientos y ese engendro español llamado comunidades autónomas). Eso significa que los resultados tienen un papel muy limitado a la hora de la evolución global del sistema. Pero aún así tal vez sería interesante ver hasta que punto algún partido surgido a la sombra de internet, y centrado en él, puede jugar un papel diferente a las plataformas actuales, que ya han demostrado que no representan los intereses de una gran parte de los ciudadanos.

Por supuesto lo suyo, desde un blog de ciencia, sería recomendar a un partido creado a partir de estudios psicohisóricos, pero de momento de eso no hay ;-).

Hacia una mecánica cuántica 3.0

mayo 13, 2011

Hace poco había tenido una idea de como reformular la fenomenología en física de partículas hacia un nuevo escenario. La idea era sencilla, tomarse en serio el problema de la energía del vacío y progresar a partir de ahí. A partir de lo que conocemos el único modo medio natural de tener una constante cosmológica pequeña es que la supersimetría este casi sin romper. Se cumple la relación: \rho_\Lambda \sim M_{SUSY}^4 dónde \rho_\Lambda es la energía del vacío correspondiente a una constante cosmológica \lambda y Msusy, obiviamente, es la masa a la que se rompe la supersimetría. La idea es tomarse esto en serio y pensar que los compañeros supersimétricos tienen la masa necesaria para hacer que la constante cosmológica tenga el valor observado (o cualquier valor arbitrariamente pequeño que elijamos si no nos creemos las observaciones que señalan que vivimos en un universo en expansión acelerada discernible). Eso va en contra del uso que se le suele dar a la supersimetría, que es fijar la jerarquía de masas en el modelo standard (mediante el hecho de que estabiliza la mas del bosón de Higgs y la protege de correcciones cuánticas que harían que esta masa evolucionara hacia la masa de Planck).

Afortunadamente hay otro método de estabilizar la mas del bosón de Higgs y obtener jerarquía: los modelos tipo Randall-Sundrum con dimensiones extra de un cierto tamaño (mesoscópico). Eso nos daría algo mas de libertad para fijar la ruptura de supersimetría dónde queramos. Pero sigue habiendo problemas. El primero sería explicar como no han sido observadas esas partículas si su masa es muy pequeña. En principio eso no debería ser muy difícil de resolver. Basta con que estén en un sector oscuro y sean WIMPs. Otro problema sería ver porque la supersimetría no fija el valor del bosón de Higgs a ese valor de masa tan pequeño. Eso ya es un asunto mas delicado que no me he planteado a fondo (tal vez el higgs que da masa a la spartículas actuales fuese un KK del higgs ligero). Otro tercer problema es que debemos contar con partículas candidatas a ser materia oscura. La LSP (partícula supersimétrica mas ligera) es un buen candidato. Pero no el único. También la partícula de kaluza-klein mas ligera podría ser materia oscura. Y en el escenario R-S justo eso tendríamos, partículas KK de masa semejante a las partículas supersimétricas. Si acaso habría que vigilar que las partículas supersimétricas tan ligeras no fuesen materia oscura caliente ya que eso iría en contra de la formación de estructuras en el universo.. Quizás eso podría resolverse poniendo un grupo gauge SU(3) para el sector oscuro y un proceso de barionización oscuro. Eso nos daría núcleos de átomos oscuros que no serían tan ligeros como las partículas individuales y podrían saltarse los límites para materia caliente.

En fin, en eso estaba yo, cuando han llegado las fechas de mis exámenes de matemáticas y tuve que dejar de lado esas especulaciones. Y hete aquí que ayer en arxiv salió este artículo: Anisotropic Modulus Stabilisation: Strings at LHC Scales with Micron-sized Extra Dimensions que está analizado en el blog de Lubos: Type IIB large extra dimensions. Pues bien, en ese artículo los autores proponen un modelo en esas líneas. Eso sí, mucho mas sofisticado de lo que yo estaba intentando hacer. Yo intentaba dar un modelo básico de supersimetría + randall-Sumdrum. Ellos (M. Cicoli, C.P. Burgess y F. Quevedo)van mas allá y directamente proponen un modelo cuerdístico en toda regla.

En fin, yo sobre mi idea me había limitado a dejar caer en el facebook (si, tengo una cuenta ahí, sic) que tal vez los compañeros supersimétricos no eran lo que todo el mundo pensaba, y que no estaría mal si la presunta observacion de un “higgs-like but no Higgs” en el LHC rumoreada fuese cierta me vendría bien. Eso y comentarle a mi novia, que ahora está estudiando 4º de física teórica, mi idea general (aunque no sé yo si se habrá enterado demasiado). Total, que aunque muy probablemente no hubiese llevado muy lejos la idea es una lástima que se me hayan “adelantado” sin dejar por aquí mayor constancia. Y como hay alguna cosilla más que tengo en mente hacer no quiero que se repita. Por eso voy a hablar de una idea para reformular la mecánica cuántica.

Lo primero de todo es explicar porque digo “mecánica cuántica 3.0” y no 2.0. Realmente hubo una primera mecánica cuántica, previa a la ecuación de Schröedinger y la mecánica matricial de Heisenberg. Esa fue la mecánica cuántica de Bohr, con las condiciones de cuantización para orbitales y cosas así. Realmente ambas teorías no son equivalentes ni formalmente ni en resultados físicos así que tal vez habría que llamar a la cuántica de Schröedinger y Heiseenberg (y sucesores, eso incluye la teoría cuántica de campos) la 1.0. En ese caso yo buscaría la 2.0

Debo aclarar desde ya que no soy alguien especialmente traumatizado con la cuántica, ni estoy obsesionado con sus fundamentos y sus interpretaciones. No tengo particular interés en volver a una teoría determinista y “realista”. Tampoco me obsesiona el rigor matemático y aunque respeto los esfuerzos en ese terreno tampoco me preocupan demasiado. Mis objeciones vienen de otras consideraciones. De un lado el formalismo de la cuántica está muy inspirado en la teoría de espacios de Hilbert, o, mas bien, en la teoría de Sturn Liouville para resolver ecuaciones en derivadas parciales (los espacios de Hilbert vinieron después, con Von-Neumann). Eso hace que la cuántica este impregnada de un linealismo (pues se trabajaba con ecuaciones en derivadas parciales lineales) que no me encaja del todo con el hecho de que las ecuaciones clásicas relevantes sean no lineales. Por supuesto los motivos de la linealidad son otros, y supuestamente debe ser un principio sagrado de la mecánica cuántica, pero aún así si en algún momento pudiera ver como relajar ese principio de una manera coherente sería mas feliz.

Otro motivo para retocar la cuántica es que desde la cuántica no relativista ha habido muchas evoluciones. Primero la cuántica relativista, su ulterior evolución a la teoría cuántica de campos en espacios planos. Mas tarde la cuantización en espacios curvos y, por último, la teoría de cuerdas, que es un mundo aparte. Cada una de estas evoluciones tiene sus peculiaridades y el paso de los postulados de la cuántica relativista a los casos mas complicados es un poco un proceso de parchear el formalismo, y fijarse en otros factores. Sería interesante ver si puede construirse algo que pueda afrontar todos los casos desde una perspectiva unificada.

Otro tema, de interés tangencial, es el tratamiento asimétrico del tiempo en la cuántica. No existe algo así como un “operador tiempo”. Sobre eso estuve en el pasado haciendo consideraciones, que normalmente terminan en un dolor de cabeza, pero con todo algo saqué en claro.

Bien, voy a dejar un pequeño esquema muy provisional de como, tal vez, podría empezar a reformularse la cuántica.

Mi punto de partida es seleccionar el aspecto fundamental que caracteriza la cuántica. Creo que el mas importante es que la cuántica es probabilista. Ahí incluso me planteo la posibilidad de dar un salto conceptual, mas allá del mero formalismo. El punto de vista actual es que la evolución de la función de onda es determinista y que el aspecto probabilista surge al considerar los entes clásicos llamados observadores. Yo no voy a hacer ningún supuesto a priori respecto a esto. Voy a partir de una idea de un mundo real, cuántico/probabilista, y a raíz de ahí buscar interpretaciones de la mecánica clásica.

Mi idea seria plantearme que lo que tenemos un mundo con una serie de estados posibles y unas probabilidades de pasar de unos estados a otros. Esos estados no tendrían porque ser (mientras no se demuestre que sea obligatorio) elementos de un espacio de Hilbert. Mas bien serían un espacio de probablidad abstracto. Las “funciones de onda” serían algún tipo de matriz estocástica (al estilo de las cadenas de Markov, o, mas bien, procesos de Markov en tiempo continuo) que nos darían las probabilidades de transición de un elemento del espacio a otro.

Voy a intentar ver como encaja eso con la idea de una función de onda cuyo cuadrado es la probabilidad de hallar una partícula en una posición determinada. El punto clave es darse cuenta de que esa interpretación, en última instancia, descansa en que tenemos un conjunto de funciones, las autofunciones del operador posición. La idea es que la probablidad de encontrar la partícula en una posición x es la proyección de la función de onda (o para hablar mas propiamente, usando el formalismo de Dirac, del estado de la partícula sobre la autofunción del operador \hat{x} con valor x. En un formalismo puramente probabilista los autoestados de x serían simplemente unos estados elegidos convenientemente porque tienen una significación clásica intuitiva. Lo que nos interesaría sería la “matriz de transición” entre unos estados y otros. Ciertamente, hay un número infinito de tales estados y no hablaríamos de una “matriz de transición” sino de densidades de probabilidad, propias de la probabilidad para variables de probabilidad continuas.

Otro tema importante seria ver que pasa con la relación entre esos estados y la geometría y topologia del espacio tiempo. En principio el formalismo no debería ser muy sensible a estos aspectos. Por ejemplo, si queremos mecánica no relativista tenemos básicamente que respetar el principio de relatividad de galileo. Es decir, que las leyes físicas son iguales para observadores inerciales. Eso es un concepto puramente clásico. De forma abstracta podríamos pensar que estamos seleccionando un conjunto de estados dentro de nuestro espacio de probabilidad y exigir que las amplitudes de probabilidad de nuestra “cadena de Markov” debe estar oportunamente cocientada respecto a esos estados. Si eligiésemos relatividad especial simplemente cocientaríamos sobre otro grupo de estados.

Por supuesto la física entra en la elección de esos estados. Y entra en forma de simetrías. Eso significa que estamos introduciendo conceptos métricos y topológicos. Lo importante sería que, en principio, el formalismo cuántico sería común para la cuántica relativista y no relativista. No habría que pasar de espacios de Hilbert a espacios de Fock. Debería, por supuesto, tratarse con cuidado el tema del vacío.

Y también debería buscarse exactamente como se obtiene una ecuación dinámica que genere esas cadenas de Markov que representan la función de onda.

Obviamente todo esto son ideas muy, muy preliminares. Pero como tengo visto que la gente no se dedica a buscar ideas en blogs ajenos no me preocupa mucho dejar por aquí estos preliminares an poco concretos. Estoy convencido de que nadie va a abandonar su línea de trabajo para ponerse a desarrollar estas ideas tan vagas. Y, si luego alguien que ya estaba trabajando en ideas similares saca algo serio, y funciona, yo podre decir “hey, ¿veis como iba por buen camino?” ;).

Y eso es todo por ahora. Dada mi poca formalidad para mantener una periodicidad a la hora de poner posts no sé yo cuanto pasara hasta la próxima publicación ¡que estas últimas dos han estado muy seguidas!.

Los problemas de fondo de la física experimental y la fenomenología

mayo 9, 2011

Esta entrada enlaza un poco con la anterior sobre los rumores en física aplicada.

Uno de los rumores que comentaba era el de una filtración de unos físicos del observatorio ATLAS del LHC que daban a entender que habían hallado una evidencia a 4.2 sigmas de significación de una partícula con un comportamiento similar en algunos aspectos al Higgs a unos 115 GeV, que es una de las masas preferidas para un Higgs supersimétrico. Ha transcurrido el tiempo y ha aparecido el análisis oficial de la colaboración ATLAS sobre el particular. Y resulta que esa evidencia tan sólida a 4.2 sigmas se ha evaporado totalmente cuando se analiza adecuadamente el fondo de colisiones del modelo standard. La noticia del desmentido aparece en varios blogs, como por ejemplo el de Tomasso Dorigo, Vixra blog (por Philips Gibbs), Lubos y posiblemente algunos más.

Lo realmente llamativo es como una evidencia tan significativa estadísticamente (recordemos, 3 sigmas es un indicio, 5 sigmas es descubrimiento y, por consiguiente, 4.2 sigmas es algo casi, casi seguro) se evapora rehaciendo análisis.

Para ubicar como puede suceder algo así hay que entender como operan los colisionadores de hadrones como el LHC o el Tevatron. En ellos, salvo cuando se hacen experimentos orientados a testear la QCD, se hacen colisionar nucleones (protones vs antiprotones en el Tevatron y protones vs protones en el LHC). Recuérdese que estos nucleones están formados de quarks y antiquarks que se mantiene unidos por intercambio de gluones virtuales. Las colisiones individuales siempre son entre los componentes individuales de los nucleones. Esos componentes individuales llevan una pequeña fracción de la energía total del nucleón (recordemos que tipicamente un protón lleva la energía cinética de un mosquito, es decir, un sólo protón tiene la misma energía cinética que todos los núcleos que componen un mosquito, que tipicamente será un número del orden del número de avogadro, 6,022x10^{23} ). Ese hecho significa que la mayoría de las colisiones individuales tienen sólo una pequeña fracción de la energía nominal de operación del colisionador. Por consiguiente la mayoría de las colisiones no se producen a una energía suficiente para poder generar partículas que nos desvelen nueva física. Eso sí, la mayoría de las colisiones van a generar un montón de partículas ya conocidas, que a su vez se desintegran en un número aún mayor de partículas ya conocidas.

Como resultado de todo esto tenemos que en las colisiones de estos aceleradores hadrónicos tenemos una ingente cantidad de fondo de partículas y eventos ya conocidos y escondidos entre ellos tal vez haya nueva física. No recuerdo exactamente los órdenes de magnitud pero más o menos estamos hablando que estos colisionadores producen al segundo una cantidad de eventos que una vez procesada ocupa del orden de un Terabyte. Si, es correcto, cada segundo uno de estos colisionadores llena un disco duro (posiblemente más de uno) de un terabyte. Pero eso no es todo. Esa es la información ya procesada. Los detectores deben filtrar un montón de eventos que unos algoritmos informáticos consideran irrelevantes y sólo se quedan, para almacenarlos, con una pequeña fracción de los mismos, el resto se pierde para siempre. Estamos hablando de algo así como que de cada 10.000 eventos producidos los algoritmos deciden que sólo uno es lo suficientemente prometedor como para ser almacenado para ulteriores estudios mas detallados.

A la dificultad de manejar esa ingente cantidad de datos brutos se suma otra. Esos colisionadores trabajan con partículas hadrónicas, es decir que interactúan mediante la QCD (quantum cromodynamics). Esto es un grave problema añadido. La QCD tiene una constante de acoplo relativamente grande (no recuerdo el número, pero algo del orden de 100). Esto significa que no puede tratarse por las técnicas perturbativas de la teoría cuántica de campos ordinaria y hay que usar diversas aproximaciones. En algunos casos se puede obtener algo de información de la serie perturbativa, pero hay que ser muy cauto con ella. Al ser tan grande la constante sobre la que se realiza la serie perturbativa resulta que no se cumple siempre que los términos de ordenes superiores aporten valores mas pequeños que los de orden inferior. Es decir, que a lo mejor los términos a segundo orden dan aportaciones mayores que los términos a primer orden, y a veces con signos opuestos. Por ese motivo es necesario testear algunos resultados teóricos con los resultados que se van obteniendo en los aceleradores para ver como evoluciona la cosa.

Una de la mas comunes es lo que se conoce como QCD en el retículo. Esto consiste en aproximar el espacio por una red de puntos (un retículo) y colocar una partícula en cada uno de esos puntos. Estas técnicas de retículo tiene una utilidad limitada porque, para empezar, ese retículo es un retículo euclideo en vez de uno Lorentziano (recordemos que la métrica del espacio-tiempo relativista es Lorentziana). Eso significa que esas técnicas sólo sirven para tratar problemas más o menos estáticos. Realmente no conozco a fondo las técnicas de retículo (ni es un tema que me interese especialmente). Lo que sí sé es que son limitadas en sus resultados. También sé que estos sistemas de retículo muchas veces se resuelven por técnicas de Montercarlo. Lo importante de todo esto es que cuando se analizan los eventos obtenidos en los aceleradores lo que se hace es compararlos con lo que debería aparecer si toda la física se debiese al modelo standard. Es física del modelo standard proviene en su mayor parte de estos modelos informáticos del retículo, y de la serie perturbativa de la QCD. Esto significa que cada vez que se aumenta la energía de las colisiones, y a veces también el número de estas, hay que recalibrar los fondos de QCD con los que se obtiene la física del modelo standard. Todo ese proceso requiere un gran trabajo de algoritmos de ordenador, que a su vez se mezclan con los sistemas de descarte de eventos futiles (el tipo de algoritmos que realizan esos descartes suelen ser del tipo modelado en redes neuronales, osease, técnicas estadísticas de minado de datos en última instancia).

Por supuesto todo eso es muy, muy complicado. Tanto a nivel teórico como a nivel informático (y aparte habría que analizar las bases puramente físicas del funcionamiento de los detectores, que seguramente también tengan su miga). Cualquiera que haya hecho cálculo numérico elemental sabe como se las apañan los ordenadores para hacer redóndeos inoportunos que hacen inservibles muchas simulaciones. En casos como estos, dónde la complejidad es muchísimo mayor las incertidumbres son mucho mayores y, por lo visto, es casi casi un arte aprender a manejarse con esos temas y requiere años de formación muy específica. Desde luego para un físico teórico normal los detalles de todos esos procesos son inasequibles. Lo que nos interesa son los datos brutos procesados y que nos digan si han visto o no tal o cuál cosa.

Pero claro, hay un gran problema (bueno, hay muchos, pero ahora me centro en uno de ellos). Los algoritmos para decidir que es “interesante” muchas veces se basan en los modelos mas en boga en un momento dado. puede suceder que mas adelante los modelos cambien y alguien quiera replantearse buscar en datos antiguos datos que soporten nuevas teorías. Jester, en su blog de resonancias, nos ha comentado varias veces como hay gente interesada en reanalizar los datos del LEP (el colisionador electrón-positrón que estaba dónde ahora está el LHC). El problema es que los datos y algoritmos para analizarlos no están fácilmente disponibles. De un lado los datos no son públicos y hay que pedir permiso al CERN (que no suele concederlo). De otro los algoritmos que analizaban esos datos suelen estar escritos en lenguajes bastante obsoletos (normalmente FORTRAN bastante antiguo) y diseñados para ejecutarse en arquitecturas informáticas igualmente obsoletas (supongo que siempre podría construir algún emulador, pero eso requiere esfuerzo y tiempo).

Total, que con tantos factores involucrados sólo resta confiar en la competencia de unos equipos amplísimos de gente muy competente. Pero, vaya, resulta que la doctora Wu, que según parece es la que filtró los datos sobre el presunto Higgs, estaba trabajando en el LEP (y justo antes de cerrarse el LEP halló indicios del higgs) y están en el LHC desde el primer momento. Se supone que ella, y su equipo, son muy competentes. Aún así pareen haberse equivocado nada menos que en un factor 4.2 sigma en la estimación de unos datos. Claro, se puede aducir que el equipo ATLAS en su conjunto es mas competente y que la revisión que acaba de salir es mas fiable. Por otro lado puede pensarse que esas colaboraciones tienden a ser muy conservadoras y a no publicar nada si no están muy, muy seguros. Eso está bien, es lo suyo. Pero en ese afán pueden dejar pasar datos no demasiado claros que tal vez otra gente supiera interpretar correctamente. No es sencillo porque los datos brutos son, cómo ha quedado claro, muy arduos y requieren muchos programas informáticos y formación específica para ser usados. Pero, con todo, tal vez equipos ajenos al LHC podrían llegar a ver algo que la gente de la colaboración no sabe ver. Sea como sea los datos brutos del CERN no son públicos y no puede hacerse esa revisión por gente ajena al LHC.

Un caso concreto puede servir para ubicar mejor este problema. Ya mencioné en este blog los resultados del LHC sobre búsquedas de microagujeros negros. Ese es un tema que conozco con bastante detalle. Y debo decir que el artículo publicado no me parece especialmente adecuado. De un lado buscaban señales de radiación Hawking modeladas mediante unos cálculos que los expertos en el tema (incluyendo gente tan famosa como Lisa Randall) ya habían pasado a considerar poco fiables y se habían propuesto mejores modelos teóricos. Por otro lado ni siquiera habían estudiado la posibilidad de que los agujeros negros no se desintegran y no había búsquedas de los mismos que se basaran en energía desaparecida. En fin, que para mi el artículo del LHC no es nada concluyente. Pero, obviamente, no tengo acceso a los datos para buscar otras opciones (y mas importante aún, gente de universidades importantes, trabajando en el tema tampoco tienen, hasta dónde yo sé, acceso a esos datos).

Otro campo dónde los fondos de eventos espúreos están causando muchos problemas son los experimentos de detección materia oscura. Esta semana pasada CoGeNet ha publicado un nuevo artículo en el que no sólo confirman haber detectado materia obscura sino que ven una oscilación estacional en la frecuencia de detección similar a la del experimento DAMA (ver por ejemplo en el blog de Lubos: CoGeNT sees seasons (and maybe dark matter) ). Como bien explica Lubos actualmente hay varios equipos que aducen haber detectado materia oscura, casi todos ellos con resultados compatibles con una partícula de masa entorno a los 7 GeV. Otros, por contra, no han detectado nada. Algunos de los que no han detectado nada son experimentos de gran sensitividad. Incluso hay casos en que detectores usando el mismo material de detección (germanio) tienen resultados contradictorios. Esto es especialmente importante porque siempre puede intentarse cocinar alguna partícula rarita que sea detectable por un material y no por otro. Pero si ya hablamos del mismo material la cosas es mucho mas compleja. Aparentemente parte de la controversia puede estar relacionada a como se tratan los fondos de eventos. En este caso estamos hablando de que muy ocasionalmente una partícula WIMP pueda interaccionar con algún elemento de un núcleo atómico y lo haga retroceder. Se supone que los detectores pueden detectar este retroceso. Desafortunadamente no sólo la materia oscura puede causar ese tipo de eventos. También las desintegraciones radiactivas, la radiación cósmica y otros factores pueden provocarlas. Es por ese motivo que los experimentos se ubican en zonas muy profundas (generalmente minas) para aislar en la media de lo posible el experimento de la radiación cósmica y resto de factores ambientales. Aún así es complicado un aislamiento total y hay eventos de naturaleza dudosa que deben ser separados. El modo de tratar estos eventos difiere de experimento a experimento y tal vez ahí pueda estar parte de la clave. Una vez más para un físico teórico los detalles de los experimentos se escapan. He leído alguno de los artículos y la mayor parte de los mismos son descripciones de como se hace el experimento, los materiales usados y cosas así. Solo una pequeña parte del artículo son los datos. Ciertamente esos artículos no van orientados a físicos teóricos así que asumo que los expertos en esos campos sabrán apreciar los detalles, aunque por lo que veo hay algunos factores que me intrigan. Pero esos factores enlazan con otro tipo de problemas que voy a comentar aparte.

En el arxiv la división de hep (high energy physic) consta de tres campos, hep-th (hep teoría), que es la que suelo leer. Luego está hep-ph (hep fenomenologia) que leo ocasionalmente, y que, además, suele tener varios artículos en el crosslist de hep-th). Por último está hep-ex (hep-experimentos) que es dónde se publican los datos de las colaboraciones del LHC, el Tevatrón y otros) que leo sólo en casos excepcionales.

Los artículos de hep-th son “fáciles”. ES decir, son abstractos, con matemática y física muy sofisticada. Pero normalmente están en un lenguaje matemático y aparecen todos los cálculos. Si uno se los lee (y revisa toda la bibliografia necesaria, claro) puede, si sabe del tema, decidir si el artículo es más o menos correcto (o, en todo caso, si está o no de acuerdo con él).

Los artículos de hep-ph son mas delicados. Algunos no tienen problemas y son como los de hep-th, sólo que yendo mas a buscar cosas medibles en experimentos. Pero, es lo miso, están todas las ecuaciones (obviamente si uno mira además las referencias) y en principio se puede intentar verificarlas uno mismo, osea, hacer su propia revisión “peer to peer”. Pero hay otro tipo de papers en los que esto no es posible. La dificultad proviene de que en física teórica los cálculos son muy largos. Para una serie de temas se han creado programas informáticos muy especializados. Esto es típico de artículos sobre fenomenologia relacionados con la supersimetría. Uno puede encontrarse con que le plantean un lagrangiano, del que solo dan los términos relevantes, y luego te dicen que la ruptura de supersimetría de ese lagrangiano te la hacen con tal programa. Y luego comparan unos resultados con datos mediante otro programa, y etc, etc. Un caso real extraído de un artículo concreto es algo tal que así:

Usamos MadGraph y Madevent para esto y aquello, PHYTYA para lo otro. el detector lo simulamos con PGS Para calcular eso que nos hace falta por allá usamos BRIDGE.

Y claro, si yo quisiera revisar los cálculos tendría que tener todos esos programas instalados a mano. Ahora, que casi todo lo estudio en el tablet, llevo a mano el mathemática, el matlab, maple y un compilador ligero de C++. Los programas del párrafo anterior son libres, y podría instalarlos. Pero es cargar demasiado el tablet (posiblemente en mi próximo tablet con windows 7 -los tablet android o el IPad son inútiles para un teórico- me decida a instalar estos programas, al menos algunos). Claro, no todo el mundo suele estudiar en un tablet sin que tiende a estar en un despacho con un sobremesa, o un portatil potente. Pero aún así no veo yo que siempre el artículo de datos suficientes como para saber que datos hay que meter en los programas para verificar los cálculos. Supongo que siempre se podrían pedir a los autores del artículo, pero eso ya es muy comprometido. Total, que en esos artículos de fenomenologia, con tanto programa informático influyendo el esquema habitual de revisión de pares se diluye mucho. Si ya nos vamos a artículos dónde directamente se hace análisis numérico, es decir, que se hace un programa específico, del cuál no se da el código fuente la revisión del artículo es aún mas complicada. Uno debería hacerse su propio programa para hacer esos cálculos, ejecutarlo con los datos (y a saber si usas exactamente los mismos datos) y ver si más o menos concuerda. Sinceramente, la revisión peer to peer en esos casos va a ser, sobre todo, ver si las cosas “parece que cuadran”, pero dudo yo que haya nadie (o casi nadie) que revise los detalles. Y eso es una revisión muy poco fiable. He visto en algún blog la petición de que se cree algo similar al arxiv dónde la gente pueda colgar el código fuente de todas esos programas propios. Pero por ahora no parece haber cuajado la propuesta (y no creo que cuadre).

Por todo lo expuesto creo que estamos ante una situación dónde la complejidad de los experimentos, la fenomenologia de los mismos y las dificultades que entrañan hacen muy difícil la reproducibilidad y la revisión individual de los resultados. Por ahora parece que las cosas siguen funcionando, pero ya estamos ante un ligero cambio sobre el modelo habitual de funcionar de la ciencia en su parte mas experimental. Una forma de resolver esto sería que hubiese varios planetas colonizados, y que en cada uno de ellos se hiciese su propio LHC y etc, etc, pero eso, por ahora, no es una opción disponible ;).

En definitiva, he planteado una serie de dificultades de la física experimental mas actual. a ver que le parecen a los lectores del blo.