Los problemas de fondo de la física experimental y la fenomenología

Esta entrada enlaza un poco con la anterior sobre los rumores en física aplicada.

Uno de los rumores que comentaba era el de una filtración de unos físicos del observatorio ATLAS del LHC que daban a entender que habían hallado una evidencia a 4.2 sigmas de significación de una partícula con un comportamiento similar en algunos aspectos al Higgs a unos 115 GeV, que es una de las masas preferidas para un Higgs supersimétrico. Ha transcurrido el tiempo y ha aparecido el análisis oficial de la colaboración ATLAS sobre el particular. Y resulta que esa evidencia tan sólida a 4.2 sigmas se ha evaporado totalmente cuando se analiza adecuadamente el fondo de colisiones del modelo standard. La noticia del desmentido aparece en varios blogs, como por ejemplo el de Tomasso Dorigo, Vixra blog (por Philips Gibbs), Lubos y posiblemente algunos más.

Lo realmente llamativo es como una evidencia tan significativa estadísticamente (recordemos, 3 sigmas es un indicio, 5 sigmas es descubrimiento y, por consiguiente, 4.2 sigmas es algo casi, casi seguro) se evapora rehaciendo análisis.

Para ubicar como puede suceder algo así hay que entender como operan los colisionadores de hadrones como el LHC o el Tevatron. En ellos, salvo cuando se hacen experimentos orientados a testear la QCD, se hacen colisionar nucleones (protones vs antiprotones en el Tevatron y protones vs protones en el LHC). Recuérdese que estos nucleones están formados de quarks y antiquarks que se mantiene unidos por intercambio de gluones virtuales. Las colisiones individuales siempre son entre los componentes individuales de los nucleones. Esos componentes individuales llevan una pequeña fracción de la energía total del nucleón (recordemos que tipicamente un protón lleva la energía cinética de un mosquito, es decir, un sólo protón tiene la misma energía cinética que todos los núcleos que componen un mosquito, que tipicamente será un número del orden del número de avogadro, 6,022x10^{23} ). Ese hecho significa que la mayoría de las colisiones individuales tienen sólo una pequeña fracción de la energía nominal de operación del colisionador. Por consiguiente la mayoría de las colisiones no se producen a una energía suficiente para poder generar partículas que nos desvelen nueva física. Eso sí, la mayoría de las colisiones van a generar un montón de partículas ya conocidas, que a su vez se desintegran en un número aún mayor de partículas ya conocidas.

Como resultado de todo esto tenemos que en las colisiones de estos aceleradores hadrónicos tenemos una ingente cantidad de fondo de partículas y eventos ya conocidos y escondidos entre ellos tal vez haya nueva física. No recuerdo exactamente los órdenes de magnitud pero más o menos estamos hablando que estos colisionadores producen al segundo una cantidad de eventos que una vez procesada ocupa del orden de un Terabyte. Si, es correcto, cada segundo uno de estos colisionadores llena un disco duro (posiblemente más de uno) de un terabyte. Pero eso no es todo. Esa es la información ya procesada. Los detectores deben filtrar un montón de eventos que unos algoritmos informáticos consideran irrelevantes y sólo se quedan, para almacenarlos, con una pequeña fracción de los mismos, el resto se pierde para siempre. Estamos hablando de algo así como que de cada 10.000 eventos producidos los algoritmos deciden que sólo uno es lo suficientemente prometedor como para ser almacenado para ulteriores estudios mas detallados.

A la dificultad de manejar esa ingente cantidad de datos brutos se suma otra. Esos colisionadores trabajan con partículas hadrónicas, es decir que interactúan mediante la QCD (quantum cromodynamics). Esto es un grave problema añadido. La QCD tiene una constante de acoplo relativamente grande (no recuerdo el número, pero algo del orden de 100). Esto significa que no puede tratarse por las técnicas perturbativas de la teoría cuántica de campos ordinaria y hay que usar diversas aproximaciones. En algunos casos se puede obtener algo de información de la serie perturbativa, pero hay que ser muy cauto con ella. Al ser tan grande la constante sobre la que se realiza la serie perturbativa resulta que no se cumple siempre que los términos de ordenes superiores aporten valores mas pequeños que los de orden inferior. Es decir, que a lo mejor los términos a segundo orden dan aportaciones mayores que los términos a primer orden, y a veces con signos opuestos. Por ese motivo es necesario testear algunos resultados teóricos con los resultados que se van obteniendo en los aceleradores para ver como evoluciona la cosa.

Una de la mas comunes es lo que se conoce como QCD en el retículo. Esto consiste en aproximar el espacio por una red de puntos (un retículo) y colocar una partícula en cada uno de esos puntos. Estas técnicas de retículo tiene una utilidad limitada porque, para empezar, ese retículo es un retículo euclideo en vez de uno Lorentziano (recordemos que la métrica del espacio-tiempo relativista es Lorentziana). Eso significa que esas técnicas sólo sirven para tratar problemas más o menos estáticos. Realmente no conozco a fondo las técnicas de retículo (ni es un tema que me interese especialmente). Lo que sí sé es que son limitadas en sus resultados. También sé que estos sistemas de retículo muchas veces se resuelven por técnicas de Montercarlo. Lo importante de todo esto es que cuando se analizan los eventos obtenidos en los aceleradores lo que se hace es compararlos con lo que debería aparecer si toda la física se debiese al modelo standard. Es física del modelo standard proviene en su mayor parte de estos modelos informáticos del retículo, y de la serie perturbativa de la QCD. Esto significa que cada vez que se aumenta la energía de las colisiones, y a veces también el número de estas, hay que recalibrar los fondos de QCD con los que se obtiene la física del modelo standard. Todo ese proceso requiere un gran trabajo de algoritmos de ordenador, que a su vez se mezclan con los sistemas de descarte de eventos futiles (el tipo de algoritmos que realizan esos descartes suelen ser del tipo modelado en redes neuronales, osease, técnicas estadísticas de minado de datos en última instancia).

Por supuesto todo eso es muy, muy complicado. Tanto a nivel teórico como a nivel informático (y aparte habría que analizar las bases puramente físicas del funcionamiento de los detectores, que seguramente también tengan su miga). Cualquiera que haya hecho cálculo numérico elemental sabe como se las apañan los ordenadores para hacer redóndeos inoportunos que hacen inservibles muchas simulaciones. En casos como estos, dónde la complejidad es muchísimo mayor las incertidumbres son mucho mayores y, por lo visto, es casi casi un arte aprender a manejarse con esos temas y requiere años de formación muy específica. Desde luego para un físico teórico normal los detalles de todos esos procesos son inasequibles. Lo que nos interesa son los datos brutos procesados y que nos digan si han visto o no tal o cuál cosa.

Pero claro, hay un gran problema (bueno, hay muchos, pero ahora me centro en uno de ellos). Los algoritmos para decidir que es «interesante» muchas veces se basan en los modelos mas en boga en un momento dado. puede suceder que mas adelante los modelos cambien y alguien quiera replantearse buscar en datos antiguos datos que soporten nuevas teorías. Jester, en su blog de resonancias, nos ha comentado varias veces como hay gente interesada en reanalizar los datos del LEP (el colisionador electrón-positrón que estaba dónde ahora está el LHC). El problema es que los datos y algoritmos para analizarlos no están fácilmente disponibles. De un lado los datos no son públicos y hay que pedir permiso al CERN (que no suele concederlo). De otro los algoritmos que analizaban esos datos suelen estar escritos en lenguajes bastante obsoletos (normalmente FORTRAN bastante antiguo) y diseñados para ejecutarse en arquitecturas informáticas igualmente obsoletas (supongo que siempre podría construir algún emulador, pero eso requiere esfuerzo y tiempo).

Total, que con tantos factores involucrados sólo resta confiar en la competencia de unos equipos amplísimos de gente muy competente. Pero, vaya, resulta que la doctora Wu, que según parece es la que filtró los datos sobre el presunto Higgs, estaba trabajando en el LEP (y justo antes de cerrarse el LEP halló indicios del higgs) y están en el LHC desde el primer momento. Se supone que ella, y su equipo, son muy competentes. Aún así pareen haberse equivocado nada menos que en un factor 4.2 sigma en la estimación de unos datos. Claro, se puede aducir que el equipo ATLAS en su conjunto es mas competente y que la revisión que acaba de salir es mas fiable. Por otro lado puede pensarse que esas colaboraciones tienden a ser muy conservadoras y a no publicar nada si no están muy, muy seguros. Eso está bien, es lo suyo. Pero en ese afán pueden dejar pasar datos no demasiado claros que tal vez otra gente supiera interpretar correctamente. No es sencillo porque los datos brutos son, cómo ha quedado claro, muy arduos y requieren muchos programas informáticos y formación específica para ser usados. Pero, con todo, tal vez equipos ajenos al LHC podrían llegar a ver algo que la gente de la colaboración no sabe ver. Sea como sea los datos brutos del CERN no son públicos y no puede hacerse esa revisión por gente ajena al LHC.

Un caso concreto puede servir para ubicar mejor este problema. Ya mencioné en este blog los resultados del LHC sobre búsquedas de microagujeros negros. Ese es un tema que conozco con bastante detalle. Y debo decir que el artículo publicado no me parece especialmente adecuado. De un lado buscaban señales de radiación Hawking modeladas mediante unos cálculos que los expertos en el tema (incluyendo gente tan famosa como Lisa Randall) ya habían pasado a considerar poco fiables y se habían propuesto mejores modelos teóricos. Por otro lado ni siquiera habían estudiado la posibilidad de que los agujeros negros no se desintegran y no había búsquedas de los mismos que se basaran en energía desaparecida. En fin, que para mi el artículo del LHC no es nada concluyente. Pero, obviamente, no tengo acceso a los datos para buscar otras opciones (y mas importante aún, gente de universidades importantes, trabajando en el tema tampoco tienen, hasta dónde yo sé, acceso a esos datos).

Otro campo dónde los fondos de eventos espúreos están causando muchos problemas son los experimentos de detección materia oscura. Esta semana pasada CoGeNet ha publicado un nuevo artículo en el que no sólo confirman haber detectado materia obscura sino que ven una oscilación estacional en la frecuencia de detección similar a la del experimento DAMA (ver por ejemplo en el blog de Lubos: CoGeNT sees seasons (and maybe dark matter) ). Como bien explica Lubos actualmente hay varios equipos que aducen haber detectado materia oscura, casi todos ellos con resultados compatibles con una partícula de masa entorno a los 7 GeV. Otros, por contra, no han detectado nada. Algunos de los que no han detectado nada son experimentos de gran sensitividad. Incluso hay casos en que detectores usando el mismo material de detección (germanio) tienen resultados contradictorios. Esto es especialmente importante porque siempre puede intentarse cocinar alguna partícula rarita que sea detectable por un material y no por otro. Pero si ya hablamos del mismo material la cosas es mucho mas compleja. Aparentemente parte de la controversia puede estar relacionada a como se tratan los fondos de eventos. En este caso estamos hablando de que muy ocasionalmente una partícula WIMP pueda interaccionar con algún elemento de un núcleo atómico y lo haga retroceder. Se supone que los detectores pueden detectar este retroceso. Desafortunadamente no sólo la materia oscura puede causar ese tipo de eventos. También las desintegraciones radiactivas, la radiación cósmica y otros factores pueden provocarlas. Es por ese motivo que los experimentos se ubican en zonas muy profundas (generalmente minas) para aislar en la media de lo posible el experimento de la radiación cósmica y resto de factores ambientales. Aún así es complicado un aislamiento total y hay eventos de naturaleza dudosa que deben ser separados. El modo de tratar estos eventos difiere de experimento a experimento y tal vez ahí pueda estar parte de la clave. Una vez más para un físico teórico los detalles de los experimentos se escapan. He leído alguno de los artículos y la mayor parte de los mismos son descripciones de como se hace el experimento, los materiales usados y cosas así. Solo una pequeña parte del artículo son los datos. Ciertamente esos artículos no van orientados a físicos teóricos así que asumo que los expertos en esos campos sabrán apreciar los detalles, aunque por lo que veo hay algunos factores que me intrigan. Pero esos factores enlazan con otro tipo de problemas que voy a comentar aparte.

En el arxiv la división de hep (high energy physic) consta de tres campos, hep-th (hep teoría), que es la que suelo leer. Luego está hep-ph (hep fenomenologia) que leo ocasionalmente, y que, además, suele tener varios artículos en el crosslist de hep-th). Por último está hep-ex (hep-experimentos) que es dónde se publican los datos de las colaboraciones del LHC, el Tevatrón y otros) que leo sólo en casos excepcionales.

Los artículos de hep-th son «fáciles». ES decir, son abstractos, con matemática y física muy sofisticada. Pero normalmente están en un lenguaje matemático y aparecen todos los cálculos. Si uno se los lee (y revisa toda la bibliografia necesaria, claro) puede, si sabe del tema, decidir si el artículo es más o menos correcto (o, en todo caso, si está o no de acuerdo con él).

Los artículos de hep-ph son mas delicados. Algunos no tienen problemas y son como los de hep-th, sólo que yendo mas a buscar cosas medibles en experimentos. Pero, es lo miso, están todas las ecuaciones (obviamente si uno mira además las referencias) y en principio se puede intentar verificarlas uno mismo, osea, hacer su propia revisión «peer to peer». Pero hay otro tipo de papers en los que esto no es posible. La dificultad proviene de que en física teórica los cálculos son muy largos. Para una serie de temas se han creado programas informáticos muy especializados. Esto es típico de artículos sobre fenomenologia relacionados con la supersimetría. Uno puede encontrarse con que le plantean un lagrangiano, del que solo dan los términos relevantes, y luego te dicen que la ruptura de supersimetría de ese lagrangiano te la hacen con tal programa. Y luego comparan unos resultados con datos mediante otro programa, y etc, etc. Un caso real extraído de un artículo concreto es algo tal que así:

Usamos MadGraph y Madevent para esto y aquello, PHYTYA para lo otro. el detector lo simulamos con PGS Para calcular eso que nos hace falta por allá usamos BRIDGE.

Y claro, si yo quisiera revisar los cálculos tendría que tener todos esos programas instalados a mano. Ahora, que casi todo lo estudio en el tablet, llevo a mano el mathemática, el matlab, maple y un compilador ligero de C++. Los programas del párrafo anterior son libres, y podría instalarlos. Pero es cargar demasiado el tablet (posiblemente en mi próximo tablet con windows 7 -los tablet android o el IPad son inútiles para un teórico- me decida a instalar estos programas, al menos algunos). Claro, no todo el mundo suele estudiar en un tablet sin que tiende a estar en un despacho con un sobremesa, o un portatil potente. Pero aún así no veo yo que siempre el artículo de datos suficientes como para saber que datos hay que meter en los programas para verificar los cálculos. Supongo que siempre se podrían pedir a los autores del artículo, pero eso ya es muy comprometido. Total, que en esos artículos de fenomenologia, con tanto programa informático influyendo el esquema habitual de revisión de pares se diluye mucho. Si ya nos vamos a artículos dónde directamente se hace análisis numérico, es decir, que se hace un programa específico, del cuál no se da el código fuente la revisión del artículo es aún mas complicada. Uno debería hacerse su propio programa para hacer esos cálculos, ejecutarlo con los datos (y a saber si usas exactamente los mismos datos) y ver si más o menos concuerda. Sinceramente, la revisión peer to peer en esos casos va a ser, sobre todo, ver si las cosas «parece que cuadran», pero dudo yo que haya nadie (o casi nadie) que revise los detalles. Y eso es una revisión muy poco fiable. He visto en algún blog la petición de que se cree algo similar al arxiv dónde la gente pueda colgar el código fuente de todas esos programas propios. Pero por ahora no parece haber cuajado la propuesta (y no creo que cuadre).

Por todo lo expuesto creo que estamos ante una situación dónde la complejidad de los experimentos, la fenomenologia de los mismos y las dificultades que entrañan hacen muy difícil la reproducibilidad y la revisión individual de los resultados. Por ahora parece que las cosas siguen funcionando, pero ya estamos ante un ligero cambio sobre el modelo habitual de funcionar de la ciencia en su parte mas experimental. Una forma de resolver esto sería que hubiese varios planetas colonizados, y que en cada uno de ellos se hiciese su propio LHC y etc, etc, pero eso, por ahora, no es una opción disponible ;).

En definitiva, he planteado una serie de dificultades de la física experimental mas actual. a ver que le parecen a los lectores del blo.

4 respuestas to “Los problemas de fondo de la física experimental y la fenomenología”

  1. Instan Says:

    Una entrada muy interesante e instructiva. Esto cada día se parece más a la ciencia tipo cultos cargo. Menos mal que entre tanto batallón de teóricos y experimentales siempre hay alguien que encuentra el error de turno.

    Por cierto, ¿alguien tiene realmente qué es un fenomenólogo en la física de partículas?, ¿ha habido realmente alguno desde los tiempos de Fermi?

    Y la simulación numérica es un ARTE, je,je,je.

  2. freelancescience Says:

    Yo, mas que errores, que normalmente no tardan mucho en salir a la luz, o que me temo es que entre tanto dato en bruto se pierdan muchos descubrimientos.

    Sobre lo que es la fenomenologia en teoría de cuerdas, y en supersimetría, casi mejor escribo una entrada dedicada. Si reúno el valor para tan ingente labor, claro xDD.

  3. Ciencia DiY Says:

    […] en los colisionadores hadrónicos es compleja, según comenté en una entrada reciente Los problemas de fondo de la física experimental y la fenomenología. La anomalía podría deberse a un mal modelado del fondo de colisiones QCD, pero leyendo en varios […]

  4. El affair WJj : D0 rebate los resultados del CDF « Ciencia DiY Says:

    […] Estos resultados contradictorios entre ambos detectores de un mismo colisoinador no hacen sino alimentar los problemas que discutí en mi entrada Los problemas de fondo de la física experimental y la fenomenología. […]

Deja un comentario