Posts Tagged ‘filosofía de la ciencia’

El papel del experimento en la física mas reciente

mayo 2, 2010

En el post anterior expuse como la confirmación experimental de una teoría no siempre es inmediata. Usé ejemplos de física ya bien establecida y, tal vez algo “antigua”. El caso es que alguna gente (incluyendo físicos teóricos, por ejemplo uno de los que comentó el post anterior) tiene la impresión de que de un tiempo a esta parte la física teórica ha abandonado el experimento y son todo conjeturas sin ninguna relación con verificaciones experimentales. A lo largo del ost por mor de hacerlo lo mas autocontenido posible, repetiré a veces cosas ya comentadas en este blog.

Digamos que se da a entender que desde la formulación teórica final del modelo standard en los 80, con el respaldo del descubrimiento del quark top en el LEP se acabó ese vínculo y que desde entonces se han propuesto teorías exóticas sin ningún control. Posiblemente el hecho de que ese modelo es lo último que se explica en los cursos de licenciatura, si uno tira por la rama de física teórica, refuerza esa impresión. Nada mas lejos de la realidad.

Primero voy a hacer una recapitulación rápida de los desarrollos teóricos que tantas críticas han recibido, y luego voy a ir explicando como diversas fuentes han ido poniéndolos a prueba.

Las primeras extensiones del modelo standard de partículas, el famoso SU(3)xSU(2)xU(1) fueron los modelos de gran unificación, el mas famoso de los cuales es el SU(5). Este tipo de modelos, al estar basados en el mismo corpus de teoría que el modelo standard, las teorías cuánticas de campos, no están tan mal vistos como otro tipo de teorías, pero tampoco están libres de críticas. Lo primero es notificar que esa unificación con SU(5) esta descartada experimentalmente. El motivo es que predice que el protón es una partícula inestable, y el ritmo de desintegración del mismo. Experimentos destinados a medir esa desintegración no han detectado nada aún y han descartado completamente SU(5). De hecho ese fenómeno, la desintegración del protón es algo común a varios modelos de unificación, y cuantas mas cotas experimentales haya para ese ritmo de desintegración mas restricciones hay para esos modelos. Aparte de la teoría F las cuerdas heteróticas (y su versión no perturbativa, la teoría M heterótica) también están muy cerca del modelo standard. En general esas teorías favorecen la presencia de un vector Z adicional que es una de las primeras cosas que, de existir, podría hallar el LHC.

Pero los modelos SU(5) y similares (algunas versiones mas elaboradas de los mismos siguen siendo consideradas hoy día) predicen mas cosas. Un aspecto de esas teorías es que se supone que en el universo muy temprano las simetrías unificadas eran válidas y que se rompieron espontáneamente l enfriarse este. Común a todos los mecanismos de ruptura de simetría (incluido el de la simetría electrodébil incluido en el modelo standard) es la aparición de defectos topológicos como los monopolos magnéticos (inevitables), las cuerdas cósmicas (http://antropicos.blogspot.com/2007/03/cuerdas-csmicas.html,<sorprendente que la wiki española no tenga una entrada sobre ellas) o los muros de dominio. Estos dos últimos son objetos cuya presencia no eta totalmente en obligada, son una mera posibilidad. Y son el tipo de cosas exóticas que a mucha gente le disgustan. El caso es que estos defectos topológicos juegan un papel observable importante en cosmología. Como los monopolos son inevitables en estos modelos y no se han observado debe haber algún mecanismo para explicar eso. Ya mencioné este tema en el post anterior y el hecho de que la inflacción (periodo de los primeros del universo en que este tuvo un crecimiento de su tamaño exponencialmente acelerado) era uno de esos posibles mecanismos.
Pero también las cuerdas cósmicas son importantes. Una cuerda cósmica, sería un objeto con la forma de una cuerda, con un grosor microscpóico, una densidad grandísima, y un longitud macroscópica ("infinita" si la cuerda es abierta, y de tamaño astronómico variable según modelos si es cerrada). De existir tendrían un papel en la formación de estructuras en el universo, y hay que tenerlas en cuenta. Y, que quede claro, son objetos sujetos a observación experimental por diversos medios (observación de galaxias duplicadas como resultado de la desviación de los rayos e luz al pasar junto a una cuerda, ondas gravitacionales, etc). Hasta ahora no se han descubierto pero si hay restricciones sobre sus características. Unas de estas restricciones provienen
de las observaciones mas recientes sobre las estructuras del universo. Otras provienen de las ondas gravitacionales. El hecho de no haberse observado ondas gravitacionales del tipo que deberían emitir cierto tipo de cuerdas cósmicas descarta su existencia. Hago notar ya mismo que aparte de como defectos topológicos en las transiciones de fase del universo las cuerdas cósmicas pueden parecer dentro de la teoría de cuerdas (microscópicas). En ese sentido una cuerda cósmica habría surgido cuando una cuerda microscóipica de la teoría de cuerdas (una F-string, o si acaso una D-string, ya explicaré mas adelante que son estas cosas) es estirada hasta tamaños cosmológico por el mecanismo de inflacción. Pues bien, ahí ya tenemos en interacción tres anatemas (para algunos) de la física moderna. La teoría de cuerdas fundamentales, la teoría de cuerdas cósmicas y la inflacción. El caso es que la teoría de cuerdas aporta modelos de inflacción. Entre ellos uno en el que las D-branas (uno de los constructos mas exóticos de la teoría de cuerdas) juegan un papel en crear esa inflacción. Y predicen la creación de cierto tipo de cuerdas cósmicas que provocarían cierto tipo de ondas gravitatorias. El caso es que en el experimento LIGO no se han observado esas ondas y ese tipo de cuerdas cósmicas, y los modelos de inflacción que las crearían, quedan descartados. La referencia dónde se demuestra esto es:An Upper Limit on the Stochastic Gravitational-Wave Background of Cosmological Origin.

Ya he mencionado en los párrafos anteriores a la archienemiga de muchos físicos, la teoría de cuerdas. Asumo que mas o menos todo el mundo ha oído hablar de la misma y que no necesito dar una introducción. Por si acaso dejo un par de links, para los muy despistados: Cuerdas, wikipedia o ¿que es la teoría de cuerdas?. Una introducción algo mas técnica esta en mi otro blog:One string to rule them all
. Es la archienemiga porque requiere dimensiones extra (10, u 11 en versiones no perturbativas como la teoría M), que no se han observado, porque aunque se supone que es una teoría de unificación que permite generalizar al modelo standard es muy dificil obtener este modelo de la teoría. Difícil, aunque no imposible, en el 2008 una versión no perturbativa de las supercuerdas tipo IIB conocida como teoría F ha hecho un excelente trabajo reobteniendo el modelo standard, en un esquema en que este se unifica en un SU(5) algo distinto al de la teoría inicial, que esta libre del problema de la rápida desintegración del protón. Otros aspecto oiado de las supercuerdas es cuando en la década pasada surgió lo que se conoce como el andscape y su relacción con el principio antrópico. Ya iremos viendo como las cuerdas no van tan por libre como se cree.

La hermana pequeña de las teorías de cuerdas son las teorías supersimétricas, en las que se asume que a cada partícula del modelo standar le corresponde una compañera relacionada con ella por una simetría. La compañera supersimétrica tiene un spin distinto a la partícula convencional. De hecho se supone que las teorías supersimétricas deberían ser límites de baja energía de as teorías de cuerdas. Como son teorías de partículas puntuales, al estilo de las del modelo standard (y no de objetos extensos, como las teorías de cuerdas), tiene menos enemigos. Aún así al no haberse observado experimentalmente la supersimetría hay quines siguen considerándola “mera especulación”. Realmente las teorías supersimétricas podrían (hasta cierto punto) ser independientes de las teorías de cuerdas. Sea como sea la supersimetría es la base de casi toda la fenomenología en física de partículas mas alllá del modelo standard. Para ver una intro al tema doy unos links: supersimetría en mi otro blog, supersimetría en la wiki

Eso en física de partículas. En cosmología la gente estaba feliz con el modelo FRW, hasta que llegó primero lo la materia oscura (ver unos posts mas atrás en este mismo blog), luego problemas varios que derivaron en la necesidad de mecanismos tipo inflacción, y luego, en los 90, unas observaciones, basadas en observaciones de supernovas standard que señalaron que el universo esta en un expansión acelerada, lo que se conoce como dark energy.

Vamos ya con el asunto experimental. El campo mas (hiper)activo es el de la detección de la materia oscura.

Actualmente tenemos 4 experimentos en tierra que han obtenido posibles resultados de detección de materia oscura. Dos de ellos de este año, CogeNet y Crest (este último acaba de anunciar los resultados preliminares en una conferencia,véase aquí). Ambos han detectado (presuntamente) una partícula de unos 20 GeV. CDMS obtuvo dos eventos (cantidad muy poco significativa estadisticamente) compatibles con partículas de esa masa, aunque también con otros valores. DAMA lleva mas de un año anunciando que ve algo que se modula en el tiempo como se espera de la materia oscura. Todos estos experimentos tiene el problema de eliminar “el fondo”, es decir asegurarse de que lo detectado es materia oscura y no señales espúreas debidas a causas terrestres, lo cual lleva un tiempo. Con todo la evidencia es ya bastante, bastante firme (en mi, posiblemente algo optimista, opinión). De todos modos, mientra escribía este post, he leído un rumor que afirma que otro experimento XENON, podría contradecir a CogeNet, si bien de manera nodefinitiva.

Aparte hay tres resultados de satélites y similares (PAMELA, ARTIC, GLAST, etc) que detectan un exceso de positrones respecto a lo que se esperaba desde ciertas zonas de la galaxia.

Con todos estos resultados hay un bullicio de actividad para encontrar entre las teorías en boga que candidatos pueden explicar estos indicios Ppreferiblemente se busca un partícula que explique todo a la vez. La búsqueda esta centrada sobre todo en algún tipo de partícula supersimétrica, aunque se barajan algunas oras opciones.

Aparte de la materia oscura en los últimos años se han conseguido algunos tests independientes de la expansión acelerada del universo (la dark energy). Los datos sobre el fondo cósmico de microondas son cada vez mas finos y permiten obtener mucha información sobre el momento en que la luz se desembarazó de la materia. Esa etapa da muchas pistas sobre, entre otras cosas, como pudo haber sido la inflacción. También hay mejoras en las observaciones y modelos teóricos de como es la estructura del universo. Eso se ha traducido en, por ejemplo, descartar las opciones de materia oscura aliente (formada por partículas moviéndose a velocidades relativistas, como por ejemplo los neutrinos).

Todos estos resultados cosmológicos, si bien no tan precisos como los resultados de laboratorio, ponen a prueba algunos aspectos de las teorías físicas mas fundamentales, como gravedades cuánticas (como la LQG, loop quantum gravity, o la teoría de horava) y, sobre todo, teoría de cuerdas. Digamos que sirven para hacer acotaciones bastante buenas que permiten descartar algunos escenarios de teoría de cuerdas que, en principio, serían compatibles con el modelo standard de partículas. Hay por tanto un interacción directa entre la teoría de cuerdas (y teorías de gravedad semiclásica, es decir, efectos cuánticos en gravedad obtenidos perturbativamente). En definitiva, que estos resultados cosmológicos cada vez mas finos (y variados, muy variados) van decartando líneas de investigación en supercuerdas.

He mencionado de pasada la LQG y la gravedad cuántica de horava. Estas son teorías que buscan cuantiar la gravedad sin recurrir a objetos extensos y sin requerir supersimetría. En ese sentido son mas “conservadoras”. Bien, esas teorías también tienen su confrontación con los experimentos. Por ejemplo la LQG medio predijo (eso dicen ahora, antes decían que era una predicción firme) que a velocidad de la luz en el vacío dependía de la frecuencia. El año pasado el satélite FERMI/GLAST al comprobar los tiempos de llegada de onds electromagnéticas provenientes de una misma fuente (lejana) comprobó que no había la dispersión de tiempos de llegada que se ajustaba a esos modelos de LQG (o a otros de cierto tipo de teoría de cuerdas en 4 dimensiones en las que muy poca gente creía de todos modos, las cuerdas de Liouville) poniendo en serios aprietos a esos modelos, que, de cualquier modo,tienen sus propios problemas de coherencia interna (al menos según los físicos de cuerdas). La gravedad de Horava creada en el 2009) también se podría ver algo afectada por ese resultado experimental. No he seguido demasiado esa teoría así que no comentaré mas sobre ella.

Otros experimentos terrestres han hecho los mismo, poner cotas. Muy a finales de los 90 y principios de siglo había un cierto auge de teorías con dimensiones extra mesoscópicas (es decir, con un tamaño inferior al milímetro, pero no el propio de los átomos). Este tipo de dimensiones habían surgido como una posibilidad en avances teóricos de la teoría de cuerdas. Son dimensiones en las que sólo se puede propagar la gravedad (o en algunas variantes los bosones gauge,es lo que se conoce como UEE-universal extra dimensions-. Las teorías F-GUT son un ejemplo de ellas, aunque el tamaño de esas dimensiones extra dónde pueden ir los bosones es demasiado pequeño para ajustarse propiamente a este tipo de escenarios ) pero no los fermiones, osea, la materia convencional. Inicialmente las cotas experimentales indicaban valores compatibles de hasta casi un milímetro para el tamaño de esas dimensiones extra. Desde entonces ha habido un montón de experimentos que han estrechados esos límites hasta tamaños mucho menores, de casi milésimas de milímetro. Aún así tamaños mucho mayores que las dimensiones extra convencionales en la teoría de cuerdas, que tendrían aproximadamente la longitud de Planck, es decir, mucho menores que el núcleo atómico.

El LHC pondrá a prueba, casi definitiva, esos modelos. La consecuencia mas espectacular posible sería la creación de miniagujeros negros. otra, mas factible, es la detección de modos de kaluza-klein del gravitón. De hallarse alguna de estas predicciones las supercuerdas tendrían un respaldo experimental muy importante. Si lo que se hallan sn miniagujeros negros posiblemente también puedan hallarse indicios experimentales de la radiacción Hawking (emisión de partículas por los agujeros negros) y Hawking sería premio nobel.

Un resultado positivo (es decir, no poner cotas) es el descubrimiento de que los neutrinos tienen una pequeña masa y hay oscilaciones entre especies. Para explicar esa pequeña masa se propuso el mecanismo del seesaw (balancín). Cualquier teoría actual debe contemplar ese hecho, y darle explicaciones naturales (mas allá del modelo básico del balancín). Un ejemplo de teoría que hace esos son las GUT basadas en teoría F.

Y, por supuesto, ahora tenemos el LHC empezando a funcionar y el Tevatrón dando sus últimos coletazos batiendo records de luminosidad. El Tevatron ha puestos cotas a la masa del Higss y a las de las partículas supersimétricas. Esas cotas imponen restricciones muy serias en las extensiones supersimétricas del modelo standard. Y ahora el LHC ppondrá mas cotas y, tal vez, encuentre partículas supersimétricas y al propio Higgs.

En definitiva, que si bien cuando surgieron las cuerdas y el resto de teorías había mucha libertad sobre sus características el desarrollo teórico de las mismas ha hechos muchas predicciones de posibles resultados. Al no hallarse se han puesto límites a muchos comportamientos posibles de esas teorías. Por otro lado muchos descubrimientos experimentales nuevos requieren explicación. Y estas teorías están tratando de responder al reto (con resultados esperanzadores en algunos casos, y algo menos satisfactorios en otros). Pero claramente hay un continuo toma y daca entre teoría y experimento, y por tanto se sigue haciendo ciencia según el criterio convencional, en contra de lo que quieren hacer creer algunos agoreros, o en otros casos, gente no del todo bien informada.

No he pretendido ser exhaustivo. De un lado no podría pues no soy lo que se conoce como “fenomenólogo”. De otro lado esta el hecho de que ser exhaustivo seguramente requeriría escribir un libro bastante grueso. Pero espero que haya quedado suficientemente ilustrada la idea que se pretendía mostrar.

Anuncios

El camino de la teoría al descubrimiento experimental

abril 24, 2010

Actualmente, en especial debido a la teoría de cuerdas, se acusa a la física actual de ser excesivamente teórica. Pero no se restringe esa crítica a las cuerdas. Agujeros de gusano, multiversos, e incluso materia oscura y energía oscura están igualmente mal vistas.

Cito literalmente un ejemplo de esas críticas: Muy bonitas teorías, sujetas de un entramado matemático complejo y elegante, pero nadie ha visto un agujero de gusano y quizás jamás los vean..Ese es mi punto: teoría si práctica es pura especulación

Si miramos un poco la historia de como se han hecho los grandes avances en el siglo XX veremos que esa critica no se sostiene demasiado. Usaré ejemplos muy conocidos, que involucran a algunos de los físicos mas grandes del siglo XX, para ilustrar a que me refiero.

Empiezo por la teoría de Dirac del electrón. Se necesitaba una ecuación cuántica, análoga a la ecuación de Schröedinger, compatible con la relatividad y que describiera partículas de spin 1/2. En 1928 Dirac da con esa ecuación. Una consecuencia de la misma es que deben existir antipartículas del electrón. Esas antipartículas serían iguales al electrón en todo, excepto en la carga, que tendría el signo opuesto. Y tendrían una terrible tendencia a juntarse con un electrón para desaparecer ambas y dar lugar a un fotón gamma muy energético. Pues bien, una vez avisados de lo que debían buscar la gente que hacía experimentos con rayos cósmicos dieron con el positrón de marras ese 4 años después y Dirac se llevó el nobel al año siguiente. Posiblemente el positrón se hubiese descubierto igualmente tarde o temprano, pero seguramente hubiese tardado bastante mas en darse con él.

Otro trabajo teórico de Dirac, también muy conocido, es el de os monopolos magnéticos. Le llevó a estudiarlos su querencia a la matemática elegante. Le parecía que las ecuaciones de Maxwell carecían de simetría al no permitir monopolos magnéticos y estudió como modificarlas para que los permitiesen. El resultado no era del todo satisfactorio pues requería una “cuerda de dirac” (nada que ver con la actual teoría de cuerdas) y nunca se tomó muy en serio. En los finales de los 70 y principios de los 80 los monopolos resurgieron, en una forma ligeramente distinta, dentro de las teorías de unificación. Eran una consecuencia ineludible de las mismas y se los buscó experimentalmente, sin éxito (salvo un falso positivo que dió un golpe muy fuerte a la carrera del presunto “descubridor”). De todos modos la no detección de los mismos es un problema muy serio pues su presencia se considera ineludible y hay que explicarla. Una de las ventajas de la inflacción es que proporcionaría un mecanismo para diluir los monopolos formados en el universo primitivo y justificaría la ausencia de detección experimental.

En definitiva, aunque los monopolos están sólo en las ecuaciones hay que tenerlos en cuenta en escenarios cosmológicos. Una teoría que no de cuenta de ese problema (de uno u otro modo) no se considera una teoría cosmológica válida. En algún mmento del futuro los aceleradores de partículas se supone que deberán producir monopolos (al menos si son ciertos los modelos convencionales de unificación de las fuerzas, que, aclaro, son independientes, de la teoría de cuerdas aunque no incompatibles con ella).

Otro aso señero es el neutrino. Su existencia fue postulada en 1930 por Pauli para explicar algunos aspectos de la desintegración nuclear. Refinamientos teóricos de la propuesta inicial indicaron que el neutrino debería tener masa nula o casi nula, spin 1/2 e interactuar solo por interacción nuclear débil. Con esas cualidades era prácticamente una partícula fantasma cuya única justificación era preservar la energía en cierto tipo de desintegraciones. Muy posiblemente mucha gente preferiría teorías alterativas que no implicasen un ente tan intangible.

El caso es que estando postulada su presencia, por alguien tan importante como Pauli (secundado por alguien igualmente importantísimo, Fermi) se trabajó en su búsqueda. EN 1956, 36 años mas tarde de ser postulado, el neutrino es encontrado en un laboratorio situado al lado de una central nuclear (el reactor de fisión es una fuente al por mayor de neutrinos). Es intersante hacer notar que en el momento de crearse la teoría tanto la bomba atómica como las centrales nucleares no existían y posiblemente ni se había concebido su existencia. De no haberse postulado su existencia es casi seguro que a día de hoy siguiera sin tenerse noticia del neutrino.

Esos 36 años de lapso entre el postulado teórico del neutrino y su descubrimiento no son una excepción. La relatividad general predice la existencia de las ondas gravitatorias. Su existencia surge de una linealización de las ecuaciones de Einstein y apareció en en los primeros tiempos de la relatividad general, allá por 1915.

Teóricamente su justificación es muy firme. Pero son elusivas de hallar en la práctica. La primera evidencia experimental de las mismas debió esperar a 1974 cuando Russell Alan Hulse y Joseph Hooton Taylor Jr. descubrieron el primer púlsar binario (PSR1913+16). Las observaciones durante varios años han confirmado que el período de rotación de ambos objetos aumenta con el tiempo de la manera predicha por la teoría de la relatividad general, perdiendo energía en forma de ondas gravitacionales. Aunque estas ondas no han sido detectadas de forma directa, Taylor y Hulse demostraron que la rotación del sistema binario se aceleraba a medida que las estrellas giraban en espiral cada vez más juntas, exactamente tal y como se predecía si estuviera emitiendo energía en forma de ondas gravitacionales. Los autores de ese estudio fueron recompensados con un nobel en 1993.

Aparte de esas evidencias experimentales indirectas se ha invertido mucho esfuerzo en una detección directa, hasta ahora sin éxito. Aparte de la utilidad teórica de demostrar un aspecto básico de la RG hay un interés práctico. Muchos fenómenos de un gran interés fundamental en astrofísica y cosmología como:

-La explosión de una supernova.
-La formación de un agujero negro.
-El choque de cuerpos masivos como estrellas de neutrones o la coalescencia de agujeros negros.
-La rotación de una estrella de neutrones inhomogénea.
-Radiación gravitacional remanente del Big Bang. Este último caso ofrecería datos únicos sobre la formación del Universo en el periodo anterior a la edad oscura del Universo en la que el Universo era opaco a la radiación electromagnética.
– las cuerdas cósmicas, objetos cuya existencia postulan diversas teorías pero de las que aún no hay evidencia.

serían fuentes de ondas gravitacionales. Si pudieran detectarse podría obtenerse información directa sobre estos fenómenos no accesible, en algunos de los casos, por otros medios. El estudio de estos objetos por ondas gravitatorios posiblemente revolucionaria el conocimiento actual del universo.

La RG tiene otros aspectos teóricos con un status prominente en su marco teórico que tampoco han sido verificados experimentalmente. Entre estos estaría el “frame dragging” 8arrastre del marco). La idea es que un cuerpo al girar arrastraría consigo el espacitiempo de su entorno. El caso mas espectacular de este efecto es la ergosfera de un agujero negro rotatorio, descrito por la métrica de Kerr. Esta ergosfera sería una zona situada en la vecindad del horizonte de sucesos en la que el arrastre del agujero negro sería tan fuerte que nada, ni siquiera la luz, podría permanecer estático (respecto a un observador alejado del agujero negro). La tierra el sol también ejercerían, de forma mucho mas débil, ese efecto. Y en teoría debería ser observable. Pero al igual que las ondas gravitatorias es un efecto muy débil y pese a los esfuerzos realizados (usando satélites equipados con giroscopios adecuados al efecto) aún no hay una constatación experimental firme (ni se la espera para los próximos años).

Como puede verse no es la excepción sino mas bien la regla que las teorías hagan predicciones difíciles de verificar con carácter inmediato. Lo importante es que si esas teorías tienen una base sólida es procedente invertir en tratar de verificar esas observaciones, incluso si se tarda bastante en obtener resultados. Normalmente las teorías no predicen un sólo resultado sino varios. Y para cada resultado hay varias formas de intentar dar con su confirmación experimental.

La clave es que esos resultados teóricos sirven de guía para que los experimentadores sepan que deben buscar y diseñen aparatos para dar con ello. Sin el trabajo teórico los experimentadores estarían ciegos y encontrarían muchísimas menos cosas. Cierto es que a veces hay sorpresas y se encuentran cosas inesperadas para las que luego hay que buscar explicación. ese es otro de los caminos por los que avanza la ciencia: Pero en general el avance surge primero de la teoría y la experimentación va detrás.

Visto este proceder habitual de la ciencia la investigación teórica en agujeros de gusano no es algo tan arcano como pueda parecer. En realidad sigue el camino normal de la ciencia.Se tiene un objeto bien descrito por teorías existentes con propiedades claramente delimitadas y en consecuencia medios para, en el futuro, intentar encontrarlos (si existen en la naturaleza9 o crearlos artificialmente.

Un ejemplo menos esotérico que los agujeros de gusano es la materia oscura, cuya existencia se postuló hace ya tiempo y para la que hay muy diversos modelos y experimentos en marcha para dar con ella. Ya hablé del tema en un reciente post sobre la materia oscura (y en el futuro añadiré mas información sobre el asunto).

Otros ejemplos insignes de predicciones teóricas, aún sin verificar, serían e bosón de Higgs. Esta famosa partícula, postulada en los 70, es una pieza totalmente esencial del modelo standard , y aún hoy está sin descubrir. Se espera que el LHC (y en menor medida el Tevatroon) puedan probar su existencia en el plazo de unos pocos años. Otro objetivo del LHC es encontrar partículas supersimétricas (si es que no se encuentran antes en los experimentos de búsqueda de materia oscura). La supersimetría (puede verse una introducción al tema en mi otro blog, concretamente aquí) es una de las bases teóricas de la mayoría de desarrollos conceptuales en física e´rica en los últimos 40 años y eso pese a no haber sido descubierta experimentalmente. Pero como se ha visto en los ejemplos anteriores sigue “en plazo” y no hay buenos motivos para dejarla de lado, mas bien al contrario.

En definitiva, creo que con estos ejemplos queda claro que normalmente la ciencia siempre avanza basándose en teorías que empiezan como constructos matemáticos que, sólo mas tarde son verificados. Por supuesto si en algún momento hay observaciones experimentales que contradigan esas teorías matemáticas estas quedan refutadas, pero eso es una obviedad que no empaña la validez del esquema de trabajo explicado aquí.

Aplicaciones de la física teórica

octubre 15, 2008

A raiz de una discusion en el foro de sédice he comprobaado que mucha gente no tiene nada clara la utilidad de la investigacion en física teórica de cara a la vida cotidiana. Intentaré en este post mostrar algunoas de estas relaciones entre teoria y práctica.

Supongo que si alguien se lee “el universo elegante” o cualquier buen libro de divulgacion de física teórica, incluso si lo entiende de una manera minimamente apropiada, no va a tener sencillo hilar la relación entre eso y la ciencia aplicada. Por supuesto no es un fallo del libro, ya que no es su propósito. Se supone que si alguien quiere aprender esas relaciones debe buscar otras fuentes. Voy a dar algunas nociones que puedan situar un poco mejor esos aspectos.

Empiezo por algo elemental, la mecánica cuántica no relativista. Bien, eso es física teórica de principios de siglo (la ec. de Schröedinger es de 1925. Casi todas las aplicaciones de ciencia moderna (física, electrónica, óptica,química, genética, medicina etc, etc, etc) recaen en el modelo atómico que describe esa ecuación. Pero eso es muy antiguo. Avancemos un poco. Tras la cuántica no relativista tenemos dos líneas de avance. Establecer uan teoria cuántica compatible con la teoria especial de la relatividad y explicar en que consiste y como funciona el nucleo atómico. Para invetigar esas cosas hacen falta dos cosas, construir aceleradores de partículas y construir modelos fisico-matemáticos que expliquen las observaciones.

La línea de investigación en física nuclear claramente tiene aplicacione prácticas. La mas llamativa es la energía nuclear (sea en forma pacífica o militar). Pero dese luego no es la única aplicación. Tenemos una gran cantidad de aplicaciones de física nuclear en medicina. Tanto en terapias contra el cancer como en técnicas de exploración. La más espectacular de estas últimas es la RMN (resonancia magnética nuclear), pero otras apicaciones mas mundanas como los rayos X también dependen de la física nuclear. Es necesario precisar que hacen falta conocer detalles bastante finos de la estructura nuclear para poder establecer adecuadamente resultados en estas áreas. Esos detalles requirieron construir aceleradores que permitieron descubrir todo el batiburrillo de particulas nucleares existentes. Si bien es cierto que el núcleo consta de protones y neutrones y que eso parece fácil de entender la verdad es que no es así en absoluto. Fuè necesiario constrir aceleradores que crearan otra serie de partículas nucleares, y que llevaran a los nucleos a situaciones inestables para poder entender adecuadamente el funcionamiento de los núcleos en su estado “normal”. Y por supuesto los modelos matemáticos implicados. Sin todo ese trabajo, que desde luego requirió la construcción de aceleradores de partículas, no existiría el compendiun teórico que permite las aplicaciones actuales de la fisica nuclear.

Vamos ahora con la parte cuyas aplicaciones son mas dificles de descubrir, la teoria cuántica relativista, mas conocida en su versioin moderna como teoria cuántica de campos.

Quien haya leido divulgación probablemente haya oido hablar de cosas cómo la ecuación de Dirac, las antipartículas y cosas así. Y puede pensar que es muy bonito, pero que “no sirve para nada”. En realidad de la ecuación de Dirac, y de su generaización, la electrodinámica cuántica cuántica, surge una teoira coherente sobre todos los fenómenos electromagnéticos. Esto permite explicar fenómenos que la teoria cuántica no relativista no explica. Digamos que en última instancia casi toda la ciencia aplicada basda en el electromagnetismo (la mayoria) recae en última instancia en la electrodinámica cuántica. Recomiendo la lectura del libro de Feynman sobre este tema dónde explica de manera ejemplar todas estas relacciones.

Pero no acaba ahí la cosa, ni mcho meos. La teoria cuántica de campos no sólo sirve para física fundamental. Es el lenguaje matemático, y el marco formal y conceptual, para casi toda la física aplicada. El nombre “teoría cuántica de campos” hace referencia a que se esta cuantizando un campo (por ejemplo el electromagnético) en lugar de una partícula. Este campo puede ser relativista o no. En el caso del campo electromangético estamos obligados a un tratamiento relativista pués el fotón, al ir a la velocidad de la luz, no admite otro tratamiento. Hay una versión con un formalismo mas sencillo del campo electromagnético en el que no es transparente su relación con la electrodinámica cuántica. Es lo que se suele conocer com “teoria cuántica de la radiacion” Si bien puede enseñarse esta asignatura sin concer la ecuacion de Dirac y la QED no se habría podido crear una sin la otra. La teoria cuántica de la radiación es el marco formal en el que se investiga toda la óptica moderna, incluyendo láseres, fibra óptica, optrónica, etc, etc.

Pero sigue sin acabar ahí la cosa, apenas hemos empezadoa a arañar la superficie. Vamos a pasar a física de estado sólido (o física de la materia condensada). Aparte de estudiar átomos aislados interesa describir agrupaciones de átomos. Cuando esos se agrupan formando un sólido entra en juego este tipo de física. Por interés práctico se suele plantear como prioridad expliar las propieades eléctricas y magnéticas de los sólidos, y, en particular, los metales. Los metales suelen presentarse formando redes cristalinas. Es decir, los núcleos de dichos átomos estan posicionados en una serie de posiciones periódicas que se puede describir por una malla, o red. Y los electrones pueden circular de un átomo a otro. Interesa explicar la resistencia eléctrica. Los modelos clásicos son eso, clásicos, y no permiten ir muy lejos y hacer prediciones sobre las conductvidades. Es imprecindible hacer modelos cuánticos. Estos se basan en la ecuación de Schröedinger. Esto se suele estudiar en cuarto de físicas y no sé hasta que punto existen tratamientos simplificados que pueda comprender un ingeniero sin conocimientos formales en mecánica cuántica. En todo caso hay un hecho curioso, si consideramos una red crsitalina pura tenemos que los materiales conducirian sin resistencia alguna la electricidad. Para explicar la conductividad es necesario introducir impurezas en la red. En principio esto no parece guardar relacion con la teoria cuántica de campos. Vamos con ello.

En una red ideal los nucleos estan quietos. Pero la cuántica nos dice que un nucleo no puede estar quieto, siempre debe presentar una oscilación,. Bien, basándose en los desarrolllos formles de la teoríca cuántica de campos se introdujo el concepto de fonón para describir las oscilaciones de los nucleos respecto a sus posiciones de equilibrio. Formalmente los fonones son muy similares a los fotones. El caso es que hay un gran montón de fenómenos que requieren el uso de fonones. Contribuyen a la conductividad eléctrica del material, explican el calor específico del mismo (cantidad de energia necearia para elevar un grado la temperatura del material). Sin considerar los fonones, fijándose sólo en los electrones, esta sería lineal en la temperatura, T, los fonones explican un factor T^3. No soy un experto en materia cndensada, pero si conozco otro aspecto en que los fonones son básicos y que supongo que a todo el mundo le suena, la superconductividad. Bien, la teoria BCS (Bardeen-Cooper-Schäefer) que explica la superconductiidad ordinaria se basa en los fonones, y, de hecho, en una aplicación bastante a fondo. Si no hubiese existido el formalismo de la teoria cuántica de campos creado para explicar la fisica fundamental no existiría la teoria BCS, ni, como seguiré viendo, muchisimos más avances en física de etado sólido.

Pero antes una pausa, decir que la mecánica estadística surge de la teoria cuántica de campos es incorrecto. Existe una mecánica estadística clásica que explia los gases ideales y fundamenta la termodinámica. Al introducir la cuántica surgió la mecáncia estadística cuántica. En cuántica existen dos tipos de partículas, bosones (espin par) y fermiones (espin impar). Cada uno requiere su propia descripcion estadísitica (estadísticas de bose Einstein y fermi-dirac, respectivamente). No deja de ser relevante que los papis de la relatividad y de la teoría cuántica relativista esten ahí metidos. En particular cosas como el nivel de Fermi son de importancia capital a la hora de entender el funcinamiento de los dispositivos semiconductores (diodos y transistores, que son la base de la electrónica moderna). Señalaría otro dato. Para explicar los semiconductorres se utilza el “modelo de huecos” que, formalmente, guarda muchas analogias con las antipartículas. Posiblemente se hubiese podido crear ese modelo de huecos sin conocer las antiprtículas y la primitiva explicación de Dirac de las mismas (el “mar de Dirac”, que fué rapiamente sustituida por una explicacion más coherente en términos de teoría cuantica de campos) pero el caso es que historicamente ese fué el camino.

Otro aspecto dónde la teoria cuántica de campos se entremezcla con la materia condensada es en la teoria de Wilson del grupo de renormalización, y el uso de este para entender la fisica de los cambios de fase (un cambio de fase es cuando la materia pasa de sólido a líquido, de líquido a gas, etc). Antes de Wilson los cambios de fase se estudiaban por teorias de campo medio, la mas conocida de ellas la teoria de Ginzburg-Landau. Sin embargo estas teorias de campo medio, aunque útiles, no permitían dar una descripción cuantitativamente correcta, y tampoco cualtitativamente en última instancia, de los cambios de fase. Explicar estas cosas en detalle es complicado. Explicaré que es la renormalización aparece en teoria cuántica de campos del siguiente modo. Las teorias en interacción se deben resolver perturbativamente. A orden 0 (tree level) de perturbaciones no hay problemas, pero, normalmente, a primer orden (one loop) las cantiades calculadas de manera simple dan resultados infinitos. En algunas teorias esos infinitos pueden evitarse de una manera consistente (que permita que la teoria siga siendo predictiva) redefiniendo una serie de valores de la teoria (renormalizaándolos, de ahí el nombre). Feynman, Tomonawa y Schwinwer compartieron un nobel a mediados del siglo XX por diseñar esas técnicas de renormalización, que posteriormente serían refinadas. En los 70 un fisico de partículas, Kenneth Wilson,interesado en la por entonces recien nacida física de quarks (constituyentes fundamentales de las particulas nucleares como el protón y el neutrón) llegó a trabajar, por diversos motivos, en temas de materia condensada, y aplicó la teoria de renomalización de la teoria cuántica de cmpos a los cambos de fase. Resula que la materia en la proximidad de un cambio de fase puede describirse por una teoria cuántica de campos. Justo a la temperatura del cambio de fase (o si conviven varias fases en la temperatura crítica) cooperan fenomenos a todas las escalas. La física es la misma a todas las escalas. Un cambio de escala es “renormalizar” la longitud, de ahi que sirva el grupo de renormalizacion. Posteriormente se ha mejorado esto. Para el caso bidimensional, en términos de teorias de campos conformes. Ahí ya entra la teoria de cuerdas, que es una teoria conforme, y que, durante unos años, propició muchos desarrollos teóricos en teorias conformes. Muy recientemetne un desarrollo formal de la teoria de cuerdas, la conjetura de Maldacena, ha dejado indicios de que posiblemente permita estudiar teorias conformes en tres dimensiones.

Posiblemente esto pueda parecer, de nuevo, desconectado de la práctica. Falsa impresión. Aparte del cambio líquido-gas-sóido, hay muchos otros fenómenos que son transiciones de fase. Uno, de importancia capital, es la magnetizacion de un material. Para empezar a estudiar esto se usa el modelo de Ising. Este modelo puede resolverse explicitamente, con computers, pero es mucho mas interesante, y se aprende mucho mas, analizándolo con el grupo de renormalización. Digamos que no son concebibles avances serios en el estudio de las propiedades magnéticas de la materia sin concoer el grupo de renormalización. No soy experto en el tema, pero sé que las aplicaciones del grupo de renormalización en materia condensada son muchisimas. Por cierto, la transicion de un material de un etado de conduccion normal a uno de superconduccion también es una transicion de fase.

Otros aspecto de relación de la materia condensada y la física teórica es la teoria de las rupturas de la simetría. Ahí tenemos un camino de dos direcciones. Por desgracia de la parte de materia condensada no sé mucho, pero sí sé que juega un papel relevante.

En fin que todos los avancce en física de materiales recaen muchas veces en el aparato teórico de la teória cuántica de campos que explica las interacciones fundamentales. Sin haberse desarrolldo este aparato la física de materia condensada sería mucho mas primitiva.

Volvamos al aspecto menos teórico, los aceleradores en sí. Resulta que los aceleradores de partículas tienen utilidad práctica. Tal vez algunos hayais oido hablar de que en Cataluña se esta construyendo un sincrotrón, el sincrotón ALBA. Este es un acelerador de partículas de mediana energía. Mediana en comparación con el LHC, pero en tiempos con esa energiá se hicieron descubrimientos de física fundamental. La tecnologia para dearrollar esos aceleradores se creó especificamente para estudiar fisica fundamental. Pués bien, esa tecnologia ahora se utiiza para que esos aceleradores de energía mediana se usen en estudios prácticos de fisica de materiales, cristalografia de proteinas y un motón más de cosas puramente prácticas de las cuales no sé apenas. De no haber existido la tecnologia de aceleradores dearrollada para la física fundamental nadie se plantearia dearrollarla para estas aplicaciones prácticas.

Y, desde luego, el LHC, no es ajeno a este interplay. En aspectos meramente tecnológicos el LHC es un reto. Se han tenido que hacer dearrollos en teoria de superconductores, utilzados para generar los campos magnéticos que aceleran las partículas, que no se hubieran afrontado de ninguna otra manera (ninguna empresa se podria haber permitido pagarlos). El software encargado de analizar los datos recogidos (por no hablar de la tecnologia de los detectores) es el “state of the art” de muchas técnicas informáticas que poco a poco irán aterrizando en el mundo de a pie. Y hay muchas mas aplicaciones prácticas de la tecnologia del LCH que no se hubiesen dearrollado sin ese proyecto y que irán abriéndose hueco poco a poco.

Y, ya para concluir, decir, como afirman gratuitamente algunos que el bosón de Higgs (posiblemente el principal objetivo del LHC) es sólo otro bosón, es un sinsentido. Ese bosón es una pieza absolutamente clave en el modelo standard de partícuas. Si no existiera (podria existir y no detectarlo el LHC) debería revisarse a fondo dicho modelo. Incluso si existe, pero no lo detecta el LHC tendrían que hacerse modificaciones bastante importantes a algunos aspectos del modelo standard.

Esto respecto al pasado. Pensar que no pueda haber aplicacioines de la física de partículas mas recientes a aspectos prácticos es muy improbable (de hecho varios aspectos de las teorias propuestas, caso de confirmarse) tendrían posibildades claras de generar aplicaciones, pero dejo eso para otra ocasión.