Posts Tagged ‘agujeros negros’

Running Schwarschild radio

febrero 12, 2014

El caso mas sencillo de agujero negro es el de Scharschild, que describe un agujero negro sin carga y que no rota sobre si mismo. Su horizonte de sucesos, la superficie desde la cuál no se puede salir (ignoraré aquí cualquier sutileza sobre diversos tipos de horizontes que se pueden definir o la reciente afirmación de Hawking de que el horizonte de sucesos no es bueno para describir agujeros negros en los que los efectos cuánticos son importantes). Esta superficie, para el caso de Schwarschild es esférica, y tiene un radio el radio de Schwarschild que viene dado por R_s= \frac{2GM}{c^2}.

Cuando he hablado de efectos cuánticos al referirme a Hawking me refería, por supuesto, a su famosa teoría en la que usando técnicas de cuantización en espacios curvos mostraba que un agujero negro emite radiación, conocida cómo radiación Hawking. Podéis leer algunos detalles sobre esa radiación (pero no la deducción de la misma) en la entrada inglesa de la wiki Hawking’s radiation. Unas ideas muy elementales sobre cuantización en espacios curvos la tenéis (en español, aunque la mayor parte del blog esté en inglés) en mi otro blog: Ideas básicas sobre cuantización en espacios curvos.

Cómo se puede leer en esas entradas un agujero negro que esté aislado de todo y no se “alimente” como resultado de esa emisión de radiación va perdiendo energía, y por tanto masa, y su radio de Schwarschild se va haciendo mas pequeño, es decir, el agujero negro se va evaporando. Podría pensarse que el título de la entrada haga referencia a este efecto, pero considero que a estas alturas el tema de la desintegración Hawking es algo sobradamente conocido por cualquiera interesado en estos temas así que el propósito de esta entrada es ligeramente diferente. El término “running” seguramente pueda dar una pista a la gente que conozca teoría cuántica de campos con un cierto nivel y, por tanto, haya oído hablar de las “running coupling constants”. He mantenido el término en inglés porque no se me ocurre ninguna traducción realmente buena del término running, quizás lo que más podría acercarse es “deslizante”.

Cuando empecé a escribir la entrada pensaba despachar la explicación del grupo de renormalización, la ecuación de Callan-Symanzsky y la teoría de las “constantes de acoplo deslizantes” con entradas a la wiki española (o a algún blog en español que tratase el tema), pero he visto que la wiki tiene un tratamiento muy pobre, siendo generoso, del asunto y no he visto ningún blog que lo trate. Supongo que la mayor parte de gente que me lea se manejará bien con el inglés (después de todo suelo poner vínculos a sitios en inglés casi siempre) y podrá leer la entrada de la wiki inglesa: renormalizción. En todo caso me sirve para darme cuenta que tal vez debería hacer un esfuerzo y escribir algo sobre renormalización en el futuro. En todo caso ahora daré las ideas mínimas sobre renormalización para que se pueda entender lo que pretendo exponer.

En QFT el objetivo final, normalmente, es calcular amplitudes de transición entre estados asintóticos. Es decir, uno tiene, un grupo inicial de partículas libres con unos momentos dados que interaccionan por un tiempo finito y se convierten, en general, en otras partículas con otros momentos distinto. La idea es calcular las probabilidades de esas transiciones. Los cálculos de esas probabilidades se suelen hacer usando los diagramas de Feynman. Discutí algo sobre ello en la entrada sobre el amplithuedron. Cómo explico ahí los diagramas se organizan en función del número de loops. Los que no tienen loops se denominan “tree level” y normalmente suelen reproducir las secciones eficaces clásicas (las secciones eficaces son unos objetos que sirven para expresar los procesos de colisión y están relacionados con las amplitudes de transición que comentaba antes). A nivel tree los diagramas de Feynman dan resultados finitos. Sin embargo, en cuanto nos vamos a diagramas con loops los resultados se vuelen infinitos y hay que ver si se puede lidiar con esos infinitos de algún modo para obtener respuestas finitas. Sí ello es posible se dice que la teoría es renormalizable.

Para entender un poco mejor el tema usemos el ejemplo de la wiki, el lagrangiano de la QED.

Ese lagrangiano consta de tres partes básicas. Una es el lagrangiano de Dirac que describe un fermión libre standard (no quiral). Otro término L_{em}=\frac{1}{4}F_{\nu \mu}F^{\nu \mu} (lo he escrito omitiendo las B’s) es el que describe el campo electromagnético libre. El otro término, el que, operando para dejarlo por separado, vendría a ser L_{int}=ieA^{\nu}\Phi es el que describe la interacción. La e que aparece multiplicando sería la constante de acoplo que en el caso del electromagnetismo es la constante de estructura fina, que suele escribirse con la letra alpha, pero bueno, mantengo la notación de la wikipedia. Según decía, y como comentan en la wikipedia, los diagramas con uno y mas loops suelen dar resultados divergentes cuando se calculan. Eso se debe a que en el cálculo hay que efectuar integrales indefinidas que resultan no estar acotadas. Hay diversas técnicas de regularización y renormalización (Pauli-Villards, dimensional, función z, etc). Todas ellas tienen una estrategia común. Hay un parámetro, llamémoslo u, y la integral se divide en dos partes, una hasta un valor de inferior a u, y otra desde u hasta infinito (esto es muy transparente en la técnica de Pauli-villars dónde ese u es un momento, denominado momento de corte. En la regularización dimensional se calcula la integral en el plano complejo, cambiando el momento p por p + iu, y luego se hace tender u a 0). Una de las partes de la integral dará un resultado finito, el otro un resultado infinito. La idea de la renormalización es que tenemos que añadir al lagrangiano original unos términos que den un nuevo diagrama de Feynman que anule la parte infinita de el diagrama original. Eso se va a poder hacer siempre, lo malo es que esos nuevos términos, en general, van a tener su propia constante de acoplo. Y luego, por cada nuevo loop, tendremos que añadir mas contratérminos, con mas constantes. En general una teoría con estas características va a ser inútil porque si bien término por término va a tener resultados finitos resulta que cada nuevo término añade una nueva constante que debe ser medida experimentalmente y, por consiguiente, se vuelve no predictiva.

En el caso de las teorías renormalizables los contratérminos tienen la misma forma que el término de interacción orginal. Eso hace que podamos anular los resultados infinitos mediante cambios en el valor de los campos, masas y consantes de acoplo. Se supone que el lagrangiano original “desnudo” (bare en inglés, de ahí la B que añade la wiki a los términos del lagrangiano) no puede observarse porque debido a fluctuaciones cuánticas un electrón va a estar rodeado de una nube de pares electrón/positron virtuales que apantallan la carga desnuda. Por ese motivo, la carga, la masa, la función de onda, y, lo más importante, las constantes de acoplo, van a depender de la energía a la que se mide la interacción. Por eso se habla de “running coupling constants”. Dependiendo de la energía a la que se midan van a tener un valor distingo. Esto es el proceso de renormalización, pero si uno va un poco más allá llega a una ecuación que deben cumplir en general esas constantes de acoplo, la ecuación de Callan-Szymansky. Esa ecuación, usando los resultados a un loop, se puede resolver y nos da el flujo de las constantes de acoplo según cambia la energía. Estos resultados son los que dan la idea de teorías de unificación porque se observa que las constantes de acoplo del electromagnetismo, de la nuclear débil y de la nuclear fuerte casi convergen a un valor común en el que todas las constantes valdrían lo mismo y, por tanto, habría una única interacción. Eso da la idea de teorías de gran unificación (GUT en inglés). Si uno incorpora supersimetría esa casi convergencia se convierte en convergencia, y es uno de los muchos motivos por los que se cree que la supersimetría es importante, pese a no haberse observado.

Bien, ahora ya tenemos (espero) una idea de lo que es eso de “las constantes de acoplo deslizantes”. Al hablar de las GUT he mencionado tres interacciones, pero, aparte de esas, hay otra, la gravedad. Tanto en la teoría de Newton cómo en la de Einstein la constante de acoplo de la gravedad es la G de la fórmula de Newton de la gravitación universal F=G \frac{m.m'}{R^2} . En QFT tenemos partículas “materiales” descritas por la ecuación de K-G (partículas escalares cómo el bosón de Higgs) o por la ecuación de Dirac (fermiones no quirales, cómo el electrón o los quarks) o algún tipo de ecuación (Weyl o Majorana para fermiones quirales, cómo el neutrino. Las interacciones viene medidas por partículas virtuales que van a ser partículas vectoriales. Para el electromagnetismo esa partícula es el fotón, para las nucleares fuertes son los gluones y para la nuclear débil los bosones W+, W- y Z0). En las entradas de este blog dedicadas a QFT, por ejemplo la anterior, se pueden encontrar mas detalles. Feynman, uno de los creadores de la QED, y el que desarroló la técnica de los diagramas que lleva su nombre intentó cuantizar la teoría de la gravedad de Einstein por procedimientos análogos a los de la QED. Más adelante de Witt continuó su trabajo y formuló las reglas para los diagramas de Feynman de la relatividad general.

El truco está en que la métrica de la relatividad general (una introducción desde o a relatividad especial y general la tenéis en este blog Minicurso de Relatividad General ) se divide en dos partes g_{\nu \mu} = \eta_{\nu \mu} + h_{\nu \mu} La primera parte, la \eta de esta división puede pensarse que es la métrica de minkowsky que describe la relatividad especial (aunque, en realidad, puede ser cualquier otra métrica que cumpla las ecuaciones de Einstein que se considera una métrica de fondo que no se cuantiza) y la parte con la h es la que describe las fluctuaciones cuánticas. Se supone que esas fluctuaciones corresponden al intercambio de gravitones. El problema es que la teoría cuántica que se obtiene al hacer eso es no renormalizable y uno debe buscar una teoría cuántica de la gravedad de otra manera. La respuesta mas desarrollada de la gravedad cuántica es la teoría de cuerdas. Esta describe la propagación de gravitones y es una teoría renormalizable.

Bien, ya vamos llegando a la idea de la entrada. Sí tenemos una teoría cuántica de la gravedad deberíamos tener que, de forma análoga al resto de constantes, la contante gravitatoria G va a depender de la energía a la que se mide y que es una “running coupling constant”. Lo cierto es que no es un tema que haya visto (al menos que recuerde) tratado en ningún libro standard, ni de QFT, ni de cuerdas, ni tampoco en artículos de introducción a la gravedad cuántica y su problemática. De hecho ha sido mientras pensaba en otros asuntos cuando he caído en que esto podría pasar. Las consecuencias de una “running G” serían varias, pero inicialmente se me ocurrió relacionarlo con los agujeros negros. El planetamiento es muy simple: si el radio de Schwarschild depende de G, y esta varía con la energía, el radio de Schwarschild debería depender de la energía. Esto hay que concretarlo un poco, claro. Una idea sería que cuando hago chocar dos partículas a alta energía estas ven una G renormalizada y, por consiguiente, su radio de Schwarschild debería calcularse con esa Gren y no con la G de bajas energías. Otra idea sería que un agujero negro astrofísico (o uno primordial, formado en los momentos inmediatamente posteriores al big bang) cuando se estuviese terminando de evaporar llegaría a un tamaño en el que “probaría” tamaños muy pequeños, y por tanto energías muy grandes (recordemos, por causa de la relación de incertidumbre de Heisenberg para probar tamaños pequeños necesitamos energías muy grandes). Por tanto, una vez más, ahí podría jugar su papel la Gren.

Bien, una vez que se me ocurrió la idea me puse a buscar si alguien la había considerado ya, y sí, algo he encontrado. Está, por ejemplo, éste artículo On the running of the gravitational constant. Es del 2011 y analiza trabajos previos sobre el asunto. Afirma que no se puede dar una definición universalmente válida para esa “running G”. Ahora bien, sí uno mira los cálculos observa que están hechos con la gravedad cuántica mas sencilla, la cuantización directa de la gravedad de Einstein, que sabemos que no es renormalizable. Todos los demás artículos que he visto sobre el tema también hacen algo similar. Eso, por supuesto, es muy chocante. ‘t Hoof demostró que si bien la gravedad pura (sin términos de materia) es renormalizable a 1 loop no lo es si se introducen términos de materia (y desde luego no lo es a 2-loops, incluso sin materia). Eso hace que, salvo que se usaran para calcular la “running G” diagramas de interacción entre dos gravitones no se podría hacer nada en el sentido habitual. Y, de hecho, por lo que he visto, los cálculos usan interacción de materia con la gravedad. No he seguido los detalles, pero si está claro que no pueden seguir los pasos habituales. De hecho en ese artículo ya aclaran que es precisamente por no ser renormalizable la teoría por lo que no hay una definición universalmente válida de esa “running G”.

El caso, y esto es lo que me sorprende, si uno va a teorías de supergravedad, que son teorías de campo ordinarias. Se tiene cree que en general la teoría no es renormalizable. En los 70-80 se encontraron argumentos que así lo afirmaban, aunque en la década pasada se han revisado esos argumentos y, al menos por un tiempo, hubo esperanza de que tal vez, las mas supersimétricas, de ellas, si fuesen teorías renormalizables después de todo. ahora ya no está tan claro, y, en cualquier caso, aunque fuesen renormalizables se sabe que no podrían incorporar el modelo standard mediante mecanismo de Kaluza-Klein. En todo caso estas teorías de supergravedad, incluso con una carga supersimétrica, sí son rernormalizables a 1-loop, y creo que a mas loops, incluso interactuando con materia. Siendo así me pregunto porque no se usan esas teoris de supergravedad para calcular esa “running G”. Y, desde luego, la teoría de cuerdas da una teoría cuántica de la gravedad renormalizable ¿Por qué no usan la integral de Polyakov y demás para obtener esa “running G? Estoy revisando material, a ver si encuentro respuestas.

En cualquier caso hay muchos indicios de que una teoría perturbativa no va a incorporar todos los aspectos de la gravedad cuántica. En el cálculo de la entropía de un agujero negro en teoría de cuerdas se usaron objetos no perturbativos de esta teoría, las black branas (objetos de la supergravedad que generalizan a los agujeros negros, que son obtenibles cómo límite de las supercuerdas) formadas por apilamiento de D-branas. Más adelante se vió que, en realidad, la clave está en el cómputo de la entropía de una teoría conforme que describe la proximidad del horizonte y que no son necesarios todos esos detalles finos de la teoría de cuerdas. No obstante hasta que esos grados nuevos de libertad se vuelvan importantes yo creo que la “running G” sería válida. Estoy mirando material para precisar los límites esos, ya veré que saco.

Pese a todas estas consideraciones uno podría pensar que, después de todo, el resultado obtenido en una teoría completa de la gravedad cuántica no debería diferir mucho de lo que se obtiene por los métodos imperfectos que usa esta gente. Y como quiera que en ese artículo dan un resultado concreto (que coincide con el obtenido en otros artículos) uno podría usar, a modo de estimación, esa expresión y ver cómo afecta eso a la creación de agujeros negros en colisiones de partículas, y, por otro lado a la desintegración de agujeros negros “grandes”. Estoy ahora mismo terminando los cálculos, y pondré una entrada cuando los termine y tenga tiempo. Por supuesto que nadie se tome esto terriblemente en serio. Son cálculos relativamente sencillos, y es divertido. Anticipo ya que, con menos detalle, otra gente ha hecho algo similar y, según ellos, y cómo yo sospechaba por estimaciones groseras, con esa G renormalizada los agujeros negros empiezan a formarse con menos energía. En particular en un artículo afirman que podría ser que, incluso con 4 dimensiones (sin necesidad a recurrir a dimensiones extra mesoscópicas cómo en los modelos de braneworlds inspirados en teoría de cuerdas) a la escala de unos pocos TeV podrían formarse agujeros negros. Y, sospecho, por estimaciones groseras que he hecho, que la radiación Hawking se debilita conforme el agujero se empequeñece haciendo que estos agujeros sean mas estables de lo que se pensaba. Pero vamos, insisto, todo esto está traído por los pelos y es especulación sin una base demasiado sólida, así que recomiendo al lector que trate esta entrada, y la que debería venir después cómo algo pedagógico sobre aspectos ya conocidos en la que, además, se presenta algo ligeramente nuevo, cómo una especulación poco sería, aunque, eso espero, entretenida de considerar.

Anuncios

Leonard Susskind: Black holes y teoría de cuerdas (libro)

septiembre 23, 2013

An Introduction to Black Holes, Information And The String Theory Revolution: The Holographic Universe

El tema caliente -literalmente un muro de fuego- de este verano ha sido la propuesta de Polchinsky, Sully y dos autores más en las que se planteaban si en el interior de los agujeros negros antiguos (de edad superior al tiempo de Page, definido cómo aquel en el que se ha emitido la mitad de la masa en radiación Hawking, había un firewall en el que cualquier objeto que cayese en el agujero negro sería inmediatamente vaporizado. Eso iría en contra del principio de complementariedad que afirma, dicho de un modo intuitivo, que un observado no percibirá nada especial cuando atraviese el horizonte de sucesos de un agujero negro lo suficientemente grande, hasta que sea aniquilado en la singularidad central, claro. El artículo en cuestión es Black Holes: Complementarity or Firewalls?. La wikipedia se ha hecho eco rápidamente de la controversia firewalls en la wiki. El tema ha generado bastante polémica, con gente a favor y en contra. Lubos ha tratado el tema varias veces en su blog, y es de los que está en contra. Susskind, autor junto a ‘t Hoof del principio de complementariedad ha intervenido activamente en la polémica y hasta le ha llevado, a afirmar hace unos pocos días en un congreso, que la teoría de cuerdas, tal cuál está actualmente, no ofrece respuestas a todas las cuestiones sobre la gravedad cuántica. Polchinsky, el autor principal del artículo de los firewalls, ha expresado una opinión similar. Esto implica, entre otras cosas, que se pone en duda la validez absoluta de la correspondencia AdS/CFT de Maldacena. Todo esto, como cabría esperar, ha exasperado a Lubos, que considera que la comunidad de teóricos de cuerdas en la última década han perdido integridad moral, rigor (ya no respaldan las intuiciones con cálculos) y si le apuran hasta el mojo (Austin Powers dixit xD).

Sin duda cualquiera que este metido en la física teórica actual estará familiarizado con los términos que he usado en la descripción de la polémica de los firewalls. Ahora bien, también es posible que si no trabajan en ello (o incluso si trabajan en temas muy cercanos, pero no exactamente en ello) no hayan leído una introducción formal y dedicada a esos temas. Sin duda habrán leído sobre el cálculo de entropia en agujeros negros mediante teoría de cuerdas y sobre la conjetura de Maldacena en los libros/cursos generales sobre teoría de cuerdas. Y habrán leído algún review de tal o cuál tema implicado en algún artículo, y habrán leído debates sobre aspectos concretos en los blogs. Pero tal vez no hayan leído una presentación dedicada sobre el asunto en la que se de una introducción a todos los temas de una manera mas o menos autocontenida. Pues bien, justo eso hace el libro de Susskind (y Lindesay).

Se puede leer el índice, y alguna página, en google books

Por comodidad de referencia, y para que la gente sepa los detalles, hago un copy & paste del índice.

The Schwarzschild Black Hole
3
Scalar Wave Equation in a Schwarzschild Background
25
Quantum Fields in Rindler Space
31
Entropy of the Free Quantum Field in Rindler Space
43
Thermodynamics of Black Holes
51
The Stretched Horizon
61
The Laws of Nature
69
The Puzzle of Information Conservation in Black Hole
81
Horizons and the UVIR Connection
95
Entropy Bounds
101
The Holographic Principle and Anti de Sitter Space
127
Black Holes in a Box
141
Entropy of Strings and Black Holes
165
Bibliography
179
Página de créditos

Podemos decir que el libro se divide en dos grandes partes, la primera, que ocupa hasta el tema “entropy bounds” discute los aspectos clásicos y semiclásicos de la teoría de agujeros negros. Empieza discutiendo el agujero negro de Schwarschild, en varios sistemas de coordenadas. Enseguida pasa a sistemas que describen el agujero en el entorno del horizonte. Luego empieza a tratar los campos cuánticos en el entorno de un agujero negro la cuál lleva al famosísimo resultado de Hawking de que los agujeros negros emiten radiación. El tratamiento que hace del tema es muy, muy diferente al del artículo original de Hawking. No se mencionan en ningún momento las transformaciones de Bogoluivob que son clave en el trabajo de Hawking. Elige usar el formalismo de la matriz de densidad, a la cuál hace una introducción (conviene leerla porque los detalles de la exposición que da son ligeramente diferentes de otros libros, por ejemplo del de mecánica cuántica de Yndurain).

Luego va haciendo un paseo sobre diversas propuestas que se han ido haciendo, como el “stretched horizont” que es una zona de entorno a la longitud de Planck alrededor del horizonte de sucesos en la que habría una gran temperatura y tendría naturaleza cuántica. Esta idea (que suena similar a los firewalls, pero no lo es en absoluto) ha sido descartada hace tiempo y su interés es histórico. Luego ya se mete en consideraciones generales sobre el destino final del agujero negro (discutiendo diversas opciones), explica porque esa evaporación Hawking pone en problemas la evolución unitaria de la mecánica cuántica, etc. La exposición es clara y da bastantes detalles interesantes sobre diversos aspectos.

Luego, en la segunda parte, hace una introducción a diversos temas relacionados con la teoría de cuerdas. Por supuesto no hace una introducción a la teoría de cuerdas en sí (algo imposible en un libro de poco más de 100 páginas) y asume que el lector está familiarizado con ella. Empieza hablando del principio holográfico (del cuál es coautor junto a ‘t hooft, lo mismo que sucedía con el principio de correspondencia). Este principio afirma que la física del interior del agujero negro está codificada en su horizonte de sucesos, lo mismo que pasa con los hologramas, que almacenan en dos dimensiones información sobre 3. Ahí, cómo en otros puntos, es relevante la mecánica estadística y los conceptos de entropía e información, que son cuidadosamente analizados por Suskind en diversos puntos del libro.

El tema estrella es la conjetura AdS/CFT, o conjetura de Maldacena. Este es un tema muy amplio, y un tanto difuso en mi opinión. He leído sobre él en los libros de texto de cuerdas habituales, y había leído un review. Éste verano he leído algún review más (ninguno por debajo de 40 páginas) y aunque coinciden en unos cuantos aspectos varían en otros, y cada uno cuenta una cosa. Pues bien, el capítulo correspondiente de éste libro es una introducción más, que está muy orientada a el objetivo general del libro. Está bastante bien hecha y lidia con amenidad (al menos tanta como se puede hacer con el tema xD) con la definición de la frontera conforme del espacio de anti de Sitter. Antes, por supuesto, ha hecho una introducción general a dicho espacio, y en capítulos anteriores ya había dado una idea de porque ese espacio es útil para analizar el tema de los agujeros negros. En el capítulo de black holes in a box, dónde explica que un agujero negro nunca puede estar en equilibrio termodinámico estable con su radiación de Hawking y que hay una relación matemática con ese “agujero negro en una caja” y el espacio de anti de Sitter.

Explicar que es la conjetura de Maldacena en pocas palabras es casi imposible. Generaliza un poco el principio holográfico y viene a identificar una teoría de gravedad cuántica (teoría de cuerdas en última instancia) en el espacio de anti de Sitter (multiplicado por una 5 esfera en el paper original de maldacena y con un espacio de Einstein, uno en el que el tensor de Ricci es proporcional a la métrica) en caso mas generales) con una teoría gauge en la frontera conforme del espacio de de anti de Sitter (que es una teoria de campos conforme por consecuencia) La conexión conecta el comportamiento a altas energías de una con el infrarrojo de otra.

Luego, ya para ir terminando, recopila lo visto y hace consideraciones y conclusiones. Una idea clave es que la información de la materia que cae parece estar codificada, de manera no local, en la radiación Hawking emitida, y así la conservación de la unitariedad cuántica implica una cierta no localidad. También, cómo aparece de manifiesto en la conjetura de maldacena, hay una conexión entre comportamientos a altas energías con el comportamiento a bajas energías de otras. Eso es importante porque inicialmente se pensaba que los efectos cuánticos sólo eran relevantes cuando el radio de curvatura del espacio se acercaba a la longitud de Planck. Esa conexión indica que, por contra, hay situaciones en las que los efectos cuánticos serán relevantes incluso para campos gravitatorios relativamente débiles.

Hay que decir que éste asunto de los agujeros negros y la evaporación cuántica es, en principio, muy importante, por aquello de que supone un desafío a la unitariedad de la cuántica, y se supone que la conjetura de Maldacena ha dado una respuesta que salva la unitariedad. Aún así no todos los físicos teóricos están terriblemente entusiasmados con éste tema en concreto, al menos no lo bastante cómo para dedicarse a ello. Yo me incluyo en ese grupo y debo decir que si he leído el libro ha sido un poco por casualidad, por aquello de que no a todos lados puedo ir con el tablet, y éste libro es ligero para llevar y así, poco a poco, me lo he ido leyendo éste verano. La verdad es que, a posteriori, si recomiendo el libro, porque aparte de el tema central del que he hablado se tratan muchos detalles interesantes y curiosos de diversos temas de física que no viene mal saber. Y, desde luego, viene perfecto para situar a cualquiera que esté interesado en meterse en los detalles de la discusión de los firewalls y cómo referencia para entender algunas motivaciones del trabajo de Maldacena.

Bombas de agujero negro en el LHC

abril 6, 2011

Ayer en arxiv se pulbicó un artículo con un título bastante impactante: Black-hole bombs at the LHC

A estas alturas la histeria sobre la posibilidad de que un agujero negro creado por el LHC destruya la tierra se ha disipado mucho. Después de todo lleva funcionando más de un año y el planeta tierra sigue aquí tal cuál. Teniendo ese hecho en cuenta choca bastante encontrarse con un título tan “alarmista”.

Todo se aclara cuando uno se lee el artículo. Resulta que el concepto de “black hole bomb” es independiente de los agujeros negros del LHC. Mas sorprendente aún es que el concepto es independiente de la radiación de Hawkings. En este blog se comentaron en su momento unos artículos de “catastrofismo LHC” en los que se argumentaba que un agujero negro LHC adquiría en su trayecto inicial por la corteza terrestre una masa considerable (es decir, macroscópica) y que alcanzaría un equilibrio entre la masa que acretaba y la que emitía por radiación Hawkings convirtiéndose en una especie de explosión nuclear permanente en el centro de la tierra. De hecho la muy peculiar Louise Riofrio, proponente de un modelo cosmológico basado en una velocidad variable de la luz y bloguera en un blog del mismo título que su teoría cosmológica GM=tc^3 ha propuesto en varias entradas que en realidad la tierra ya tiene un agujero negro de esos e su interior. Más aún , proponer que todos los planetas y estrellas contienen un tal agujero negro. El motivo que le lleva a tan peregrina sugerencia es la idea de que los agujeros negros primordiales formados en el big bang actuaron de semillas para atraer el gas interestelar y formar los cuerpos masivos (estrellas, planetas, etc). Por supuesto Louise Riofrio y sus teorías tanto cosmológicas como las de los agujeros negros “semilla” no estan respaldas por ningún físico ortodoxo, y con buenos motivos, claro. Para hacer esas afirmaciones y pretender ser tomado en serio hay qu eaportar mucha mas evidencia de la que ella expone.

Pero volvamos al artículo de arxiv de ayer. Como dije no es la radiación Hawkings lo que causa las explosiones. El mecanismo es bastante diferente, la superradianza. Como en ambos casos tenemos radiación son pertinentes unas aclaraciones. La radiación Hawkings es un fenómenos que surge cuando se intenta cuantizar un campo en un espacio curvo, en particular el espacio curvo que representa la geometría de un agujero negro. La idea intuitiva con la que se suele divulgar la idea es que si se forma un par virtual partícula-antipartícula en el borde del horizonte de sucesos del agujero negro y una de las partículas formadas cae al a.n la otra partícula no se aniquila y se vuelve real. LA cantidad de pares que se forman dependen de la nergía disponible, que, en ese caso, está asociada a la gravedad superficial del agujero negro. Cuanto mas pequeño es el agujero negro mayor es su gravedad superficial (porque es mas denso, no porque su masa sea mayor) y por tanto se forman mas pares. El conjunto de partículas del par que se quedan fuera del agujero negro tienen una distribución térmica y forman la radiacción Hawkings.

La superradianza es algo muy diferente. para empezar no es un fenómeno que implique en ningún momento a mecánica cuántica y es, por consiguiente, un fenómeno puramente clásico. La idea de la superradianza se entiende mejor explicando un fenómeno asociado, el proceso de Penrose para extraer energía de un agujero negro en rotación (agujero negro de Newman, o de Kerr-Newman si admitimos que el agujero negro pueda tener carga). La idea es simple. En las proximidad de un agujero negro en rotación existe una zona, denominada ergosfeea, dónde el giro del agujero negro arrastra al espacio-tiempo. Eso significa que ningún objeto que vaya a una velocidad inferior a la de luz (es decir cualquier objeto material conocido ya que no hay evidencia de la existencia de materia taquiónica) no puede permanecer estacionario y comparte la velocidad de giro del agujero negro. El truco está en lo siguiente. Si alguien lanza un objeto de masa m a la ergosfera este se va a ver acelerado al llegar a la misma. Una vez en la ergosfera el objeto se divide en dos mitades (que para simplificar los cálculos suelen considerarse iguales aunque no es obligatorio que sea así) una de ellas cae al agujero negro y la otra consigue salir de la ergosfera y escapar del agujero negro. Bajo ciertas condiciones en las masas, ángulos y velocidades puede lograrse que la partícula que escapa, de masa m/2 lleve mas energía que la partícula total que cae, de masa m. Y aquí, cuando digo energía, me refiero a la energía relativista, suma de la energía cinética y energía en reposo (la famosa E=mc^2). Esta ganancia de energía se produce a costa de disminuir la velocidad de giro del agujero negro así que no se viola la conservación de la energía que se da en cualquier espacio-tiempo asintóticamente plano (requisito para que pueda definirse la energía del campo gravitatorio) dónde haya un vector de Killing temporal, como es el caso de la geometría de Kerr-Newman (en un espacio-tiempo general no necesariamente se conserva la energía). La superradianza es una variante de este mecanismo dónde lo que incide es radiación en vez de una partícula.

Ya casi tenemos los ingredientes para las bombas black-hole. Solo falta uno:un espejo. La idea es simple. Uno manda radiación al agujero negro y ese la devuelve amplificada. Esta radiación amplificada rebota en un espejo y vuelve hacia el agujero negro, que a su vez la vuelve a amplificar, y así tenemos un proceso realimentado que termina por generar una “explosión” de radiación.

Este proceso se había analizado previamente en otros contextos. Lo que hace este artículo es estudiar ese fenómeno en el contexto de los posibles agujeros negros que podría fabricar el LHC. Recordemos que para que el LHC pueda fabricar agujeros negros debe existir al menos una dimensión extra del espacio-tiempo con una longitud muy, muy superior a la longitud de Planck, que es la típica de las dimensiones cuantizadas en los modelos más sencillos de la teoría de cuerdas. Bien, debemos pues tener un agujero negro en 5 dimensiones, pero con una de ellas de tamaño muy inferior a las otras. Los autores usan una de las métricas propuestas para describir esa geometría y analizan la superradianza para el caso de un campo escalar. EL papel de “espejo” lo forma la materia que circunda el agujero negro, que es mas que capaz de reflejar el campo escalar.

El resultado es que si el agujero negro tiene una vida del orden de 10^-23 segundos, que es lo que predicen los modelos mas sencillos basados en la evaporación Hawkings convencional, no hay tiempo para que se forme una bomba black hole Sin embargo si se usa otros modelos de evaporación el agujero negro puede tener una vida mayor, suficiente para formar una de esas bombas. Por supuesto dado que los agujeros negros son increíblemente pequeños y tienen una masa insignificante (del orden de la de unos GeV=giga electrón voltios) la “explosión” es igualmente irrelevante y no tiene ningún efecto macroscopicamente discernible, aunque sí podría dejar algún tipo de pauta observable en el LHC.

Por supuesto si el agujero negro no se evaporase por radiacción Hawkings la superradianza podría ser mucho mas grande y sería interesante tener en cuenta cuando alcanzaría un valor macroscopicamente noticiable. Los estudios de seguridad del LHC analizaron el caso de cuanto tararía un agujero negro formado en el LHC en tragarse la tierra si no se desintegraba por radiación Hawkings. El resultado fue que tardaría muchísimo. en particular tardaría mas tiempo del que tardará el sol en expandirse y quemar la tierra. Por supuesto eso cálculos usan modelos simplificados, y están respaldados por evidencias experimentales de origen astrofísico. Ahora bien, lo que no se contemplaba en esos cálculos es esto de las black hole bombs. Sería cuestión de en función de la evolución prevista del agujero negro no evaporante ir calculando su superradianza “bomba” y ver cuando esta es importante. Muy posiblemente esta superradianza se vuelva importante mucho antes de que el agujero negro tenga un tamaño peligroso. Debo decir que en artículo de ayer no se plantean el caso de que el agujero no se evapore y no están hechos estos cálculos. Supongo que sería interesante que alguien los hiciese ya que no son terriblemente difíciles sino mas bien lo contrario. Dejo a los lectores mañosos de este blog la tarea, y que luego nos dejen por aquí el resultado. Si veo que nadie se anima haé un esfuerzo e intentaré hacerlos yo mismo ;).

Por cierto, el interés practico de estos cálculos dependerá de si el LHC (o el tevatrón) encuentra evidencia de las dimensiones macroscópicas. Hasta ahora los resultados (no todos basados en búsqueda de agujeros negros, obviamente) son negativos. La única evidencia es la anomalía backward-forward en las colisiones protón-antiprotón observadas en el tevatrón que podrían explicarse mediante una partícula de kaluzaklein asociada a un gluón. Para ver esa propuesta, y otras, para explicar esa anomalia a 3.5 sigmas observada en el tevatrón recomiendo una entrada del blog de Jester, (resonances): Update on forward-backward asymmetry que ha sido también comentada en el blog de Lubos y en el de la mula francís.

P.S. Que nadie se vaya a preocupar ¿eh?. Está claro que los que han escrito el artículo han debido hacer los cálculos para el caso en el que el agujero negro no se evapora y no han encontrado nada alarmante. Caso contrario tendrían un artículo “gordo” en sus manos y la prosa habría sido mas agresiva y se habrían hecho autobombo en alguna rueda de prensa multitudinaria.

Conferencia en la U.A.M. : Gerard t’Hooft- Black Hole Complementarity and the Hierarchy Problem

febrero 15, 2011

En el marco de los coloquios “Paco Yndurain” que organiza regularmente la universidad autónoma de Madrid mañana tendrá lugar un conferencia del premio nobel de física, en el año 1999, Gerard t’Hooft titulada “Complementariedad agujeros negros y el problema de la jerarquía”. LA charla será a las 3 de la tarde en la Sala de Conferencias, Modulo 00 (C-0), Facultad de Ciencias.

Para quienes no le conozcan indica que t’Hooft obtuvo su premio nobel por la demostración de que las teorías cuánticas de campo gauge con simetría rota son renormalizables. Este tipo de teorías son la base del modelo standard de partículas actuales así que su trabajo vino a dar forma definitiva a lo que es el mejor modelo de física de partículas elementales, testado experimentalmente, del que disponemos en este momento. En el momento en que hizo el trabajo por el que recibió el nobel, allá por los primeros 70, había dudas -al menos entre un buen número de gente- de que las teorías gauge, aunque elegantes y bonitas, pudieran representar al mundo real. El problema es que esas teorías no permitían incrporar bosones vectoriales (las partículas que median las interacciones) masivos y era bien sabido que estos eran necesarios para explicar las fuerzas nucleares débiles. Por la misma época Higgs (y otros) habían introducido el mecanismo de ruptura de simetría y Weinberg, Salany Glassgow lo habían aplicado para obtener un modelo de las fuerzas nucleares débiles que se unificaba con el electromagnetismo, la teoría electrodébil con grupo gauge SU(2)xU(1). Pero aún faltaba demostrar que esas teorías eran consistentes matemáticamente y realmente predictivas, osea, renormalizables. Y esa fué la labor de Gerard t’Hooft. Cuenta la leyenda que recién licenciado t’hooft fué a visitar a un profesor suyo, Veltman, para pedirle un trabajo para su tesis doctoral. Veltman le comentó el problema que había con las teorías gauge, pero no le recomendó que se dedicara a ello ya que estaba considerado uno de los problemas más difíciles del momento, sino el que m´s. Según esa misma leyenda t’Hooft no volvió a ver a Veltman hasta dos años después cuando se presento en su despacho para informarle de que había resuelto el problema Sea como sea el resultado era correcto y ese artículo cambió el rumbo de la física teórica de ese momento, que estaba decantándose hacia la teoría formal de la matriz S y dejando un poco de lados las teorías cuánticas de campos, y en particular las teorías gauge.

Posteriormente t’ Hooft y Veltman aplicaron las técnicas que habían desarrollado a la teoría de gravedad cuántica perturbativa, y demostraron que pese a que la gravedad libre (sin materia) es renormalizable a primer orden de perturbaciones (lo que se conoce normalmente como “a un loop”) el resultado no podía extenderse a órdenes superiores y que, por consiguiente, la relatividad cuántica perturbativa basada en partículas puntuales no era consistente según los esquemas ordinarios de la teoría cuántica de campos.

Esos trabajos, y otros posteriores en su trayectoria, han convertido a Gerard t’hooft en uno de los mejores físicos de las últimas décadas. Crear un escalafón de los mejores siempre es algo que tiene un margen de subjetividad, pero en mi criterio los dos mejores físicos actuales serían Ed Witten el “cappo” de la teoría de cuerdas, medalla fields de matemáticas y el propio t’Hooft. Casi a la misma altura pondría al anteriormente mencionado Steven Weinberg y ya después irían algunos físicos de cuerdas como Cunrrum Vafa o Joseph Polchinsky, seguidos de cerca por el famoso Stephen Hawkings.

Preferencias particulares aparte t’Hooft es uno de los grandes del momento, y de hecho uno de los grandes del siglo XX, a la altura de gente cómo Paul Dirac, Pauli, Schröedinger, Heissenberg, Feynman y el resto de los que dieron forma a la teoría cuántica y su generalización, la teoría cuántica de campos. Sin duda una conferencia suya es todo un acontecimiento en si mismo, independientemente del tema que trate, pero para los interesados en asistir voy a dar unas explicaciones previas para que se hagan una idea de por dónde podría ir su conferencia.

Por el título sabemos que trata dos tópicos, y es de suponer que debe haber algún nexo entre ellos, que posiblemente sea un tema en el que él este trabajando ahora.

El primer tópico es el principio de complementariedad en agujeros negros. Este principio creo que es debido al físico de cuerdas Leonnard Suskind, o al menos Susskind es uno de sus máximos defensores. Dicho de una manera sencilla viene a decir que es imposible distinguir el interior de un agujero negro de su exterior mediante cualquier medida local. De todos modos supongo que t’Hooft hablará de un asunto en particular, relacionado con un artículo suyo de Septiembre de 2009: Quantum gravity without space-time singularities or horizons. Ese artículo fué discutido en su momento en el blog de arxiv: Black Holes Cannot Exist in Latest Theory of Quantum Gravity. y para los que no hablen inglés pueden leer una traducción de esa entrada del blog en: Última propuesta teórica: Los agujeros negros no existen.

Bien, esa es posiblemente una parte del tema de la charla. La otra es el problema de la jerarquía. Este problema consiste en lo siguiente. Había mencionado que en las teorías gauge los bosones vectoriales no podían tener masa a menos que hubiera un mecanismo de ruptura de simetría, ocasionado por el famoso bosón de Higgs. Este era el encargado de dar masa a estos bosones. Un primer problema es que la teoría no dicta la masa del bosón de Higgs, ni tampoco los detalles de la masa que este da a las partículas tras romper la siemetría. Estos detalles dependen de una serie de parámetros (por ejemplo el ángulo de Weinberg). Ese es el motivo de que aunque hemos observados los bosones vectoriales asociados a la simetría electrodébil, el W+, el W- y el Z0 no sabemos exactamente que masa debe tener el Higgs, lo cuál dificulta su actual búsqueda en el LHC.

Pero no terminan ahí los problemas. Independientemente de la masa que adquiera el Higgs tras la rotura de la simetría, calculada a primer orden de teoria de perturbacioines, resulta que cuando se hacen cálculos a órdenes superiores se encuentra que la masa del Higgs debería aumentar por efectos cuánticos en la interacción del Higgs consigo mismo. Y esto debería hacer que rápidamente llegara a tener una masa enorme, del orden de la masa de Planck. Y junto con el Higgs deberían ir el resto de las partículas. Realmente en el modelo standard hay un rango de valores de los parámetros en lo que esto no sucede así. Lo malo es que esos valores son “antinaturales” (en un sentido que no entraré aquí a explicar). Y ese es precisamente el problema de la jerarquía. Salvo ese ajuste fino de parámetros sería de esperar que laspartículas del modelo standar tuvieran una masa semejante a la masa de Planck, y no una masa tan “pequeña” como la masa típica de la unificación electrodébil.

Por supuesto ese problema ha sido tratado. Una de las soluciones al mismo, la mas sencilla, y la que todo el mundo considera la mas probable, es la supersimetría. En las teorías supersimétricas a cada partícula del modelo standard se le asigna un compañero supersimétrico, con las mismas propiedades (núeros cuánticos) pero con distinto spin. a los bosones se le asignan fermiones, y viceversa. Por supuesto la naturaleza n es supersimétrica en su fase actual ya que no se han observado los compañeros supersimétricos de ls partículas actuales. Eso significa que debe estar rota. Lo interesante, de cara al tema de la jerarquía, es que si la energía a la que se rompe la supersimetría es similar a la energía de la rotura de la simetría electrodébil entonces, debido a sus muy agradables propiedades como teoría cuántica, la supersimetría estabilizaría el valor del Higgs, impidiéndole irse hasta la masa de Planck sin necesidad de tener que hacer ajustes “antinaturales” en las teorías. Eso sí, la supersimetria requiere, en su forma mas sencilla, que en vez de haber un Higgs haya cinco Higgs (incluyendo sus compañeros supersimétricos). no entraré en detalles de esto, que no merecen la pena para el propósito presente. Sólo decir que muy recientemente se ha creado otro modelo supersimétrico que no requiere la necesidad de 5 bosones Higgs, aunque es un modelo del que aún no se han investigado todos los factores típicos dignos de ser investigados.

Una consecuencia importante de la supersimetría, que tal vez sea mencionada por t’hooft, es que nos proporcina partículas candidatas a ser el constituyente fundamental de la materia oscura, la cuál aún no ha sido observada. De hecho la materia oscura, la supersimetría y el bosón de Higgs son los tres temas candentes de la física teórica actual, objeto de todas las búsquedas, tanto en el LHC cómo en detectores especializados en búsqueda de materia oscura.

Con esto concluyo una presentación somera de los dos tópicos de los que está anunciado que hable t’Hooft. imagino que en su charla él mismo hará un repaso de estos tópicos (sin duda mucho mejor que el mío). Por supuesto la parte mas interesante debería venir después, cuando nos explique porque esos dos tópicos aparecen unidos en la misma charla. Supongo que se debe a que habrá encontrado alguna relación entre ambos. De ser así suena muy prometedor, al menos como “plan de emergencia” si el LHC no encuentra partículas supersimétricas. Digamos que no andamos sobrados de medios de solventar el problema de la jerarquía. Aparte de la supersimetría están los modelos de “mundos brana”, o modelos de Randall-Sundrum, con dimensiones extra de un cierto tamaño que estabilizarían la masa del Higgs mediante el mecanismo de Kaluza Klein. Estos modelos, al igual que la supersimetría, son objeto actual de estudio en el LHC y un resultado negativo en su búsqueda, nos dejaría sin soluciones decentes al tema. Digo “decentes” porque el grupo de teóricos de cuerdas que defienden el principio antrópico dentro del “landscape” de vacíos de la teoría de cuerdas siempre podrán decir que si bien es “antinatural” ese conjunto particlar de valores resulta que, por otro lado, esos valores permiten la existencia de vida, y la existencia de vida inteligente que se plantee esas cuestiones. En los otros tropecientos mil universos (mucho mas probables) dónde hay valores “naturales” de la masa del Higgs no habría vida y no habría gente preguntándose esas cuestiones. Ciertamente si por lo que fuera no se hallasen la supersimetría o los braneworlds en el LHC y sí se hallase el Higgs una alternativa sensata al modelo antrópico tendría buena acogida y aparentemente eso podría ser de lo que nos va a hablar Gerard t’Hooft en la conferencia. Osea, que suena muy, muy interesante y justifica la asistencia a la conferencia (si es que la mera presencia de uno de los mejores físicos del momento no es justificación suficiente).

Para finalizar un apunte curioso. Uno podría esperar que ante un evento tan importante el salón de conferencias este lleno hasta arriba y que la plana mayor de físicos teóricos españoles asistan, para preguntarle a t’hooft sobre posibles fallas en el modelo que nos vaya a exponer. Curiosamente hoy ha comenzado en valencia el congreso “Iberian Strings” en el que estará un buen número de los físicos de cuerdas españoles, con lo cuál se perderán la conferencia de mañana. Ciertamente me parece una mala elección de fechas el hacer coincidir ambos eventos. Sea como sea yo espero asistir a la conferencia de t’hooft, habiéndome leído el artículo sobre agujeros negros que enlacé antes (confieso que en su momento se me pasó leerlo) y comentaré por aquí lo que haya sacado en claro de la misma.

Y nada, todo al que le venga bien la fecha y lugar, que no lo dude, debe intentar asistir, pocas ocasiones (o tal vez nínguna) tendrá de asistir en España a una conferencia con tan potencialmente interesante hecha por un ponente de tanta talla intelectual. Si, siendo de físicas y pudiendo asistir alguien se la pierde, sinceramente, no tiene excusa posible ;).

Update: En vez de hacer un resumén de la conferencia remito a la discusión sobre la misma que se ha producido en el blog de Migui, a raiz de copiar y pegar esta entrada en el foro: Conferencia de t’hoof en la UAM.

Por mi parte comentar que ya leí el artículo sobre agujeros negros y el pricipio de complementariedad que enlacé en el texto (si tengo tiempo haré un post sobre el tema dónde entre en mas detalles de los que dí aquí). Lo primero decir que el principio de complementariedad es una idea del propio t’hooft y no de Susskind (si bien Susskind hizo algunas aportaciones a la idea). Lo segundo dejar claro que no he hecho en absoluto una lista exaustiva de las aportaciones de t’Hoof a la física, sólo las mas pertinente a la charla. Por poner sólo otro ejemplo otra contribución famosa de t’hoof es el principio holográfico para agujeros negros, que se ha materializado, en cierto modo, en la correspondencia de Maldacena en teoría de cuerdas.

Lo tercero, ya que acabo de mencionar a Maldacena hago notar que recientemente han creado un “Einstein test” para intentar buscar mediante algoritmos los mejore físicos del momento. En ese test Maldacena ha salido elegido como el ganador. Ciertamente Maldacena es muy famoso, el artículo dónde establece su correspondencia es el mas citado de todos los tiempos y la correspondencia sin duda es importante. Sin embargo a mi, particularmente, no me parece ni mucho menos un resultado tan fascinante. Y aunque Maldacena ha seguido publicnado cosas interesantes a mi me parece que hay físicos de cuerdas haciendo cosas mas intersantes que él, por eso no lo he citado entre los grandes. Lo digo porque imaginio que alguien le habrá podido echar de menos en mi pequeño ranking de grandes de la física teórica actual.

Los agueros negros del LHC atacan de nuevo II

diciembre 28, 2009

Lo primero de todo es recomendar leer http://arxiv.org/abs/0806.3414 de tono totalmente divulgativo, de los mismos autores que el artículo “oficial” sobre seguridad del LHC (Giddins y Mangano) dónde explican el mismo tipo de cosas que el artículo técnico que cité en el post anterior. Ahí dan muchas vueltas y si uno se queda con la lectura del primer párrafo si puede leer que la colisión de rayos cósmicos descarta los escenarios de riesgo. Sólo si uno se va a la parte de agujeros negros dan mas detalles y surgen las necesidades de límites con estrellas de neutrones, enanas blancas y demás. Con todo el artículo es un poco lioso pues resulta que si el agujero negro no emite por radiación Hawkings aducen que principalmente absorbería neutrones y protones con lo cual tendría principalmente carga positiva. Siendo así incluso un agujero negro formado por colisión con un rayos cósmico podría ser absorbido por la tierra. Sólo los agujeros negros no cargados quedarían atrapados. Pero para tener un agujero negro no cargado debería operar la radiación Hawkings que lo descargaría (según expliqué en el hilo sobre el uso de agujeros negros para viajes espaciales. Resulta que aunque viene hecho el cálculo en el artículo original de Hawkings lo llaman mecanismo de Schwinger, por una analogía a un trabajo previo de Scwhinger en una situación similar-pero sin agujeros negros-). Pero claro, si hay radiación Hawkings semiclásica el agujero negro no crecería. Sea como sea en el artículo serio si terminan haciendo el análisis completo y llegan a la conclusión de que los únicos límites fiables provienen de la estabilidad de las estrellas ultradensas. por cierto, me parece recordar que esto ya se discutio en otro hilo anterior sobre los agujeros negros del LHC.

El tema de la existencia o no de la radiación Hawkings, y de su intensidad, es la clave al otro escenario catastrófico que puse en la postdata, y al artículo del post anterior, que ya leí. Ahora estoy con el de Plaga, y algunos otros relacionados. De momento sé que salió una réplica a ese artículo, esta: http://arxiv.org/abs/0808.4087 . Los autores de la réplica , Giddins y Mangano, son los autores del paper mas oficial sobre seguridad en el LHC (cuyo link puse en la entrada original).

Giddins Y Mangano aducen que Plaga (apropiado nombre para alguien promoviendo un artículo tan catastrofista ) usa mal una fórmula de un artículo de Casadio Y Harms (los autores del artículo que da origen a este post) pero Plaga en una revisión del artículo original (que aparece en el link que dí antes) aduce que no es así (Yo no he mirado con detalle las fórmulas aún así que no puedo pronunciarme). También aducen algunos otros defectos (posiblemente menores) a los que Plaga también da a su vez réplica.

La idea del artículo de Plaga es la siguiente. Los escenarios que Giddins y Mangano analizan son dos: uno en que la radiación de Hawkings es muy veloz y aniquila enseguida (tiempos muy inferiores a las milésimas de segundo) le agujero negro; el otro en el que no hay radiación Hawkings en absoluto. Plaga considera un tercer caso, aquel en que la radiación Hawkings para agujeros negros microscópicos existe, pero es mucho menor de lo esperado en el análisis convencional. En ese caso el agujero negro puede crecer hasta un tamaño crítico en el cuál empezaría la radiación Hawkings convencional y se alcanzaría el estado de equilibrio entre absorción y emisión peligroso indicado en las citas.

Bien, el artículo de Casadio Y Harms que justifica el post anterior, y por tanto este (http://arxiv.org/abs/0901.2948) está examinando justo ese caso, pero en una versión mas refinada, y con la conclusión de que no hay peligro.

La clave de la discrepancia entre la radiación Hawkings convencional y la que consideran Casadio Y Harms (e inspirado en ellos Plaga) es que los agujeros negros del LHC son tan pequeños que no tiene sentido aplicar la teoría semiclásica de Hawkings. Ellos consideran que los black holes deben describirse mediante black p-branas (objetos que apareen en terías de supergravedad y, indirectamente, en teoria de cuerdas. Una p-brana es un objeto extenso que debe existir como fuente de algunos de los campos que existen en las teorías de supergravedd. Usando p-brnas uno puede construir soluciones del tipo de los agujeros negros cargados de Reissner-Nordstrom y eso es lo que se concoe como black p-branas). Eso se traduce (pero en el artículo no dan detalles de como y le refieren a uno a otro artículo de physical review letters, http://prola.aps.org/abstract/PRD/v64/i2/e024016, no disponible de manera libre on line; intentaré hacerme con el desde la UAM) en que hay que usar el formalismo microcanonico en vez del canónico (Estos son elementos standard de la teoría de la mecánica estadística no intentaré explicar en que consisten, que me llevaría mucho tiempo)y de ahí las diferencias.

Realmente si estoy de acuerdo en que la descripción semiclásica no es aplicable para los agujeros negros que pueda producir el LHC. De hecho prácticamente hay consenso sobre ese particular. Recientemente he estado revisando bibliografía, por ejemplo el capítulo 11 del libro de Becker-Becker-Schwartz) sobre ese tema (basada toda ella en teoría de cuerdas, lo cuál sin duda es pertinente al caso pues los escenarios que permiten la creación de agujeros negros en el LHC se basan en teoría de cuerdas). En teoría de cuerdas hay varias formas de acercamiento al tema de los agujeros negros. El mas conocido esta basado en black p-branas y su realización mediante (entre otras cosas) d-branas (todas ellas adecuadamente enrolladas en torno a dimensiones compactificadas). Es el que se usó en los artículos originales en los que se calculaba la entropía de un agujero negro (por cierto, sin necesidad de invocar la radiación de Hawkings). En esos modelos lo mas sencillo es caracterizar un agujero negro de Reissner-Nordstrom extremal (enlos que se alcanza la carga máxima compatible con la masa del agujero negro). Estos tienen temperatura 0, pero si tienen una entropía proporcional a su área. Puede llamar la atención que haya entropía a temperatura 0 pues contradice la 3ª ley de la termodinámica. En todo caso esa ley no es aplicable a todos los sistemas, y aparte de los agujeros negros hay objetos mas mundanos, como los vídrios de spin, que la incumplen.

En teoría de cuerdas agujero negro extremal se traduce en D-branas BPS (adecuadamente enrolladas en dimensines compactificadas, y algunos ingredientes más)que preservan la mitad de la supersimetría. En presencia de la supersimetría uno puede extender cálculos desde acoplamiento débil hasta acoplamiento fuerte con libertad y calcular con confianza la entropia del agujero negro. Para agujeros negros cercanos a ser extremales se puede extender el cálculo y se obtiene, en ciertos límites relativamente fiables, que se sigue obteniendo la relación de Benckestein-Hakings ligando la entropía al área del agujero negro.

Otro aspecto interesante es que para obtener en cuerdas los agujeros negros no extremales aparte de D-branas hay que introducir anti D-branas. Las D-branas y las anti D-branas se aniquilarían y serían el origen de la radiación Hawkings. Imagino que, por lo que dicen de las black p-branas los cálculos sobre radiación Hawkings que hacen Casadio Y Harms se basan en ese tipo de modelos.

Aparte de esas construcciones hay otro modo de obtener agujeros negros en teoría de cuerdas. Un medio, en mi modesta opinión, posiblemente mas adecuado para analizar los agujeros negros del LHC. Ese tipo de modelos parten de analizar estados excitados tipo Kaluza klein de una sola cuerda. Voy a explicar un poco esto. Se ha contado muchas veces en divulgación que los diversos estados de una cuerda corresponden a diversas partículas. Esto requiere muchas matizaciones. El estado de vibración mas bajo de una cuerda normalmente es un estado taquionico (masa imaginaria). En cuerdas supersimétricas uno puede prescindir de ese taquión mediante un mecanismo (llamado proyección GSO). Los siguientes estados de vibración son estados de masa 0. Esos son los estados que interesan en fenomenologia. Hay varios de esos estados que en 10 dimensiones (cuerdas supersimétricas, las que interesan) corresponden a bosones vectoriales, gravitones y fermiones varios. Al compactificar a 4 dimensiones esas partículas dan lugar a muchas otras, y se supone que deben reproducir el modelo standard. La supersimetría original se rompería en algún punto y mas adelante las simetrías gauge resultantes. En ese proceso también se habría generado la masa de las partículas.

Los siguientes estados excitados de las supercuerdas en 10 dimensiones tendrían ya masa. Seguirían la ley de Veneziano y los diversos modos irían teniendo masas que serían múltiplos de la masa de Planck. Esos estados son demasiado masivos para considerarlos relacionados con las partículas del modelo standard. Tampoco podrían obtenerse en el LHC.

Hay, no obstante, otro tipo de estados excitados, que tienen su explicación dentro de los modelos compactificados. Se trata de las excitaciones de Kaluza-Klein (kaluza-klein towers of excitations). La idea es que a cada partícula, que es una vibracion de una cuerda, le corresponden otras partículas con las mismas características, pero mucha mayor masa, correspondientes a “winding modes” en los que la cuerda tiene un cierto anudamiento en torno a las dimensiones compactificadas (cuantas más vueltas más masa). La masa de esas excitaciones es inversamente proporcional al radio. En compactificaciones tradicionales, dónde la longitud característica de las dimensiones extra es del orden de la longitud de planck, esos modos se supone que no pueden obtenerse en la práctica en colisionadores. En escenarios de Randall-Sundrum algunas dimensiones extra serían mesoscópicas y las excitaciones de Kaluza-Klein tendrían mucha menos masa y podrían ser obtenidas en el LHC. La parte importante de esto (para el tema aquí tratado) es que algunas de esas excitaciones de Kaluza-Klein pueden ser descritas como agujeros negros. Esos agujeros negros tendrían un área no nula y se puede verificar que su entropia sigue la ley de Beckenstein-Hawkings. Ahí la entropía aparece como el número de realizaciones posibles de las vueltas en torno alas dimensiones extra y cosas similares. no entraré en detalles pues ni viene al caso ni los recuerdo de memoria.

Lo interesante es que aparte de la entropía se puede describir la radiación Hawkings de esos agujeros negros “de Kaluza-Klein”. Yo diría que posiblemente serían ese tipo de agujeros negros los mas adecuados para saber que esperar de la radiación Hawkings de los posibles agujeros negros del LHC. De hecho revisando el cupo de artículos que guardo porque me parece interesante el abstract para leerlos cuando tenga tiempo (o algo me lleve a fijarme en ellos, como es ahora el caso) he dado con http://arxiv.org/abs/0912.3167 que me parece que hace justamente eso. A ver si lo leo y comparo sus resultados con los de Casadio Y Harms.

La verdad es que mas que nada yo creo que todo este asunto es muy interesante a nivel teórico y el hecho de que haya una paranoia con el tema del LHC es simplemente una motivación extra para estudiarlo.

Los agujeros negros del LHC atacan de nuevo

diciembre 26, 2009

A riesgo de que alguien empiece a considerar que tal vez debería ingresar en “blackhólicos anónimos” vuelvo a proponer un tema relacionado con agujeros negros.

En el arxiv blog de hoy mencionan un artículo http://arxiv.org/abs/0901.2948 en el que unos físicos: Roberto Casadio; Sergio Fabi and Benjamin Harms, revisan unos cálculos anteriores y con la nueva aproximación les sale que los agujeros negros podrían llegar a durar hasta 1 segundo, o quizás más dependiendo de según que supuestos. La entrada del blog de arxiv, con un montón (250 en la fecha en que escribo) de comentarios diversos, es esta: http://arxivblog.com/?p=1136.

Por supuesto la conclusión del artículo sigue siendo que los agujeros negros nunca llegarán a ser peligrosos (conclusión con la que no están de acuerdo algunos de los comentaristas en el blog de arxiv, lo cual no significa mucho pues algunos están sobradamente reconocidos como pertenecientes al pelotón de los, digamos “heterodoxos”, para no ser demasiado antipáticos). El artículo trata de agujeros negros en escenarios de Randall-Sundrum y similares. No lo he leído pero por lo que he ojeado comenta muchas de las cosas que he mencionado en las entradas anteriores sobre los-permítaseme bautizarlos así- agujeros negros de Crane-McAndrew. Por supuesto el análisis esta mucho mas trabajado, e incluye cosas que yo ni he tocado, pero me agrada ver una similitud con lo que he explicado, señal de que no iba tan desencaminado. Eso si, muy importante, un agujero negro de Crane-McAndrew tendría una masa de partida muy superior a la de los agujeros negros del LHC y entraría directamente en el régimen de acreción peligroso. Los del LHC, que se supone que surgen con masas del orden de la de un protón, pasan primero por una fase en la que tienen muy difícil incrementar su masa. Los cálculos mas habituales indican que-asumiendo que no se desintegra mediante radiación Hawkings, cosa harto compleja según lo que se cree entender de la gravedad cuántica- tardaría miles de millones de años en tener la masa con la que partiria un agujero negro de Crane-McAndrew.

Si bien es cierto que los argumentos en contra de la peligrosidad de los agujeros negros que pueda producir el LHC son sólidos tampoco es falso afirmar que en la divulgación al público se simplifican tanto los argumentos que lo que se dice, tal cuál se dice, simplemente es falso.

El mas común es decir de que los rayos cósmicos lleven tropecientos años golpeando la tierra con una energía superior a la del LHC y que no haya habido ningún percance es un argumento falaz. La causa es que esos agujeros negros se crearían a la velocidad del centro de masas entre el rayo cósmico y la partícula de la atmósfera con la que haya impactado. Eso nos da en el sistema de referencia de la tierra una velocidad cercana a la de la luz. Con es velocidad el b-h formado atravesaría la tierra y seguiría su curso por el sistema solar libremente. Los cálculos muestran que incluso el sol sería incapaz de detener un b-h formado de ese modo. Sólo una estrella de neutrones podría capturar un agujero negro formado por el impacto de un rayo cósmico contra su superficie. Con los agujeros negros formados por el LHC la situación es totalmente distinta pues una fracción significativa de los mismos se formaría a una velocidad que permitiría que la tierra los capturara. Pero como sabemos que agujeros negros análogos se formarían en estrellas de neutrones por la colision de rayos cosmicos, y estas son estable, tenemos un argumento de seguridad.

El artículo mas “oficial” sobre el tema de la seguridad de los agujeros negros en el CERN (del cuál he tomado el argumento anterior) es este: http://arxiv.org/abs/0806.3381 . Yo he leído entera la versión 1, y he visto que ya hay una segunda versión. No sé exactamente que diferencias habrá, pero las líneas generales -tal como las muestra el índice- siguen siendo las mismas.

Quizás la parte con la que cualquiera que no sea un astrofísico menos habituada estará es el aspecto de la acreción. En ese artículo, y en la mayoría, hablan de la acreción de Bondi. Tras leerme el artículo oficial sobre seguridad indagué un poco sobre modelos de acreción, pero tampoco profundicé demasiado en el, no precisamente fácil, tema (para un teórico hay cosas mas entretenidas que estudiar, y especialistas en el tema que saben lo que hacen). Una introducción a los discos de acreción en cuerpos estelares la tenéis en la wiki: http://en.wikipedia.org/wiki/Accretion_disc.

Hay una cosa realmente curiosa sobre los temas de acreción, que leí en un libro de divulgación sobre termodinámica aplicada a ecosistemas (la termodinámica de la vida). Ahí comenta que si se deja fluir el agua contenida en un recipiente por un agujero pequeño situado en el fondo, de manera natural puede tardar del orden de un día en vaciarse el recipiente. Sin embargo si se la imprime una pequeña rotación al líquido el recipiente se vacía en cuestión de minutos. En el libro no dan ningún modelo matemático que me sirva para comparar con los modelos de discos de acreción de agujeros negros. En realidad los modelos sofisticados desde luego contemplan que la masa que cae gira, lo que no estoy seguro es si el modelo usad en escenarios del LHC, de Bondi (http://en.wikipedia.org/wiki/Bondi_accretion), el mas sencillo posible, incorpora ese aspecto adecuadamente.

En fin, esta bien que se le den vueltecillas al tema este. Por ejemplo así se ahorran el ridículo del paper sobre seguridad del Tevatron, que descartaba en un párrafo la formación de agujeros negros usando argumentos válidos para 4 dimensiones. Eso cuando ya llevaban un par de añitos al menos circulando los modelos con dimensiones extra mesoscópicas de Arkani-Hammed et all (ADD) y de Randall – Sumdrum. pero yo particularmente no veo mayor indicio de peligro. Entre otras cosas porque medidas varias del posible tamaño de las dimensiones extra y refinamientos en las teorías de Randall-Sundrum y su implementación en escenarios de cuerdas apuntan a que es muy poco probable que se formen estos agujeros negros. Las mayores posibilidades de comprobar las dimensiones extra recaen en obtener indicios de modos de kaluza klein del gravitón.

P.S. El tipo de “escenarios heterodoxos” que se proponen son cosas como las del artículo: http://arxiv.org/PS_cache/arxiv/pdf/0808/0808.1415v2.pdf.

Un resumen del escenario es: According to Plaga it is conceivable, that micro black holes, which might be created in the LHC, would be “quasi stable”: They could grow somewhat in a fraction of a second and stay stable afterwards for several years. “Stable“ under these conditions means, that surrounding matter would be absorbed and turned into energy, which would constantly radiate from the microscopic black hole, leaving its mass stable. This constant radiation emanating from the black hole could turn out to be more desastrous than the actual growth by the uptake of surrounding earth, the so called accretion.
Plaga illustrates his theory with one possible scenario: under certain conditions a black hole with a mass of 1kg could be created and stay stable for 3 * 1017 years (i.e. 300 000 000 000 000 000 years). Its radiation per second would equal 12 Mt (mega tons) of TNT ! That is the same amount of energy as if major hydrogen bombs would explode next to the CERN every other second! And there could be more than one black hole being created in the LHC, in fact the CERN could turn into a «factory of micro black holes». The resulting radiation could be greater than a million times the total seismic power of the planet Earth. Plaga predicts catastrophic consequences such as a magnitude of global warming like never before and worldwide earth quakes.

Sobre la radiación de Hawkings en el caso general y los agujeros negros de Crane

diciembre 25, 2009

Ya hice los deberes suscitados en el anterior post; o mas bien los hizo Hawkings en su artículo original.Había leido parte de su (un tanto enrevesado, todo sea dicho) artículo en su momento, y ahora lo he revisado entero.

Mi objeción era básicamente correcta, un agujero negro emite, vía radiación Hawkings, preferentemente partículas de signo opuesto a su carga, para así neutralizarla. Igualmente emite preferentemente partículas con momento angular en dirección contraria a la de giro del agujero negro, con lo cuál tiende a frenar su rotación.

Con todo hay matices a tener en cuenta. Si el agujero negro esta en un campo eléctrico externo uno podría pensar que si en el horizonte las fuerzas eléctricas se neutralizan las partículas virtuales no tendrían ningún sentido preferente al que ir.

En las fórmulas estas ideas intuitivas se ve en que la radiación de Hawkings la k, gravedad superficial del agujero negro, de valor 1/4M para la solución de Schwarschild es modificada por la carga y el momento angular. En concreto la modificación debida a la carga puede caracterizarse por el potencial electromagnético en el horizonte. Claramente si al potencial del agujero negro le añadimos uno externo de tal modo que el valor en el horizonte el resultado total sea nulo el agujero negro no se descargaría por este proceso, confirmando la imagen intuitiva que sugerí antes.

Con todo, mientras miraba estas cosas, me he planteado hasta que punto es sencillo crear un agujero negro cargado. Uno pensaría que según se va comprimiendo la materia que formará el agujero negro la repulsión electrostática de las cargas no balanceadas tenderán a llevar a estas a la zona exterior de las capas de materia hasta que, eventualmente, consigan estar fuera del radio de Schwarschild cuando el agujero negro se termine formando. Cierto que al ser una cantidad relativamente grande de materia tal vez no les de tiempo a escapar, pero definitivamente sería cuestión de mirarse los otros papers de Crane a ver si lo ha tenido en cuenta.

Respecto al tema de la evaporación que preguntabais también he mirado como iba el asunto. Es básicamente lo que había dicho, uno calculo cuanto emite, planta una ecuación diferencial sencillita, la resuelve y se calcula lo que le apetezca. Viene en la wiki y todo: Black holes evaporation

Para los que no hablen inglés: la entrada en español de la wiki es esta. Debo decir que es bastante pobre, en particular comparada con la inglesa. Podéis leer algo más, no mucho, sobre la teoría de cuantización en espacios curvos en mi otro blog, en esta entrada.

En el artículo de la wiki inglesa da un dato concreto: un agujero de 2.28 × 10^5 kg (osea, 228 toneladas) se desintegraría en un segundo. Y se supone que Crane modifica a la alza el ritmo de evaporación con lo cuál debería durar aún menos. Eso lleva a que habría que usar agujeros negros mas grandes, lo cuál sin duda dificulta las labores de contención.

Pero, en todo caso, como la contención se haría con un campo eléctrico se podría calibrar este para que el agujero negro no se descargara y la idea podría, en principio, seguir siendo viable a tenor de estas consideraciones.

Ya, por seguir buscándole las cosquillas al asunto, y a riesgo de seguir planteando como posiblemente novedosas cosas que en realidad están respondidas hace mas de 30 años (sic, eso pasa por no leerse enteros los artículos), una cuestión que me plantea en general el mecanismo de Hawkings.

Para bosones no hay ningún problema específico. La cuestión surge con los fermiones. En el artículo Hawkings menciona el mecanismo de supeirradiancia, y como el principio de exclusión de Pauli lo suprime para fermiones. Eso hace que uno se pueda plantear hasta que punto no puede suceder algo similar con la propia radiación Hawkings (él no hace cálculos explícitos para fermiones masivos). Imagínese un b-h emitiendo en una zona rodeada de materia (el centro de la tierra mismamente). Una vez alcanzada cierta temperatura se empezarían a emitir fermiones cargados (el neutrino, que es el primer fermión que se emitiría, no cuenta pues escapa de cualquier lado). Si no pueden ir muy lejos, al estar rodeados por materia, llegaría -tal vez- un momento en que ya ocuparían todos los estados cuánticos disponibles en un volumen dado, y, por tanto, ya no se podría emitir mas radiación Hawkings. Supongo que para intentar cuantificar esto habría que usar termodinámica/mecánica estadística. Y plantearse muy bien la validez de los formalismos en esa situación. Pero en principio no veo que sea insensata del todo esta objeción. Es más, ayer, o antes de ayer, salió en Arxiv un artículo en que hablaban de “mar de dirac” para agujeros negros de Kerr. No leí el artículo (estaba con el de Hawkings, y otros mas modernos sobre el asunto) pero el abstract parecía indicar que podría tener algo que ver con lo que digo.

Mas reflexiones: Supongo que todos habreis oido hablar del tema de la unitariedad o no del proceso de evaporación del agujero negro. No podría afirmarlol al 100% sin meditarlo con calma, pero, aparentemente, esa unitariedad implicaría una serie de cosas relevantes al tema tratado. Por ejemplo creo que ea unitariedad debería implicar que se conservaría el numero de partículas/antipartículas. Si inicialmente el agujero negro se formó a partir de materia eso implicaría que, de algún modo, tiene que ingeniárselas para que al final haya muchas mas partículas que antipartículas. Eso debería implicar que de alguna manera el caracter de la radiacióndebe modificarse en algún punto para que tal cosa suceda. Lo mismo se aplicaría a las conservaciones de cargas varias. En particular no veo del todo claro -aunque mas factible que el asunto de la materia/antimateria- que se pueda formar antimateria (como apunta como posibilidad Crane) ya que inicialmente no la había. Vale que luego puede decaer a materia ordinaria la mayoria de ella, pero eso ya sería un proceso ajeno al mecanismo de Hawkings, que es al que se le supone unitariedad. En fin, nunca me había planteado exactamente las consecuencias prácticas de la unitariedad y quizás este metiendo la pata en algo. En fin, se aceptan de buen grado observaciones varias, yo de todos modos intentaré seguir indagando en el asunto (hasta que me aburra o simplemente alguna otro tema reclame mas insistentemente mi atención). Normalmente se dice que de conservarse la unitariedad la información sobre la distribución inicial estaría almacenada de modo sutil en la radiación de Hawkings. No veo yo que lo que aquí menciones sea exactamente “sutil” así que a lo mejor paso alguna cosa por alto.

Posibles peligros de un agujero negro de Crane

diciembre 18, 2009

El tema del post anterior ha sido discutido en el foro de Migui (y aparentemente, según el registro de visitas del blog, en un foro de estudiantes de la universidad de Zaragoza al que no tengo acceso). En el foro de Migui he dejado un par de respuestas que elaboran la idea, y plantean algunas pegas. Tenía intención de pulir un poco esas respuestas (para empezar poner las fórmulas en latex -ya que por desgracia en ese momento el foro de Miguie tiene problemas con mimetex, y corregir un error en un dato usado en dichos cálculos) y aprovechar para explicar porque los agujeros negros del LHC no son peligrosos (las explicaciones que se dan habitualmente son versiones tan simplificadas que, estrictamente hablando, no son correctas). Pero como quiera que eso redundaría en una entrada excesivamente larga, y que me llevaría un cierto tiempo redactarla he optado por dejar aquí una copia tal cuál de las dos respuestas (una de hoy mismo) en el foro de Migui, para no tener demasiado en ascuas a los lectores interesados en la entrada anterior. Intentaré, cuando tenga un hueco, editar esta entrada y adecentar al máximo la exposición.

—————————————————————————————–

Respuesta 1.

¿El agujero negro podría ser peligroso o sería tan pequeño que le sería imposible atraer materia cercana?

Este es un cálculo que podría estimarse en secundaria, y no necesariamente en el último año. Basta usar la ley de Newton de la gravitación universal. Con ella podemos calcular la distancia a partir de la cuál la aceleración gravitacional del agujero es mayor que la de la tierra. El resultado es (como no funcione el LaTeX escribo la fórmula chabacanamente):

r=sqrt(G.M/g)= 7.98 x10^(-3)xsqrt(M)

dónde, obviamente, g es la aceleración de la tierra, el famoso 9.8 m/s^2, G la constante de gravitación universal y M la masa del b-h.

Si sustituimos un valor típico -a la par que numéricamente conveniente- para las masas que maneja Crane, por ejemplo M= 10 toneladas, nos sale que r= 7.98 x 10^-3. Es decir, casi, casi un centímetro. Por simplicidad asumo desde ahora un agujero tal que r= 1cm. Como la aceleración gravitatoria de una masa puntual crece inversamente al cuadrado de la distancia nos sale que para medio centímetro la atracción gravitatoria cuadriplicará la de la tierra, para un radio de 0.31 cms sería 10 veces mas fuerte que la de la tierra, y ya por tanto probablemente suficiente para robarle masa a la tierra. Podríamos discutir este aspecto, pues en el interior de la tierra la presión debería simplificar mucho la acrección, pero así, por simplificar, podemos quedarnos quedarnos con que a radios de 0.5 centímetros el b-h consume toda la masa que le pase cerca. Realmente si quisiéramos hacer esto bien usaríamos el modelo de acreción de Bondi, o alguna cosa mas refinada, pero valga esta aproximación grosera para nuestros propósitos.

Asumamos que el agujero cayera de manera libre en el interior de la tierra, lo cuál es una aproximación razonable. Supongamos que se come todo lo que encuentra en un radio de medio centímetro. Eso nos lleva que cuando cae por un lado y llega al unto antipodal habrá consumido un cilindro de base medio centímetro y altura el diámetro de la tierra. Usando los datos de la densidad y radio de la tierra eso os daría que al llegar al punto antipodal habría consumido 7.87x 10^3 Kg, Es decir, casi habría duplicado su masa.

Esta estimación nos indica que la masa crece lo bastante deprisa como para que el radio crítico en que ejerce efectos significativos también crece, y que por tanto debemos usar una ecuación diferencial.

Si llamamos rc= 0.31.rg a ese radio crítico tenemos que rc= 0.31*7.98.10^-5 *sqrt (M). Llamo al factor numérico k.Tenemos que el incremento de la masa, según lo que vimos antes, sera:

inc(M)=rho*phi. rc^2. Vch. inc(t)

dónde Vch es una velocidad característica que luego se estimará. Sustituyendo en la fórmula anterior encontramos la ecuación diferencial:

inc(M)/inc(t)=cM

dónde C=rho.phi. K^2Vch= 1.05*10^-8*Vch

La estimación de Vch es ligeramente delicada. Sabemos que una masa puntual cayendo libremente por el centro de la tierra describe un movimiento armónico simple, por aquello de que la fuerza gravitatoria en el centro de la tierra va como F=k*R (K es una constante trivial de calcular).

Para el oscilador amónico sabemos que la velocidad en función de la posición es:

V(x)=w*sqrt(A^2- x^2). (w es la frecuencia del oscilador)

Podríamos usar esa distribución para calcular el valor medio de V y usarlo como Vch. En realidad como nuestro b-h va ganando masa según cae la aproximación del oscilador armónico no sería exacta, así que podríamos contentarnos con usar una aproximación mas grosera para Vch (o resolver la ecuación exacta del movimiento, teniendo en cuenta el incrementeo de M con el tiempo, luego despejar V(x) y calcular el valor medio, lo cuál parece totalmente innecesario). Como quiera que se me hace tarde hago una estimación muy burda. si se asume que la energía potencial se transforma en cinética al caer al centro de la tierra, y teniendo en cuenta que al caer su masa será 3/2 la inicial me sale (si no me he equivocado, que lo he hecho rapidito, en http://fisicaconpatatas.blogspot.com/2009/11/viaje-por-el-centro-de-la-tierra.html hacen algo similar y les sale 11224 m/s , osea, parecido, pero no igual) que la V en el centro sería del orden de 8*10^3 m/s. Lo mas sencillo para estimar la velocidad media sea usar los datos que da esa web para el tiempo que se tarda en ir de un punto a su antípoda, 38 minutos (42 con una correción). Y claro, dividiendo distancia entre tiempo tenemos una excelente aproximación para la velocidad media. Nos quedaría una Vm=5.06*10^3.

Total, que la c que nos aparecía en la exponencial vale:

c=5.35*10^-5

Si diéramos credibilidad a esta ecuación hasta el final nos saldría que el tiempo que tarda la masa del agujero negro en ser igual a la de la tierra sería t=log(Mt)/c=1.07*10^6 sg. Es decir, que en unos 12 días se habría ventilado la tierra.

¿A que parece todo esto muy ingenuo? Física de segundo de carrera básicamente. Pues bien, hay un articulillo en arxiv que trata el mismo tema (aplicado a los agujeros negros del LHC, dónde esta aproximación no sería válida para el agujero negro “recién nacido”) y que usa mas o menos el mismo tipo de estimaciones. No lo he mirado y he hecho los cálculos yo mismo (entre otras cosas porque el artículo omitía parte de los detalles). Pero vamos, que no se rompían la cabeza, no .

En definitiva, que si no hay radiación Hawkings mal asunto. Ahora bien, si confiamos en que si existe esa radiación ¿podemos estar tranquilos?

Yo diría que no. Al irse desintegrando el agujero negro va perdiendo masa, decrementando su área y por tanto aumentando su irradiancia. Es decir, que la velocidad de desintegración se incrementa con el tiempo. Se puede plantear una ecuación diferencial usando la ecuación de Stefan Boltzman como medida de la potencia radiada (al fin y al cabo el b-h emite como un cuerpo negro y relacionar la temperatura de Hawkings al radio del agujero negro. Integrando la ecuación se puede estimar el tiempo que tarda en desintegrarse el b-h. Los cálculos están en http://arxiv.org/abs/0912.0826v1 (en realidad los hace para una cosa que llama “agujeros negros cuánticos”, pero creo que sirve para nuestro caso) y le sale que el tiempo de desintegración es:

t=1/CM.(M/Md)^2(d-2)/d-3

dónde d es el número de dimensiones efectivas del espacio (ahí considera la posibilidad de que haya dimensiones extra mesocópicas) y C el número de campos disponibles para desintegrarse. Md es la mas de Planck para el caso de d dimensiones (que n es la misma que para d=4).

Hay unas cuantas incógnitas en esa fórmula. Pero lo interesante es que Crane estima que si existe supersimetría la radiación de Hawkings puede bastar para acelerar el b-h a una fracción estimable de la velocidad de la luz en un tiempo razonable. Eso da idea de que se desintegraría bastante rápido, y emitiendo muchísima radiación. Eso hace que uno se incline a pensar que podría llegar a desintegrarse en un tiempo del orden de lo que tardaría un viaje interestelar típico, osea, decenas de años. Como las fases últimas de la desintegración serían explosivas, y por aquel entonces seguiría quedando bastante masa tendríamos que el estallido final podría convertir una cantidad bastante grande de masa (si asumimos un decaimiento exponencial tal vez estaríamos hablando de masas de orden de una tonelada) que se convertiría en un estallido de rayos gamma (y otros tropecientos tipos de partículas). Si se hace el famoso E=mc^2 tendríamos la noción clara de que estaríamos ante una explosión preocupante incluso si ocurre lejos de la tierra. Obviamente si al agujero lo “alimentamos” continuamente cuando es grandecito para que la radiación Hawkings sea pequeña casi no radiará, y tampoco crecerá peligrosamente.

Si las estimaciones que hago en este post son razonables (juzgarlo vosotros mismos) me queda la impresión de que estamos ante un animalito bastante peligroso. Se supone que al crearlo estará cargado y que un campo eléctrico debería mantenerlo a raya. Pero ¿que campo eléctrico puede mantener a raya un objeto de varias toneladas y radio microscópico de una manera fiable?. Aparte de que deben asegurarse de que lo construyen de tal modo que la velocidad que tiene es casi 0 respecto al sistema de laboratorio, que sino no hay quien lo atrape.

Tras estas reflexiones me queda la impresión de que si bien construirlo no me parece algo imposible a corto o medio plazo el problema realmente serio es la seguridad del proceso.

Respecto a la antimateria, pues mírate los enlaces que puse en el primer post, que lo explican perfectamente. El resumen sería que es totalmente inviable.

Y ya de paso te respondo por aquí a lo que preguntaste en el hilo de materia oscura. Mírate el blog de Jester (resonances) que dejé enlazado en ese hilo. Tiene varias entradas de este mismo año sobre la materia oscura dónde discute el asunto de DAMA y las diversas opciones de materia oscura compatibles con ella e incompatibles con el resto.

P.S. Ya es mala suerte que este averiado el Latex justo en un post como este, con, relativamente, tanta fórmula.

P.S. 2. Aviso, hay un fallo muy tonto en los cálculos. Con las prisas asumí que ya que el resto de datos que estaba usando me los ponían en el S.I el de densidad también estaba en ese sistema. Luego caí en que 5.5 no me cuadraba nada, y en efecto, son 5.5 g/cm^3. Hay que multiplicar pues por mil el incremento de masa, con lo cuál el b-h como mucho mas deprisa de lo que había puesto.

———————————————————————————–

Respuesta 2 (sobre la seguridad de los mecanismos de contención y manipulación del b-h basados en que este estuviese cargado):

Eso de los agujeros negros cargados es algo que me inquieta. En particular me inquieta desde que he leído el artículo comentado aquí y me empiezo a plantear que tal vez no sea tan remota la posibilidad de que alguien fabrique un miniagujero negro de unas cuantas toneladas (luego discuto ese punto) en algún lugar del sistema solar en algún momento no terriblemente lejano del futuro.

Ciertamente existen las soluciones tipo Reisner-Nordstrom que describen agujeros negros cargados en presencia de una distribución de cargas (mas exactamente su tensor de energía momento). Y uno puede vivir tranquilo con esas soluciones en tanto en cuanto nadie esperaba verse con realizaciones prácticas de la misma. Pero dado el caso seamos un poco críticos.

Por ejemplo, una pega que se me ocurre, en la misma línea de la idea heurística de la radiacion de Hawkings, es la siguiente. Si asumimos que la temperatura de Hawkings (proporcional a la gravedad superficial de b-h, y por tanto a su área, y por tanto a su masa) es lo basante alta ese espectro de Hawkings permitiría crear pares de partículas cargadas (empezando por pares electrón positrón, que serían las partículas cargadas mas ligeras). La idea en la radiación de Hawkings es que una de esas partículas virtuales se queda atrapada en el horizonte y que la otra se hace real. En principio sería un proceso aleatorio y se quedarían atrapadas equiprobablemente los electrones o los positrones.

Ahora bien, si el agujero negro tiene carga en promedio uno esperaría que se quedaran atrapadas mas veces las partículas de caga opuesta a la del agujero negro hasta que este volviera a quedar con carga neutra.

Esa es la idea heurística, y ualitativa, pero no creo que debiese ser muy difícil implementarla en los cálculos semiclásicos que hizo Hawkings para obtener su radiación para obtener una versión cuantitiva.

Por supuesto las consecuencias, si mi pega es correcta, serían devastadoras para la propuesta de Crane. La idea es poner a emitir al b-h de manera no isótropa ara que se autoacelere hasta cerca de la velocidad de la luz. Cómo se supone que estaría cargado la nave iría remolcada del agujero negro mediante un campo eléctrico. Ahora bien, este mecanismo requiere que el agujero pueda radiar a muy altas energías, incluyendo partículas supersimétricas de varios GeV. Mucho, mucho antes de llegar a eso estaría radiando electrones/positrones y si la pega que propongo es correcta se descargará antes de alcanzar una velocidad aprovechable y la nave no podría seguirlo.

Por otro lado si el mecanismo es viable haría que plantearse que supondría para el mismo la existencia de soluciones extra. Los cálculos de la entropía dan que para b-h en mas de (3+1)dimensiones se sigue cumpliendo la ley de Beckenstein-Hawkings. Imagino que eso implica que también se cumpliría la dependencia de la temperatura de Hawkings en la aceleración. Ahora bien en dimensiones extra la gravedad decae como !/R^(n-1) y eso implica que para distancias cortas la aceleración gravitatoria es mayor que lo que sería en el caso habitual. Eso podría significar que tal vez el agujero emita a mas temperatura de la esperada, y que se descargue mas rápido si mi idea de neutralización de la carga tiene sentido. En ese caso podría darse la circunstancia de que un agujero que, dada su masa, en el caso normal no podría descargarse y ser susceptible de controlar mediante campos e-m pudiera volverse neutro y desmandarse.

En fin, he expuesto las ideas cualitativas. Alguien mencionaba haber leído un límite inferior a la masa de un b-h para que no radiara explosivamente que era del orden de la masa de una montaña mientras que yo he hablado de masas mucho menores, del orden de 10 Tm. La verdad es que escribí ese dato porque me pareció haberlo visto en el artículos, pero lo puse fiándome de la memoria, que siempre es poco de fiar. Sea como sea es un cálculo bastante sencillo. Basta calcular la aceleración en la superficie del b-h, que no tiene mayor complicación, y sustituir en la fórmula de la temperatura de Hawkings (una fórmula algebraica muy simplona) y estimar que temperatura se consideraría peligrosa. realmente si uno quiere ser algo mas serio habría que plantear una ecuación diferencial que diese el ritmo de desintegración del b-h y ver en que punto ese ritmo alcanza una velocidad considerada explosiva. No es terriblemente complejo, y, en todo caso, hay bibliogafía dónde esta hecho.

En fin, dejo por aquí la propuesta por si a alguien le apetece hacer los cálculos. Ya no son física de bachillerato, o de segundo de carrera, pero tampoco creo que excedan la capacidad de alguna gente de por aquí. Además, si alguien no los ha hecho ya (algo que si uno lo piensa puede resultar sorprendente) tal vez podría plantearse publicarlos y todo.

Ya, para acabar, mencionar un artículo en el investigación y ciencia de este mes. Uno de los autores es M. Visser, conocido como uno de los mayores especialistas en agujeros de gusano, y por la gravitacion semiclásica posiblemente Ahí apuntan una cuestión que ya he visto planteada por otra gente, que los efectos cuánticos podrían generar una fase “antigravitatoria” que impediría en algunos casos la formación de los agujeros negros. En ese artículo mencionan que usan una aproximación semiclásica obtenida por la backreaction, que se traduce en la renormalización del tensor de energía momento clásico, e iteraciones varias de ese mecanismo. Me planteé si la teoría de cuerdas no invalidaba totalmente esos cálculos, pero hasta dónde he meditado creo que no. Al fin y al cabo la teoría de cuerdas permite obtener soluciones tipo agujeros negros de Reissner-Nordstrom a partir de las p-branas que aparecen en supergravedad. La supergravedad sería un límite de bajas energías de la teoría de cuerdas, pero al ser branas BPS podemos admitir que los cálculos se mantienen hasta límites de altas energías y en ese caso las p-brnas supergravitatorias estarían formadas por apilamientos de D-branas. Calculando la entropía de esas configuraciones de D-brnas se obtiene la entropía del b-h, que coincide con la del agujero negro. Lo interesante es que esto describe un agujero negro ya formado, pero no nos dice nada del proceso de formación. Y eso justo es el asunto que analizan M. Visser et all. Y no veo que haya un problema terriblemente grave en su aproximación que la teoría de cuerdas pueda echar por tierra (de hecho en el artículo Visser repasa escenarios de la descripcióndel interir del agujero negro ya formado, algunos de los cuales incluyen propuestas bastante recientes de la eoria de cuerdas). En ese sentido el mecanismo de Visser sería mucho mas “string-free” que estudios similares de otra gente (Martin Reuter, por ejemplo) que dependen bastante de la LQG, que todos sabemos causa escozores a los cuerdistas mas “militantes”.

Ya, para terminar, otras posibles pegas a la idea del agujero negro cargado. Si uno se toma en serio la descripción clásica del b-h resulta que la materia termina de manera inavocable en la singularidad. No tengo claro que las leyes de conservación de la carga eléctrica tengan porque seguir siendo válidas en dicha situación. Tal vez pudiera argüirse que todo lo que ocurra al otro lado del horizonte de sucesos es irrelevante, no lo tengo claro. Hay alguna otra posible pega que se me ocurre, pero no la he examinado demasiado así que no digo nada, que bastante riesgo de haber expuesto propuestas tontas he corrido ya con lo expuesto hasta aquí.

P.S. Tras pensarlo un poco creo que los cálculos de la neutralización de carga por un agujero negro serían ligeramente mas complejos de lo que he dado a entender porque en principio parecería natural usar una métrica de Reissner-Nordstrom en vez de la de Scharschild como base para realizar los cálculos.

Microagujeros negros y viaje espacial

diciembre 7, 2009

Supongo que muchos de vosotros habréis leído las crónicas de McAndrew, del escritor Charles Shefield (los que no lo hayan hecho, pues ya están tardando ).

Uno de los elementos estrella de esas crónicas es el kernel. Básicamente un kernell de esos es un agujero negro de Kerr-Newman (osea un agujero negro rotatorio y cargado) de poco peso (y evidentemente tamaño) que es usado para producir energía mediante el proceso de Penrose, o algo similar. Este tipo de procesos se basan en extraer energía rotatoria del agujero mediante el procedimiento de lanzar hacia él una partícula que al llegar a la ergoesfera (zona del espacio-tiempo que gira con el agujero) es acelerada. Una vez tiene una cierta velocidad de rotación la partícula se divide en dos, una parte queda atrapada en el agujero negro y la otra escapa lejos de él, con una energía cinética mayor de la que tenía la partícula inicial (pese a tener menos masa).

La necesidad de que el agujero negro tuviera carga surgía de la necesidad de poder controlarlo, pero no jugaba mayor papel en la producción de energía.

El uso principal de esos dispositivos era la propulsión de naves espaciales. Realmente ese es un factor a tener en cuenta pues , aunque pequeña, la masa de un agujero capaz de aportar una cantidad práctica de energía posiblemente lo convirtiese en un peligro caso de que se perdiera el control y terminara deambulando por el interior del planeta.

Eso era una novela y aunque el proceso de Penrose, y el resto de la física, era totalmente sólida, tenía unos pequeños problemas prácticos. Uno de ellos era el pequeño problemilla de no tener a mano un microaguero negro de esos. Si no recuerdo mal en la novela ese microagujero se suponía que provenía de los agujeros negros primordiales formados poco después del big-bang y que aún no se hubiesen desintegrado por radiación de Hawkings en la actualidad.

Otra posibilidad que existe (no recuerdo si aparecía en el libro, pero ciertamente hay gente qu ela ha investigado y ha hecho los cálculos) sería formar uno de tales agujeros negros mediante la implosión de una cierta cantidad d materia dispuesta en capas esféricas en el interior de una detonación de una distribución igualmente esférica de bombas atómicas. Un agujero de esas características tendría- relativamente- bastante masa, y no tengo muy claro como se podría controlar una vez creado. Dado que con esa masa posiblemente estuviera en el régimen de acrección de Bondi sería un peligro potencial a medio plazo para el planeta caso de quedar atrapado en el interior del mismo.

Un hecho a tener en cuenta es que esa novela es de los 80. Desde entonces ha habido unos cuantos desarrollos en física teórica, y en particular los modelos de mundos brana inspirados en las teorías de cuerdas. En esos modelos la gravedad a cortas distancias es mucho mayor pues existe una dimensión extra de tamaño mesoscópico (intermedio entre le miro y el macroscópico). Esa gravedad aumentada abre la posibilidad de crear agujeros negros en un colisionador de partículas que alcance energías de unos pocos TeV, como por ejemplo el LHC. Imagino que cualquiera que no haya estado haciendo turismo espacial (o que haya quedado atrapado en una isla desierta) habrá oído bastantes veces la histeria del agujero negro del LHC que podría destruir el mundo y las correspondientes justificaciones -no siempre explicadas con el necesario detalle en mi opinión- de porque no hay que temer eso (ciertamente algunas explicaciones que he leído de tan simplificadas que pretenden darlas son directamente erróneas, pero bueno, si uno busca encuentra los detalles).

Sin duda cualquiera que conozca por separado los dos hechos que he presentado se planteará si no pueden unirse. Es decir, si no puede estabilizarse un agujero negro de esos que crea el LHC, sobrelimentándolo para que no se desintegre inmediatamente por la radiación de Hawkings y haciéndolo crecer mas rápido de lo que lo haría por si mismo hasta que alcance un tamaño decentito y poder usarlo de Kerrnell. Yo, desde luego, me lo he planteado. Pues bien, hay un físico -Louis Crane- que lleva unos cuantos añitos muy centrado en esos temas y que este Agosto publico un artículo en Arxiv sobre el particular (http://arxiv.org/abs/0908.1803v1) bajo el muy descriptivo título: “ARE BLACK HOLE STARSHIPS POSSIBLE? “. Una descripción sencilla del artículo puede leerse aquí: http://www.sciencenews.org/view/feature/id/50326/title/A_black_future

El artículo empieza haciendo un repaso de los problemas prácticos que presenta el viaje espacial tripulado a largas distancias. Uno de ellos el crear un escudo eficaz contra los rayos cósmicos. La mayoría de soluciones a este problema requieren o bien un blindaje muy pesado, que obliga a que el vehículo consuma mucha mas energía para ser acelerado, o bien un blindaje magnético que requiere mucha energía. Sea como sea hace falta mucha energía (podéis ver detalles sobre ese problema-así como del resto problemas del viaje a marte- en este documental:http://www.documaniatv.com/tecnologia/rumbo-a-marte-3-mantenerse-con-vida-video_e8e1232c8.html). Ciertamente esta bastante claro que el viaje espacial a largas distancias sólo es una perspectiva realista para el común de los mortales si se consiguen fuentes de energía mucho mayores de las actuales (en el artículo menciona la antimateria, ero enseguida la descarta como sistema práctico (podéis leer mas sobre esa posibilidad en el blog de física en la ciencia ficción de Sergio L. Palacios, concretamente en http://fisicacf.blogspot.com/2007/09/por-un-puado-de-antimateria.html y en http://fisicacf.blogspot.com/2007/10/hasta-que-lleg-su-hora.html)

Tras eso va al tema en sí, los agujeros negros. Debo decir que la propuesta que hace es diferente de las que he apuntado atrás, pero estaba bien recordarlas para tener claro lo que se había discutido hasta ahora sobre ese tema.

Lo primero que discuten es como el agujero negro proporcionaría energía. En vez de el proceso de Penrose pretenden usar la emisión de Hawkings. En la sección III del artículo discuten los detalles de la misma, y las correcciones a la potencia emitida por ese proceso cuando el agujero negro tiene un radio muy pequeño y la temperatura de Hawkings es tan grande que permite emitir no sólo fotones sino muchos otros tipos de partículas. En particular llegan a dos conclusiones. Una es que la energía emitida es mayor que la que sugieren los modelos mas simples. Otra es que, adecuadamente dirigida esa radiación puede usarse para propulsar el agujero negro (y potencialmente cualquier cosa que se ancle adecuadamente a él) hasta velocidades cercanas a la luz. Es decir, que podría usarse directamente el agujero negro como sistema de propulsión y no sólo como fuente de energía.

Luego discuten como formar un agujero negro en el rango de masas adecuado (lo que ello llaman un agujero negro subatómico). Para ese fin se considera un mecanismo distinto a los dos que he comentado antes. La idea propuesta es usar una distribución de lasers de rayos gamma apuntando hacia una región central dónde estaría la masa que se pretende colapsar. La verdad es que no dan muchos detalles en este artículo sobre ese particular y remiten a la bibliografía (que no he consultado). En particular me intriga si en esos cálculos consideraran solamente escenarios con cuatro dimensiones o también tendrán en cuenta la posibilidad de la existencia de dimensiones extra mesoscópicas, lo que posiblemente facilitaría un poco el proceso. Conociendo un poco las preferencias teóricas de Crane sospecho que casi seguramente habrán contemplado solamente el caso sin dimensiones extra. En cierto modo eso sería bueno pues haría depender todo el contructo teórico de un factor que si bien puede existir no se suele considerar que sea algo excesivamente probable.

Toda la física discutida en el artículo es física standard, y mucha de ella esta probada en laboratorio. Pero no toda. La radiación Hawkings, no esta experimentalmente verificada, pero la practica totalidad de los físicos teóricos la consideran algo prácticamente inevitable ya que cálculos sobre la misma (y el muy relacionado tema de la entropia de los agujeros negros) ha sido hecha con muy diversas aproximaciones (aproximación semiclásica a la gravitación cuántica-osea cuantización en espacios curvos, teoría de cuerdas, LQG, etc) dando resultados concordantes. Otro asunto que discuten es que hacer cn el agujero negro cuando la nave deba estar en reposo. Ahí mencionan la opción del remanente. Esto equivale a decir que en algún momento la radiación Hawkings deja de funcionar y en vez de desintegrarse completamente queda algo del agujero negro-el remanente-. No es que este totalmente descartado, pero hay muy buenos argumentos para pensar que esa posibilidad es muy poco probable que sea cierta. Con todo ese es un detalle menor y en el artículo no lo mencionan como un aspecto crucial.

El otro aspecto importante que depende de física no verificada experimentalmente es que para que la energía/potencia emitida en función de la temperatura f(T) sea lo que a uno le gustaría sería muy deseable que en el espectro de partículas que pueden ser emitidas se incluyan partículas supersimétricas. Y la supersimetría es algo de lo que no se tiene constancia experimental (aunque la mayoría de teóricos, y sobre todo los de teoría de cuerdas están bastante convencidos de que debe existir). Lo bueno es que sobre estos dos asuntos pendientes, dimensiones extra mesoscópicas (que posiblemente juegue un papel accesorio), existencia o no de la radiación Hawkings y supersimetría nos pueda sacar de dudas el LHC (comprobar la radiación Hawkings dependería de la existencia de dimensiones extra del tamaño suficiente para crear agujeros negros microcópicos, si bien podrían obtenerse pruebas de esas dimensiones extra-caso de existir- incluso si no son lo bastante grandes para crear agujero negros).

Tal vez pueda parecer a algunos excesivamente especulativo, pero a mi particularmente me parece mucho menos exótico que otras cosas que he visto propuestas. De hecho me parece incluso sorprendentemente realista en su conjunto. Es más, dada la tremenda dificultad del viaje espacial (que queda muy claramente explicada en los documentales que dejé enlazados antes) me parece mucho más probable que si cuando ese tipo de viajes se lleven a la práctica con una cierta regularidad usen sistemas como el que propone Crane (u otros similares surgidos de la física de altas energías actualmente bajo investigación) que de cualquiera de las alternativas mas mundanas actualmente consideraradas.

Agueros negros, aclaraciones varias

julio 23, 2008

En los últimos tiempos he visto en diversos lugares un montón de errores absolutamente elementales sobre varias cuestiones referentes a agujeros negros.  Me parece increíble dado que sobre el tema hay mucha, y muy buena, bibliogrfía, tanto seria como, sobre todo, de divulgación. Dejo en este post una recopilación de los errores y las oportunas correcciones que he ido cubriendo: Inevitablemente hay alguna repetición, pero, hey, la repetición es pedagógica ;-).

……………………………………………………………………………………………..

Falso: Técnicamente responden a lo que se llama una singularidad del espacio-tiempo, es decir, son lugares en donde la materia, el espacio y el tiempo colapsan.

Verdadero: Un agujero negro se define mediante su horizonte de sucesos, una “superficie de no retorno”. La definición exacta de este concepto es compleja y sutil en general. Sin embargo para el caso mas sencillo de agujero negro, el de Schwarschild, es sencilla. Es la esfera situada a una distancia, conocida como radio de Schwarschild, del centro del agujero negro de la cuál ninguna señal con una velocidad menor o igual que la de la luz puede salir fuera de dicha esfera una vez ha entrado.

En el radio de Schwarschild una componente de la métrica se hace infinita, lo cuál se pensó al principio que representaba una singularidad. Sin embargo pronto se vió que ese valor infinito se debía a una mala elección de coordenadas y que con otras coordenadas tanto la métrica, como la curvatura (o cualquier otra cantidad física) toman valores finitos. En el caso particular de la solución de Schwarschild hay una singularidad auténtica en el centro del agujero negro. Y existe una conjetura que sostiene que no puede haber una singularidad que no este oculta por un horizonte de sucesos (hipótesis d ela censura cósmica). Pero sigue siendo una hipótesis y la definición de agujero negro se hace en función del horizonte de sucesos, no de la singularidad.

Falso: En un agujero negro dejan de tener sentido las leyes físicas tal y como las conocemos. Es un objeto estelar en donde la materia está tan comprimida, es tan densa, como toda la masa de la Tierra apretujada en la cabeza de un alfiler

Verdadero: Un agujero negro no tiene porque ser necesariamente denso. En el caso de la tierra si sería ese el caso, pues el radio de Scharschild de la tierra es algo asi como el de un guisante o una pelota de tenis (pero no la cabeza de un alfiler, aunque vaya, ese es un error menos importante). Sin embargo, en agujeros negros supermasivos, como los que hay en los centros de las galaxias, tenemos que la densidad de los mismos es aproximadamente la del agua. Respecto a que la leyes de la física dejan de valer dentro del agujero negro, pués tampoco es así, en funcion de los modelos matemáticos que describen dichos agujeros (obviamente nadie ha estado dentro de uno y ha corroborado la teoría, y mucho menos aún nos ha hehco llegar su corroboracion xD. Lo mas llamativo que pasa dentro del agujero negro es que el radio se comporta cómo una coordenada temporal y sólo se puede avanzar hacia radios decrecientes, del mismo modo que sólo se puede avanzar hacia adelante en el tiempo. Esto hace que las partículas termine en la singularidad central (hablo de agujeros tipo schwarschild, para otros es algo masa complejo). Esa singularidad si plantea un problema serio que se supone sólo una teoría cuántica de la gravedad debería responder (deheco hay propuestas posibles sobre cual seria la solución, pero eso es otro asunto).

Inexacto: En las proximidades del llamado horizonte de sucesos del agujero, el lugar donde la materia, tal como la conocemos, conoce el último estadio antes de ser engullida, la distorsión del espacio y del tiempo es de tal calibre que una nave espacial que se encontrara allí la veríamos como suspendida, quieta, en reposo mientras que los tripulantes de la misma estarían experimentando una caída a gran velocidad hacia el abismo negro. Su tiempo y el nuestro quedan disociados debido al desmesurado efecto de la gravedad en las proximidades del agujero. El espacio queda también terriblemente distorsionado por un efecto brutal de marea: a pequeñas distancias la fuerza de atracción es extremadamente variable, de modo que una barra de hierro se estiraría como un chicle.

Verdadero: Cierto es que la dilatación relativista del tiempo en la vecindad del horizonte de sucesos hace que un observador externo vea la nave suspendida al borde del agujero de manera indefinida, es decir, nunca llega a entrar. Sin embargo desde el punto de vista del observador de la nave no ocurre tal cosa y atraviesa el horizonte en un tiempo bastante breve. Y no tiene porque notar nada especial al atravesar el horizonte. El efecto de marea que comenta Salva depende del tamaño del agujero negro. En un agujero negro estelar dicho efecto si sería fatal para un humano. Pero un agujero negro supermasivo no tendria ningún efecto de marea apreciable. Por cierto, por si alguien lo ignora, el efecto marea, en este contexto, es la diferencia de la fuerza gravitacional entre dos puntos. En la tierra hay una fuerza mayor tirando de los pies que de la cabeza de una persona en posición vertical (de pie). Es tan mínima que resulta totalmente imperceptible. En un agujero negro estelar, y cerca de su horizonte de sucesos, sin embargo sería lo bastante fuerte para que los pies cayeran mas rápido que la cabeza hacia el agujero rompiendo el cuerpo en el proceso.

Falso: Allí prolifera la llamada materia exótica capaz de desencadenar una especie de minúsculos túneles en el espacio tiempo que son no menos interesantes que los agujeros negros.

Verdadero: Esos túneles en el espacio-tiempo, wormholes, de los que habla están relacionados con los agujeros negros y con la materia exótica. Pero en contextos distintos. Existe una ampliación de la solución de Schwarschild (una solución a las ecuaciones de Einstein de vacío, es decir, sin materia presente) en las que se tiene un agujero negro asociado a un agujero blanco. Y se puede llegar a tener un puente entre ambos que podría pensarse como un agujero de gusano (wormhole). Pero sería uno no transitable. Y además, no se ha concebido ningún medio por el cual un proceso físico pueda dar lugar a algo similar a la extensión de Kruskal. Los agujeros negros astronómicos responderían a al de Schwarschild y no habría agujero de gusano. Por otro lado un agujero de gusano transitable podría, y normalmente debería, hacerse con materia exótica (materia con energía negativa, por decirlo de algún modo, técnicamente NEC, null energy condition, en alguna de sus múltiples y sutiles variantes). El caso es que la existencia de esos agujeros de gusano no tienen ninguna conexión con la de los agujeros negros. Siendo muy generoso señalar que había un artículo que demostrara que un agujero negro cargado frente a algún campo gauge no lineal podría tener en su entorno, en virtud a algún tipo de efecto Casimir, si mal no recuerdo, algo de materia exótica. Pero difícilmente es concebible que a partir de materia cuya carga para cualquier campo gauge es nula en promedio vaya a tener una carga neta no nula. Realmente no sé de dónde habrá sacado Salva esa idea (he leido todos los que menciona en la bibliografia y ninguno afirma exactamente eso, ni siquiera el de Kakuy que es el mas “aventurado”), pero salvo que aporte una explicación muy concreta del origen de esa materia exótica, se debe entender como una afirmación totalmente erronea.

……………………………………………………………………………….

A propósito de la creación de agujeros negros en el LHC y su presunta peligrosidad:

Inexacto: Ver lo que opinaba Hawkings hace 20 años y lo que piensa ahora sobre si los agujeros negros pueden emitir radiación…..Sthephen Hawkings fue de los primeros en defender que el cosmos tenía que estar lleno de agujeros negros, tal y como se desprendía de la Teoria de la Relatividad.
Sthephen Hawkings creía que todo lo que llegaba a un agujero negro se destruía hasta que en 1974 descubrió que los agujeros negros pueden perder masa a través de la emisión de una radiación por los polos.
Después, y a pesar de su rotunda negativa a creerlo, y a pesar del trabajo de ciertos rusos, insistió en que no salía nada más de un agujero negro hasta que tuvo que admitir en 2004 que si.
En un gesto que le honra dijo que se había equivocado y que en el horizonte de sucesos de un agujero negro hay una serie de fluctuaciones quánticas que permiten que escape también información quántica.
No solo se han hecho fotografías de Rayos X de agujeros negros tragándose materia (confirmando a priori la existencia de los agujeros negros), sino que incluso se han hecho fotografías de extraños chorros en direcciones opuestas de lugares donde podría haber agujeros negros, que parecen confirmar la radiación de Hawkings.
Por otro lado resulta que no en todos los agujeros negros se dan estas circunstancias, lo cual viene a decir que pudiera haber varios tipos distintos de agujeros.
También la existencia de planetas extra solares del tamaño de 5 Jupiters que dieran la órbita a una estrella en solo cinco días, se creía imposible, y ahora a correr que hay que cambiar toda la teoría de formación de planetas, porque casi todos los que encuentran son así.
También el vacío estaba vacío hasta que se dedujo teóricamente que esta lleno de energía residual: la energía del punto cero.
Se acusa a la teoría de cuerdas de ser un modelo matemático pero no se dice que en el modelo clásico del Big Bang se basa en la superinflación, otro modelo matemático realizado para que las cosas concuerden.
La mecánica cuántica se basa en el principio de incertidumbre de Heisemberg por la cual ya no podemos tener un conocimiento real a través de la investigación, porque nuestra investigación afecta a los resultados, con lo que se pasó a trabajar con probabilidades.
Todo lo que sabemos de física teórica de partículas se basa en probabilidades, el LHG se basa en probabilidades, ¿y eso es no es como jugar en el casino, o a la ruleta con un revolver?
No creo que vaya a petar todo, se supone que saben lo que se hacen pero tambien se dice que hay algunos científicos rusos que no están muy deacuerdo con el LHG: ¿Algún reputado físico puede aclarar porque no va a petar todo con una seguridad del 100 % de posibilidades? ¿O quizá es mejor tirar la bomba a ver que pasa?

Verdadero: Hawking , cómo casi todo el mundo antes de 1974 creía que los agujeros negros no emitían. Sin embargo fue le mismo, junto a J.M Bardeen, el que probó las 4 leyes de los agujeros negros, que tomaban la misma forma que las 3 leyes (cuatro con la ley 0) de la termodinámica, con el área del agujero negro jugando el papel de la entropía. Esta entropía es conocida cómo entropia de Benkenstein (pues por lo visto de manera menos rigurosa había llegado a los mismos resultados).

esa similitud formal no se pensaba que fuese más que eso, al fin y al cabo eran leyes deducida a partir de consideraciones geométricas y de las ecuaciones de Einstein. No obstante invitaban a plantearse si un agujero negro podía tener una temperatura. Clásicamente tal cosa es imposible pero el propio Hawkings demostró, como dije antes, que por un efecto cuántico los agujeros negros podían radiar. Intuitivamente la idea es simple. Debida a la indterminación tiempo-energía puede formarse(usando ea energía del agujero negro) un par partícula-anti partícula. Si una de las partículas del par cae dentro del agujero negro la otra partícula del par virtual puede hacerse real. Esta partícula, al hacerse “real” se lleva la mitad de la ener´gia que usó el agujero negro para crear el par. Con esto tenemos que el agujero negro emite, y pierde energia en el proceso. Además la temperatura de emision depende del inverso del la mas del agujero con lo cuál es un proceso que se acelera a si mismo llevandoa que un agujero negro pequeño se desintegre bastante rápido.

Esto es lo que probó hawkigs en el 74, y nunca renegó de ello. Por cierto, la radiación es térmica, en perfecto acuerdo con las leyes de la entropia. Y se emite de manera uniforme (al menos para un agujero tipo Schwarschild, no sé si para otros pero creo que también) a lo largo de todo el horizonte de sucesos, no sólo por los polos. El chorro ese del que tu hablas tiene una naturaleza completamente diferente. Proviene de materia acretada hacia el agujero negro por la gravedad del mismo. Debido al giro de un agujero parte de la materia cae, pero otra parte es expelida por los polos a altísimas velocidades. Es un fenómeno puramente clásico y no tiene nada que ver con la radiación hawking. La radiación con la que se observan los agujeros negros tampoco es radiación hawkings. Es radiación que proviene igualmente de la materia que cae al agujero negro al chocar entre sí los átomos de la misma. La radiación hawkings, como dije, aún no ha sido observada pues para un agujero negro de origen estelar, o mayor, la temperatura de esa radiación es casi 0 (y en particular inferior al fondo de microondas).

EL problema de Hawkings nunca fué dudar de la existencia de esa radiación, El problema planteado es que esa radiación, al provenir de partículas de un par están entrelazadas con la partícula que cayo en el agujero negro. Por tanto debe describirse ocn lo que técnicamente se conoce como matriz densidad en vez de cómo estados cuánticos puros. Además en última instancia esas partículas se crean a partir de la energía de las partículas que cayeron al agujero negro. Si el agujero negro fuese terno no habría problema se podría pensar que la información de las partículas que caen al agujero negro sigue allí, sólo que no accesible. Pero si se desintegra dicho agujero queda la cuestión de que ha sido de esa información, ya uqe, después de todo, la radiación hawkings, como dije antes, es puramente térmica, es decir no tiene ninguna información.

Todo esto viene a decir que la mecánica cuántica tendría una evolución no unitaria en presencia de agujeros negros. Y se supone que la cuántica tiene la unitariedad cómo uno de sus pilares. Sea co fuer Hawkings abogaba porque realmente la ucántica perdía su unitariedad. Y lo sostuvo hasta el 2004. Es eso, y no la existencia de dicha radiación, lo que Hawkings había venido discutiendo.

Las otras cosas que mencionas son aparte. Si, lo de los planetas extrasolares gigantes es como dice. Lo de la energía del punto cero no es así.Los cálculos arrojan que debería existir esa energia, pero no se observa. Si, hay una constante cosmológica, pero es muchísimo menor que la que correspondería al cálculo de “energía del punto 0”, que mencionas. Digamos que es un punto abierto, en particular lo de la constante cosmologica trae de cabeza a los ´físicos de cuerdas y la solución basada en el “landscape” no es la cosa más elegante del mundo, pero bueno, ahí se anda con ello.

En cualquier caso sino me dices más que la ciencia comete errores eso ya se sabe. Pero catastrofismos sin una base seria no deben ser la primordial preocupación. En su momento se pensaba que una fusión nuclear, en una bomba de fusión, podría propagarse a todo el hidrógeno de la atmósfera, pero no ha sido así (la verdad es uqe no sé como alguien pudo pensar eso, así, a priori, me parece una tontería como una catedral, pero vaya).

Pregunta: ver si hay alguien de físicas que pueda contestar a esta pregunta, porque por más que he buscado información, no encuentro nada.

Hasta donde sabemos, un agujero negro es una región del espacio en la cual el campo gravitatorio es tan potente que la velocidad de escape es mayor que la velocidad de la luz.

Sin embargo, detectamos los agujeros negros porque son una fuente muy potente de emisión de rayos X.

Mi pregunta es esta: ¿Por qué esos rayos X que detectamos consiguen escapar del campo gravitatorio del agujero negro hasta más allá de su horizonte de sucesos?

Por favor, si hay alguien de físicas que conteste. Esta es una pregunta que llevo haciéndome mucho tiempo y no encuentro respuestas.
Respuesta: Es muy sencillo. Lo que emite esa radiación X (o gamma)no es el agujero negro en sí. Proviene de la materia, gas principalmente, que esta cayendo hacia el agujero negro. Allí las fuerzas de marea y otros fenomenos de origen gravitatorio comprimen y calientan muchísimo esa materia, que cómo respuesta emite esos rayos X (radiación electromagnética en un longitud de onda mucho mas corta que la luz). Por supuesto todo eso sucede fuera del horizonte de sucesos. así que no hay ninguna inconsistencia con la física clásica (la relatividad general).

Ahora bien, cuando se dice que los agujeros negros emiten normalmente uno piensa en algo distinto a la emisión de la materia que cae al agujero negro. Existe la radiación de Hawkings. Ahí, a causa de un fenómeno cuántico, sí es el propio agujero negro el que emite radiaccion (perdiendo, en consecuencia, masa). El ritmo Y la temperatura promedio) de emisión es inversamente proporcional a la masa. Para agujeros negros de tamaño estelar este ritmo es despreciable y la temperatura muy cercana al 0 absoluto (-273 0º C). Se supone que al inicio del universo podrían haberse formado, por mera compresión de la materia, durante las primeras fases del big-bang, micro agujeros negros con masas muy pequeñas (digamos del orden de la de una montaña, o menos). Si no estuvieran cerca de nada de lo que adquirir materia habría transcurrido tiempo suficiente para que perdieran toda su masa. En la etapa final, dónde su masa es muy pequeña, la temperatura de la radiación de Hawkings sería muy elevada y el final de dicho agujero se traduciría en una explosión de rayos X primero, y después rayos gamma (y radiaciones aún mas energéticas en las últimas etapas). No hay evidencia experimental de este tipo de explosiones de micro agujeros negros y toda la evidencia experimental de radiación de agujeros negros proviene del caso anterior, dónde la responsable es la materia que cae y no el agujero negro en sí.