Archive for 17 octubre 2008

Aviso sobre el antispam

octubre 17, 2008

Los blogs de worpress vienen equipados, lo quiera uno o no, con un sistema de antispam, akismet.

En principio eso parece una ventaja, ya que supuestamente el volumen de spam en un blog es grande. Bien, asumiendo por el momento que eso es así uno podría aceptar que le obligaran a soportar la activación del akismet ese. Además se supone que si haya un falso spam este pasa a una cola de revisión dónde uno puede rescatarlo.

Pués bien, no es así. Harto de ver que el bichejo ese me avisaba de que había X comentarios de spam bloqueados y que no podía acceder a ellos he hecho una busqueda y resulta que es un problema bastante frecuente de muchos usuarios de wordpress. A algunos incluso les marca como spam comentarios que ellos mismos hacen en su propio blog.

La resupuesta del equipo de wordpress/askimet ante estas protestas es decir “el spam es malo”. Y han cerrados los hilos en su foro de ayuda sobre ese respecto.

El cso es que yo aparte de este blog he manejado el sistema de livejournal y el de blogspot, admitiendo en ambos los comentarios anónimos. Debo decir que el spam que llega a esos sitios es practicamente nulo y no se me ocurre ningún buen motivo por el que en wordpress la cosa sea distinta. Por otro lado tengo buenos motivos para pensar que algunos de los mensajes que estan en esa cola de spam a la que no puedo llegar son comentarios interesantes hechos por algunaa gente conocida. Sin embrgo no puedo, como digo, verificarlo.

Total, que me parece bastante absurda la postura de wordpress. Si abrí este blog, teniendo ya uno en blogspot, fué por dos mtivos. De un lado tener una línea de posts mas abierta que en ese blog (que se centra en gravitación cuántica, en cualquiera de sus versiones: teoria de cuerdas, LQG, etc). El otro motivo fué que wordpress tiene incorporado LaTeX de serie para poder escribir fórmulas matemáticas en los posts mientras que en blogspot debo usar un servidor externo idependiente, con todos los riesgos e incomodidades que eso conlleva. Otro aspecto intersante de worpress que no he visto en blogger, es que permite ver las estadísticas de acceso al blog, accesos totales, accesos por entradas, links por los que se llega al blog, cadenas de búsqueda para gente que viene desde buscadores, etc.

Total, que, problemillas menores aparte, wordpress parece un sistema superior a blogspot. Pero el problema del antispam es criminal. Si no se resolviera pronto probablemente terminaré por cerrar este blog llevándome las entradas a algún otro servicio.

Si alguien me ha en enviado comentarios y no los ha visto aparecer una forma en que puede hacérmelo saber es registrándose en alguno de los foros que aparecen en la sección de links y enviándome un privado (soy Halcyon en sédice y Sauron en el foro de migui y en physic phorums). O también puede probar a dejarme comentarios sobre este blog en el otro, el de blogspot, que también aparece en la sección de links.

Aplicaciones de la física teórica

octubre 15, 2008

A raiz de una discusion en el foro de sédice he comprobaado que mucha gente no tiene nada clara la utilidad de la investigacion en física teórica de cara a la vida cotidiana. Intentaré en este post mostrar algunoas de estas relaciones entre teoria y práctica.

Supongo que si alguien se lee “el universo elegante” o cualquier buen libro de divulgacion de física teórica, incluso si lo entiende de una manera minimamente apropiada, no va a tener sencillo hilar la relación entre eso y la ciencia aplicada. Por supuesto no es un fallo del libro, ya que no es su propósito. Se supone que si alguien quiere aprender esas relaciones debe buscar otras fuentes. Voy a dar algunas nociones que puedan situar un poco mejor esos aspectos.

Empiezo por algo elemental, la mecánica cuántica no relativista. Bien, eso es física teórica de principios de siglo (la ec. de Schröedinger es de 1925. Casi todas las aplicaciones de ciencia moderna (física, electrónica, óptica,química, genética, medicina etc, etc, etc) recaen en el modelo atómico que describe esa ecuación. Pero eso es muy antiguo. Avancemos un poco. Tras la cuántica no relativista tenemos dos líneas de avance. Establecer uan teoria cuántica compatible con la teoria especial de la relatividad y explicar en que consiste y como funciona el nucleo atómico. Para invetigar esas cosas hacen falta dos cosas, construir aceleradores de partículas y construir modelos fisico-matemáticos que expliquen las observaciones.

La línea de investigación en física nuclear claramente tiene aplicacione prácticas. La mas llamativa es la energía nuclear (sea en forma pacífica o militar). Pero dese luego no es la única aplicación. Tenemos una gran cantidad de aplicaciones de física nuclear en medicina. Tanto en terapias contra el cancer como en técnicas de exploración. La más espectacular de estas últimas es la RMN (resonancia magnética nuclear), pero otras apicaciones mas mundanas como los rayos X también dependen de la física nuclear. Es necesario precisar que hacen falta conocer detalles bastante finos de la estructura nuclear para poder establecer adecuadamente resultados en estas áreas. Esos detalles requirieron construir aceleradores que permitieron descubrir todo el batiburrillo de particulas nucleares existentes. Si bien es cierto que el núcleo consta de protones y neutrones y que eso parece fácil de entender la verdad es que no es así en absoluto. Fuè necesiario constrir aceleradores que crearan otra serie de partículas nucleares, y que llevaran a los nucleos a situaciones inestables para poder entender adecuadamente el funcionamiento de los núcleos en su estado “normal”. Y por supuesto los modelos matemáticos implicados. Sin todo ese trabajo, que desde luego requirió la construcción de aceleradores de partículas, no existiría el compendiun teórico que permite las aplicaciones actuales de la fisica nuclear.

Vamos ahora con la parte cuyas aplicaciones son mas dificles de descubrir, la teoria cuántica relativista, mas conocida en su versioin moderna como teoria cuántica de campos.

Quien haya leido divulgación probablemente haya oido hablar de cosas cómo la ecuación de Dirac, las antipartículas y cosas así. Y puede pensar que es muy bonito, pero que “no sirve para nada”. En realidad de la ecuación de Dirac, y de su generaización, la electrodinámica cuántica cuántica, surge una teoira coherente sobre todos los fenómenos electromagnéticos. Esto permite explicar fenómenos que la teoria cuántica no relativista no explica. Digamos que en última instancia casi toda la ciencia aplicada basda en el electromagnetismo (la mayoria) recae en última instancia en la electrodinámica cuántica. Recomiendo la lectura del libro de Feynman sobre este tema dónde explica de manera ejemplar todas estas relacciones.

Pero no acaba ahí la cosa, ni mcho meos. La teoria cuántica de campos no sólo sirve para física fundamental. Es el lenguaje matemático, y el marco formal y conceptual, para casi toda la física aplicada. El nombre “teoría cuántica de campos” hace referencia a que se esta cuantizando un campo (por ejemplo el electromagnético) en lugar de una partícula. Este campo puede ser relativista o no. En el caso del campo electromangético estamos obligados a un tratamiento relativista pués el fotón, al ir a la velocidad de la luz, no admite otro tratamiento. Hay una versión con un formalismo mas sencillo del campo electromagnético en el que no es transparente su relación con la electrodinámica cuántica. Es lo que se suele conocer com “teoria cuántica de la radiacion” Si bien puede enseñarse esta asignatura sin concer la ecuacion de Dirac y la QED no se habría podido crear una sin la otra. La teoria cuántica de la radiación es el marco formal en el que se investiga toda la óptica moderna, incluyendo láseres, fibra óptica, optrónica, etc, etc.

Pero sigue sin acabar ahí la cosa, apenas hemos empezadoa a arañar la superficie. Vamos a pasar a física de estado sólido (o física de la materia condensada). Aparte de estudiar átomos aislados interesa describir agrupaciones de átomos. Cuando esos se agrupan formando un sólido entra en juego este tipo de física. Por interés práctico se suele plantear como prioridad expliar las propieades eléctricas y magnéticas de los sólidos, y, en particular, los metales. Los metales suelen presentarse formando redes cristalinas. Es decir, los núcleos de dichos átomos estan posicionados en una serie de posiciones periódicas que se puede describir por una malla, o red. Y los electrones pueden circular de un átomo a otro. Interesa explicar la resistencia eléctrica. Los modelos clásicos son eso, clásicos, y no permiten ir muy lejos y hacer prediciones sobre las conductvidades. Es imprecindible hacer modelos cuánticos. Estos se basan en la ecuación de Schröedinger. Esto se suele estudiar en cuarto de físicas y no sé hasta que punto existen tratamientos simplificados que pueda comprender un ingeniero sin conocimientos formales en mecánica cuántica. En todo caso hay un hecho curioso, si consideramos una red crsitalina pura tenemos que los materiales conducirian sin resistencia alguna la electricidad. Para explicar la conductividad es necesario introducir impurezas en la red. En principio esto no parece guardar relacion con la teoria cuántica de campos. Vamos con ello.

En una red ideal los nucleos estan quietos. Pero la cuántica nos dice que un nucleo no puede estar quieto, siempre debe presentar una oscilación,. Bien, basándose en los desarrolllos formles de la teoríca cuántica de campos se introdujo el concepto de fonón para describir las oscilaciones de los nucleos respecto a sus posiciones de equilibrio. Formalmente los fonones son muy similares a los fotones. El caso es que hay un gran montón de fenómenos que requieren el uso de fonones. Contribuyen a la conductividad eléctrica del material, explican el calor específico del mismo (cantidad de energia necearia para elevar un grado la temperatura del material). Sin considerar los fonones, fijándose sólo en los electrones, esta sería lineal en la temperatura, T, los fonones explican un factor T^3. No soy un experto en materia cndensada, pero si conozco otro aspecto en que los fonones son básicos y que supongo que a todo el mundo le suena, la superconductividad. Bien, la teoria BCS (Bardeen-Cooper-Schäefer) que explica la superconductiidad ordinaria se basa en los fonones, y, de hecho, en una aplicación bastante a fondo. Si no hubiese existido el formalismo de la teoria cuántica de campos creado para explicar la fisica fundamental no existiría la teoria BCS, ni, como seguiré viendo, muchisimos más avances en física de etado sólido.

Pero antes una pausa, decir que la mecánica estadística surge de la teoria cuántica de campos es incorrecto. Existe una mecánica estadística clásica que explia los gases ideales y fundamenta la termodinámica. Al introducir la cuántica surgió la mecáncia estadística cuántica. En cuántica existen dos tipos de partículas, bosones (espin par) y fermiones (espin impar). Cada uno requiere su propia descripcion estadísitica (estadísticas de bose Einstein y fermi-dirac, respectivamente). No deja de ser relevante que los papis de la relatividad y de la teoría cuántica relativista esten ahí metidos. En particular cosas como el nivel de Fermi son de importancia capital a la hora de entender el funcinamiento de los dispositivos semiconductores (diodos y transistores, que son la base de la electrónica moderna). Señalaría otro dato. Para explicar los semiconductorres se utilza el “modelo de huecos” que, formalmente, guarda muchas analogias con las antipartículas. Posiblemente se hubiese podido crear ese modelo de huecos sin conocer las antiprtículas y la primitiva explicación de Dirac de las mismas (el “mar de Dirac”, que fué rapiamente sustituida por una explicacion más coherente en términos de teoría cuantica de campos) pero el caso es que historicamente ese fué el camino.

Otro aspecto dónde la teoria cuántica de campos se entremezcla con la materia condensada es en la teoria de Wilson del grupo de renormalización, y el uso de este para entender la fisica de los cambios de fase (un cambio de fase es cuando la materia pasa de sólido a líquido, de líquido a gas, etc). Antes de Wilson los cambios de fase se estudiaban por teorias de campo medio, la mas conocida de ellas la teoria de Ginzburg-Landau. Sin embargo estas teorias de campo medio, aunque útiles, no permitían dar una descripción cuantitativamente correcta, y tampoco cualtitativamente en última instancia, de los cambios de fase. Explicar estas cosas en detalle es complicado. Explicaré que es la renormalización aparece en teoria cuántica de campos del siguiente modo. Las teorias en interacción se deben resolver perturbativamente. A orden 0 (tree level) de perturbaciones no hay problemas, pero, normalmente, a primer orden (one loop) las cantiades calculadas de manera simple dan resultados infinitos. En algunas teorias esos infinitos pueden evitarse de una manera consistente (que permita que la teoria siga siendo predictiva) redefiniendo una serie de valores de la teoria (renormalizaándolos, de ahí el nombre). Feynman, Tomonawa y Schwinwer compartieron un nobel a mediados del siglo XX por diseñar esas técnicas de renormalización, que posteriormente serían refinadas. En los 70 un fisico de partículas, Kenneth Wilson,interesado en la por entonces recien nacida física de quarks (constituyentes fundamentales de las particulas nucleares como el protón y el neutrón) llegó a trabajar, por diversos motivos, en temas de materia condensada, y aplicó la teoria de renomalización de la teoria cuántica de cmpos a los cambos de fase. Resula que la materia en la proximidad de un cambio de fase puede describirse por una teoria cuántica de campos. Justo a la temperatura del cambio de fase (o si conviven varias fases en la temperatura crítica) cooperan fenomenos a todas las escalas. La física es la misma a todas las escalas. Un cambio de escala es “renormalizar” la longitud, de ahi que sirva el grupo de renormalizacion. Posteriormente se ha mejorado esto. Para el caso bidimensional, en términos de teorias de campos conformes. Ahí ya entra la teoria de cuerdas, que es una teoria conforme, y que, durante unos años, propició muchos desarrollos teóricos en teorias conformes. Muy recientemetne un desarrollo formal de la teoria de cuerdas, la conjetura de Maldacena, ha dejado indicios de que posiblemente permita estudiar teorias conformes en tres dimensiones.

Posiblemente esto pueda parecer, de nuevo, desconectado de la práctica. Falsa impresión. Aparte del cambio líquido-gas-sóido, hay muchos otros fenómenos que son transiciones de fase. Uno, de importancia capital, es la magnetizacion de un material. Para empezar a estudiar esto se usa el modelo de Ising. Este modelo puede resolverse explicitamente, con computers, pero es mucho mas interesante, y se aprende mucho mas, analizándolo con el grupo de renormalización. Digamos que no son concebibles avances serios en el estudio de las propiedades magnéticas de la materia sin concoer el grupo de renormalización. No soy experto en el tema, pero sé que las aplicaciones del grupo de renormalización en materia condensada son muchisimas. Por cierto, la transicion de un material de un etado de conduccion normal a uno de superconduccion también es una transicion de fase.

Otros aspecto de relación de la materia condensada y la física teórica es la teoria de las rupturas de la simetría. Ahí tenemos un camino de dos direcciones. Por desgracia de la parte de materia condensada no sé mucho, pero sí sé que juega un papel relevante.

En fin que todos los avancce en física de materiales recaen muchas veces en el aparato teórico de la teória cuántica de campos que explica las interacciones fundamentales. Sin haberse desarrolldo este aparato la física de materia condensada sería mucho mas primitiva.

Volvamos al aspecto menos teórico, los aceleradores en sí. Resulta que los aceleradores de partículas tienen utilidad práctica. Tal vez algunos hayais oido hablar de que en Cataluña se esta construyendo un sincrotrón, el sincrotón ALBA. Este es un acelerador de partículas de mediana energía. Mediana en comparación con el LHC, pero en tiempos con esa energiá se hicieron descubrimientos de física fundamental. La tecnologia para dearrollar esos aceleradores se creó especificamente para estudiar fisica fundamental. Pués bien, esa tecnologia ahora se utiiza para que esos aceleradores de energía mediana se usen en estudios prácticos de fisica de materiales, cristalografia de proteinas y un motón más de cosas puramente prácticas de las cuales no sé apenas. De no haber existido la tecnologia de aceleradores dearrollada para la física fundamental nadie se plantearia dearrollarla para estas aplicaciones prácticas.

Y, desde luego, el LHC, no es ajeno a este interplay. En aspectos meramente tecnológicos el LHC es un reto. Se han tenido que hacer dearrollos en teoria de superconductores, utilzados para generar los campos magnéticos que aceleran las partículas, que no se hubieran afrontado de ninguna otra manera (ninguna empresa se podria haber permitido pagarlos). El software encargado de analizar los datos recogidos (por no hablar de la tecnologia de los detectores) es el “state of the art” de muchas técnicas informáticas que poco a poco irán aterrizando en el mundo de a pie. Y hay muchas mas aplicaciones prácticas de la tecnologia del LCH que no se hubiesen dearrollado sin ese proyecto y que irán abriéndose hueco poco a poco.

Y, ya para concluir, decir, como afirman gratuitamente algunos que el bosón de Higgs (posiblemente el principal objetivo del LHC) es sólo otro bosón, es un sinsentido. Ese bosón es una pieza absolutamente clave en el modelo standard de partícuas. Si no existiera (podria existir y no detectarlo el LHC) debería revisarse a fondo dicho modelo. Incluso si existe, pero no lo detecta el LHC tendrían que hacerse modificaciones bastante importantes a algunos aspectos del modelo standard.

Esto respecto al pasado. Pensar que no pueda haber aplicacioines de la física de partículas mas recientes a aspectos prácticos es muy improbable (de hecho varios aspectos de las teorias propuestas, caso de confirmarse) tendrían posibildades claras de generar aplicaciones, pero dejo eso para otra ocasión.

La termodinámica de la vida

octubre 4, 2008

De Sagan, Dorion ; Schneider, Eric D.

Supongo que a mucha gente le sonará el apellido Sagan por el famoso documental “Cosmos” y su autor, Carl Sagan. Decir que Dorion es, efectivamente, el hijo de Carl Sagan. Y, debería añadir, de Lyn Margullis, esposa de Sagan en vida y famosa bióloga ella misma autora de una controvertida teoria sobre algunos aspectos de la evolución. Con tan ilustres progenitores esperemos que haya heredado los genes “buenos” de ambos. De momento sé que, aparte del libro en que se centra este post, ha escrito al menos una novela de C.F. con lo cuál parece que intenta seguir el camino de ambos, ya se verá con que éxito. Del otro autor me temo que no puedo decir casi nada pués no tenía conocimiento previo de él.

Pero vamos con el libro. Esta editado por Busquet editores, en la colección metatemas. Cómo muchos, no todos, otros libros de esa editorial es plenamente divulgativo (traducido, sin fórmulas matemáticas). En este post más me centraré, principalmente, en dar esa parte formal, para dejar mas claros algunos puntos del libro a los lectores que tengan esa base física/matemática (si bien los requisitos no son excesivos y confio que mucha gente pueda seguirlos, en el post sobre mecánica cuántica que puse en el blog introduzco desde practicamente 0 muchos de los conceptos matemáticos que uso). La idea generl del libro es analizar cómo la famosa 2º ley de la termodinámica, el incremento de la entropía, puede ser compatible con la vida. En los primeros capítulos establece el problema. Emiezan con un prolegónemo explicando com los autores empezaron a trabajar en ese campo a raíz de su experiencia profesional en la gestión de ecosistemas, y cómo carecan de heramientas´conceptuales y matemáticas que permitieran evaluar la salud de un ecosistema. De ahí saltan a hablar de un célebre libro de Schröedinger, el autor de la formulación ondulatoria de la mecánica cuántica, titulado “¿que es la vida?”. Ese libro fué pionero en introducir una serie de coneptos. Uno de esos cnceptos se cristalizó en el descubrimiento de Watson y Cricket de la molécula de ADN. En el último capítulo de ese libro Scröedinger planteaba ya el problema de cómo la vida podia ser compatible con la termodinámica. Bien, paso ya a exponer cuál es el problema, para quien no conozca la termodinámica clásica le recomiendo que, cuanto menos, se lea la entrada de wikipedia. A modo de resumen decir que estas son las leyes de la termodinámica:

1ª ley (conservación de la energía): Q= \Delta U + W (El flujo de calor la energía necesaria que debe intercambiar el sistema para compensar las diferencias entre trabajo y energía interna.)

2ª ley (En un sistema cerrado, ningún proceso puede ocurrir sin que de él resulte un incremento de la entropía total del sistema): dS/dt\ge 0 LA magnitud S , en termodinámica, se define a paartir del cambio de su valor entre dos estados del sistema, que tien la exprsión \Delta S=\int dQ/T . Si uno establece un valor de referencia de S para un estado tiene el valor en cualquier otro estado.

Esta ley admite otros enunciados:

Enunciado de Clausius
No es posible ningún proceso cuyo único resultado sea la extracción de calor de un recipiente a una cierta temperatura y la absorción de una cantidad igual de calor por un recipiente a temperatura más elevada.
Enunciado de Kelvin
No existe ningún dispositivo que, operando por ciclos, absorba calor de una única fuente y lo convierta íntegramente en trabajo

Realmente esta son las dos mas importantes, por completitud añadiré las dos que faltan:

3ª ley: * Al llegar al cero absoluto (0 K) cualquier proceso de un sistema se detiene.
* Al llegar al 0 absoluto (0 K) la entropía alcanza un valor constante (esto sirve para fiajr el valor de la entropia, que es algo que la 2ª ley no hace).

Ley 0: El equilibrio termodinámico de un sistema se define como la condición del mismo en el cual las variables empíricas usadas para definir un estado del sistema (presión, volumen, campo eléctrico, polarización, magnetización, tensión lineal, tensión superficial, entre otras) no son dependientes del tiempo.

Ciertamente si el lector de este post no conoce la termodinámica simplemente por enunciar estas leyes no puedo esperar que vaya a poder apreciar las sutilezas implicadas. Leer el artíclo de wikipedia que linké al principio, y los links que allí vienen a las páginas que analizan cada ley por separado, le ayudará algo. Leer el libro del que habla este post le ayudará bastante más. En la primera parte hacen un analisis histórico muy bueno de cómo se fueron introduciendo estas leyes y cómo entenderlas. Realmente recomiendo su lectura incluso a licenciados en física aa los que puede haberles sucedido lo que a mí, es decir, no termiar de ver la relevancia última de estas leyes (con buen motivo, cómo iré dejando claro, espero, a lo largo de este post).

En el libro empiezan dejando muy clarito que estas leyes clásicas de la termodinámica describen adecuadamente una serie de casos físicos muy particular, los sistemas cerrados en equilibro termodinámico. Explico el significado:

Un sistema se dice que es cerrado cuando no puede intercambiar materia con el entorno (un concepto relacionado, que cito por completitud, es el de sistema aislado, que es aque que no puede intercambiar materia, pero si energía, con el entorno).
Un sistema se dice que esta en equilibro termodinámico cuando todas sus partes estan en las mismas condicines y no hay evolución macroscópica. Por el principio 0 esto viene a significar que el sistema esta a una temperatura igual en todos sus puntos.

Una sutileza de estas definiciones es aclarar que es el entorno y que es el sistema. Esto, en última instancia, tiene un caracter experimental. Por ejemplo podemos hablar de el aire contenido dentro de un balón de futbol. Ese aire sería el sistema. El entorno del balón, a efectos de estudios termodinámicos, el aire de la atmosfera que rodea el balon. sería ael entorno. El balón sería un sistema cerrado, no puede entrar ni salir aire, pero no aislado, pués el cuero transmite la temperatura exterior al interior del balón (y viceversa). Si abriéramos la válvula del balón, dejando la posibilidad de que saliera aire (o entrara en el muy peculiar caso de que la presión fuera del balón fuese mayor que dentro) seriá un sistema abierto.

Bien, la termodinámica clásica se ocupa basicamente de sistemas cerrados. Y sólo nos informa de lo que pasa cuando, tras cambiar las condiciones, el sistema evoluciona a un nuevo estado de equilibrio termodinámico. No nos dice nada de la velocidad a la que el sistema alcanza el equilibrio termodinámico ni que sucede mientras. Ese es el proposito de la termodinámica del no equilibrio. Es sobre esa termodinámica del no equilibrio que trata el libro. Es menester señalar que, en la literatura, se habla también de “termodinámica de os sistemas abiertos” y de “termodinámica iireversible”. Voy a intentar clarificar un poco estos conceptos, y su relación, pués es muy importante para tener claro de que se habla e el libro, y en general, entender mejor de que habla la termodinámica.

En los cursos universitarios de termodinámica y mecánica estadística (que proporcina un substrato, mas general y potente, microscópico para entender la termodinámica) se habla de “ensembles”, i.e., conjuntos estadísticos y de “reservorios”. La idea es muy simple, se asume que el “exterior” es mucho mayr que el sistema estudiado. En el caso del balón asumimos que esta encerrdo en una gran habitación cuya atmosfera se mantiene a temperatura constante. Bien, en ese caso la habitacio sería un “reservorio de calor”. El balón, inicialmente a una temperatura distinta a la habitación, irá evolucinando hasta que este a la misma temperatura que esta. En realidad la habitacion también debería cambiar ligeramente su temperatura, pero asumimos que es lo bastante gande para despreciar ese cambio, ese es el concepto de “reservorio de calor”. Este es el estudio que se hace en termodinámica clasica.

En termodinámica del no equilibrio el análogo a esta situación podría ser algo como esto. Tenemos dos habitaciones, que mantenemos a dos temperaturas distintas, y ponemos el balón en un hueco entre ambas habitaciones. Ahora El extremo del balon en contacto con la habitacion 1 (H1) estará siempre a la temperatura de esta habitacion, T1, y el otro extremo estará siempre a la temperatura, T2, de la habitacion 2 (H2). Como ambas, H1 y H2 son reservorios se acepta que nunca podrán igualar su temperatura y por tanto el balón nunca podrá tener sus dos extremos a la misma temperatura. Como esto es la definición de equilibrio termodinámico esto significa que el balon nunca estará en equilibrio termodinámico y queda por tanto fuera del estudio de la termodinámica clasica. Si tuvieramos un balón con dos válvulas, y cada una estuviera en una de las habitaciones, el balón, además de calor, intercambiaria materia con las habitaciones (sería un sistema abierto). Es importante reseñar que un sistema abierto en general no va a estar en equilibrio termodinámico. Es por esto que se habla cómo equivalentes de sistemas abiertos y de termodinámica del no equilibrio. Introduzco aquí un concepto del que se habla constantemetne en el libro, el concepto de gradiente. Los dos extremos del balon van a estar a diferentes temperatturas, y entre medias diversos puntos del alon estarán a diversas temperatura. Es decir, la temperatura a lo largo del balón va a ser una funcion que va a depender de las coordenadas espaciales T(x,y,x). En matemáticas se introduce el concepto de gradienet para cualquier fución que tiene la expresión:

grad T(x,y,z)= (\partial T/\partial x, \partial T/\partial y, \partial T/\partial z)

Es decir, el gradiente de la funcion a a ser un vector cuyo valor va a depender de las coordenadas (osea, un campo vectorial). Su significado intuitivo es muy simple. El gradiente nos indica la direccion de máxima variacion de una cantidad. En ete caso sería un gradiente térmico.

Debo aclarar, no obstante, que no son sinónimos sistemas abiertos y sistemas de no equilibrio. Si consideramos un balón normal (con una sola válvula) en un única habitacion , podrá intercambiar aire con la atmosfera a través de la válvula, y ese intercambio podria, y debería, conducir al equilibrio termodinámico entre el interior del balon y la habitación. En el libro no son bastante claros a este respecto y uno tiene la impresión de que sistemas abiertos y sistemas en no equilibrio son concetos equivalentes, lo cuál no es cierto.

Muy relacionado es el concepto de procesos irreversibles. E la 2ª se ve que el incremento de entropia es siempre mayor o igual que 0. En los cursos de termodinámica se explica que el incremento de entropia siempre es mínimo cuando el proceso es cuasi estatico, es decir, cuando el so de un estado a otro del sistema se realiza en una serie de pasos infinitesimales cada uno de los cuales esta infinitamente cerca del equilibrio (i.e., con todas las partes del sistema a la misma temperatura, presion, etc). Cuando el sistema pasa de un estado a otro mediante un proceso cuasisestático se dice que el sistema ha seguido un camino reversible y que es posible, en principio, volverlo a situar en el estado inicial. Si no es así ha seguido un proceso irreversible. Un caso típico de proceso irreversible sería el siguiente, tenemos una cajaa separada mediante una pared en dos mitades, una llena de aire y otra sin aire. Si se quita de gole la pared obviamente se va a llenar toda la caja de aire, pero , también obviamente, no va a haber un equilibiro en los puntos intermedios del prceso. Es decir, los procesos irreversibles son procesos de no equilibrio y deben ser tratados mediante la termodinámica del no equilibrio.

Se plantea la cuestión de cómo tratar estos sistemas. He mencionado de refilón la mecánica estadística. En esta se analiza cómo surgen estas leyes termodinámicas (física macroscópica) a partir de leyes fisicas fundamentales (física microscópica).La idea es que en un sistema de muchas partículas, tipicamente el número de avogadro de partículas, pero puede ser una cantidad mucho menor) no tiene sentido preocuparse de estudiar (sea clasica o cuánticamente) las partículas una a una y hay que buscar magnitudes que describan el promedio. Estas son las magnitudes termodinámicas. Aparte de la temperatura (cuya interpretación en términos microscópicos, par ael caso del equlibrio, es S=ln W, dónde W es el número de estados de energia del sistema) y la entropia magnitudes de este tipo son la presión y el volumen, para el caso típico de los gases. En otros caso típicos tendríamos la magnetización y el campo magnético promedio. (notese la aprición de magnitudes “conjugadas”, cóm la presión y el volumen, la magnetización y el campo magnético. Las primeras son “intensivas”, no depnden del tamaño de la muestra, y las segundas sí. Además la variacio de una implia el cambi de la otra). Realmente saber cuales son las magnitudes termodinámicas que sirven para anlizar un sistema es una cuestión que en principio no es trivial. A partir de estas magnitudes termodinámics individuales se construyen los potenciales termodinámicos, que nos dan toda la informacion sobre el sistema. Dependiendo de el tipo de sistemas que tratemos (asumiendo que van a estar en equilibrio) tenemos diversos potenciales. Uno de ellos ya lo hemos mencionado, va a ser la entropia (S=S(U,V) dóne \Delta S= (\Delta U + p \Delta V)/T ; esta expresión surge de sustituir en la exprsion del cambio de entroia el calor en términos de la energía interna, U, y el trabajo W=p.V, mediante la primera ley). Otros son la entalpia, útil para sistema a temperatura constante, (H= U+ pV), la energía libre de Helmholtz (F=U- TS), la función de Gibs (G= U + pV -TS), útiles para sistemas no aislados.
Para sistemas abiertos se introduce una nueva cantidad, el potencial qúmico \nu_i= (\partial U/\partial N_i) , dónde Ni es el número de particulas de la especie i. Esto lleva a modificar los potenciales anteriores añadiendo de manera conveniente estas cantidades. Por ejemplo, para la energía interna queda dU= TdS - pdV + \sum{i} \nu_i dM_i . El lector que haya estudiado un curso de mecánica estadística no tendrá dificultad en darse cuenta de que varios de estos potenciales termodinámicos estan asociados de manera natural a los diversos colectivos estudiados en mecánica estadistica (microcanónico, canonico y gran canónico).

En general estos potenciales termodinámicos van a servir para tener un criterio de cuando un cambio de estados es espontáneo o no (es decir, debemos hacer un rabajo y/o aportar eenrgía par que se produzca ese cambio). Los procesos serán espontáneos cuando el valor del otencial se decremente al pasar de un estado a otro. También permiten obtener expresines matemáticas para el estado de equilibrio, pero no entraré en este aspecto.

En particular uno podria preguntarse si son las mismas para la termodinámica de equilibrio y la de no equilibrio. La respuesta es, en general, negativa. Antes de pasr a ver los detalles un pequeño paréntesis. Este post se titula “la termodinámica de la vida”, y hasta ahora he usado ejemplos con un balon de futbol. Es hora de que pase a hablar de sistems vivos e introduzco con ellos algunas consideraciones relvantes. Para que una reacción química se realice de la manera mas eficiente la termo de equilibrio nos dice que conviene que se realice a la temperatura mas baja posible. Sin embargo la termo de equilibrio, como ya avisé, no informa sobre la velocidad del proceso. Es bien sabido que cuanto mas baja es la temperatura mas lento es el proceso. Sin embargo en un sistema vivo (o enprocesos industriales) interesa también que la reaccio sea rápida, por lo cuál debe llegarse a una solución de compromiso. Consideremos otro ejemplo, que introduce otro aspecto a considerar. Una célula tiene una membrana permeable al sodio. Fuera de la célula la concentració de sodio es mayor, y, de manera natural tendería a entrr. La célula debe evitar esto, y para ello debe realizar continuamente un trabajo exportando parte del sodio que, de manera natural va entrando (es lo que se concoe com bomba de sodio). Se alcanza un estado estacionario dónde las concentraciones de sodio fuera y dentro no son las mismas. Nótese que estacionario no es lo mismo que de equilibrio, pués en el el equilibrio ambas concentraciones serían las mismas. Par la célula el estado de equilibrio significaría la muerte. En general lo sistema vivos son sistemas de no equilibrio. en el libro explican esto en varios contextos. Por ejemplo un organismo vivo necesita un aporte mas o menos continuo de una serie de sustancias (agua, aire, nutrientes) para mantenerse vivo.

Retomemos ahora el tema de la termo de no equilibrio. He significado que nos interesa la velocidad de los cambios. La velocidad es la tasa de variacion respecto al tiempo. Para un sistema abierto la entropia es de la forma:

dS= \Delta(T^{-1}dU -\sum \Delta(\nu_iT^{-1})dN_i
Derivando respecto al tiempo tendremos:

dS/dt= \Delta(T^{-1}dU/dt -\sum \Delta(\nu_iT^{-1})dN_i/dt

Esto nos sugiere introducir unas cantidades, los flujos termodinámicos de energía y materia:

J_{\nu}=A^{-1}(dU/dt)
J_i=A ^{-1}(dN_i/dt)

dónde A es el área del sistem material al flujo.

La existencia de estos flujos, es decir intercambios de maeria y energía son debidos a unas fuerzas, las fuerzas termodinámicas conjugadas. En este ejemplo serían:

X_{\nu}=\Delta(T ^{-1})
X_i= - \Delta( \nu_iT ^{-1})

Hemos introducido pués dos nuevos tipos de magnitudes termodinámicas, los flujos y ls fuerzas. Estas son magnitudes específicas de la termodinámica del no equilibrio. En general, par un sistema arbtrario fuera de equilibrio, vamos a introducir diversos flujos y diversas fuerzas termodinámicas. La termo, por si misma, no nos va a informar de cómo se relacionan ambas Para sistemas no muy lejos del equilibrio se asume una relación lineal entre las fuerzas y los flujos. Las constantes que relacionan ambas se conocen cóm coeficientes fenomenológicos. En el libro se argumenta que los sistemas vivos en general van a estar cerca del equilibrio, en contra de lo que hipotetizaba la escuela de prigogyne.. Para estos sistemas Ossanger, en la primera mitad del siglo XX, demostró que bajo condicines muy generales los coeficientes fenomenológicos cumplen unas relaciones de simetría, lo cuál disminuye elnúmero de ellos diferentes entre sí a la mitad (lo cuál es algo bastante útil).

Bien, no me alargaré mas con tecnicismos. Creo que con lo que he expuesto hasta aquí el lector podrá apreciar mejor el libro. Sin duda los autores del mismo podrían haber explicado formalmente eestos temas, y mucho mejor que yo. Sin embargo, según comentaba Hawkings en su libro “una breve histoia del tiempo” parece haber una máxima editorial que reza “a cada fórmula introducida las ventas del libro caen a la mitad”. Y desde luego Hawkings, en ese, y otros, libros se aplica bien el cuento. Yo prfiero libros de divulgación que permiten (auqnue sea en recuadros aparte, independientes del corpus geneal de lectura) seguir la parte formal de lo que se esta explicando. Además, la matemática se puede divulgar al igual que los conceptos intuitivos. Un magnifico ejemplo son los libros de Albert Einstein. Aprovecho para señalar que recopilados por Hawkings, y en un libro en el que Hawkings parece figurar, a primera vista, como autor (si bien enseguida aclaran qeu sólo hace la labor de selección) han sido editdas muy recientemente todas las obras divulgativas de Albert Einstein. Recomiendo encarecidamente su lectura.

La parte formal que he expuesto la he sacado principalmente de un libro de David Jou y Josep Enric Llebot, “introduccion a la termodinámica de los procesos biologicos”, si bien no lo he seguido al pie de la letra y he intentado aclarar algunos puntos a la luz de la mecánica etadistica, tal como la ven los físicos, cosa que ese libro no contempla. Otro libro, del mismo D. Jou, en colaboracion con J. Casas-Vazquez y G. Lebon “extended irreversible Thermodynamics” entra mas a fondo en todas esas cuestiones (debo decir que no lo he leido en su totalidad). Otro libro de texto cubre la parte de la termodinámica dl no equilibrio aplicada a ecosistemas. Sven Jorgensen y Yuri Svirezhev “towards a thermodynamics theory for ecological systems”, Menciono la existencia de estos libros por si alguien quiere profundizar en los aspectos técnicos del libro de Sagan y Schneider (aunque ellos, ciertamente, incluyen bibliografia adicional). Yo tengo intención de profundizar, al menos un poco, pero tamoco estoy seguro de hasta que punto llegaré.

Ya, para concluir una breve reseña de que tmas trta el libro tras esa primera parte. Analiza ecossistems, introduciendo el concepto de ecosistema en cimax y ecosistema incipiente. Expica ue los ecosistemas maduros se las apañan para tretner durante mas tiempo las sustancias que flueyen a través de ellos. También analizan el origen de la vida. Ahí apuntan a que tal vez eta tenga un orgien “termodinámico” por contraposicion a la ortodoxia que defiende un origen puramente genético. Y lo mismo con la evolución. la idea es que lo que se conservaría no son tanto l sgenes sino procesos quimicos de no equilibrio especialmente eficaces. Señala el paralelismo entre los ecosistemas que retiene eficientemente los nutrienees y la célula, que hce lo mismo. Esto esta relacioado con lo que ellos consideran el lema fundamental del libro: “la vida reduce gradientes”. Por supesto en el caso de la termo de no equilibrio hablan de dos casos muy comunes, tópicos favoritos de Prigogyne, los cilindors de Benard y los sistemas de reacciones qu´micas oscilantes BZ.

También tratan temas de economia (y como uno de los hermanos Odum introdujo en la teoria ecológica conceptos de economia). Señal que los sistemas economicos típiocos son sistemas de no equilibrio. Por ejemplo una ciudad depende del aporte continuo de provisones de un “entorno”.

En general, es u n libro muy iteresante, que trata varios temas, algunos bien conocidos de otros libros de divulgación, pero otros, al menos para mí, nuevos. La relacion entre esos temas y la termo de no equilibrio muchas veces parece un poco traida por los pelos (enprticular el últimio capítlos que se mete en cuestione casi metafísicas y filosoficas). Como ya digo se echa de menos que profundice un poc en los tecniismos, aunque, muy posiblemente, otra gente no estará de acuerdo conmigo en este aspecto. En todo caso espero que este post le pued ser de ayuda a quien quiera sacarle un poco más de “chicha” al libro y carezca de formación en fisica. De hecho en física no se suele enseñar termo del no equilibrio, así que tal vez a algun fisico le haya venido bien esta introducción. aunque sospecho que la pueden haber encontrado demsiado “light” y hubiesen preferido que profundizase más. En fín, no soy experto en termodinámica y mecánica estadística (aunque estoy ultimamente teniendo que aprender mucho sobre el particular, y no sólo debido a cosas “exóticas” como la biologia sino por exigencias de los desarrollos en física de partíclas/cuerdas) y posiblemente no sea la persona mas indicada para ello. Un buen blog sobre el particlar (eso sí centrado en física de particulas/cosmoogia, cuerdas) es non equilibrium net. Con todo espero que el post haya sido razonablemente entendible y útil.