Posts Tagged ‘matemáticas’

RIEMANN: UNA VISION NUEVA DE LA GEOMETRIA

agosto 12, 2014

De vez en cuando me gusta leer biografías de científicos famosos (preferentemente físicos y matemáticos).Este verano he leído de la de Riemann, escrita por Jose Luís Muñoz.

El libro mantiene un muy buen equilibrio entre los aspectos biográficos (especialmente los pertinentes a la parte académica, lógicamente), y los de la matemática.

Empieza por los primeros trabajos en variable compleja (ecuaciones de Cauchy-Rieman para determinar si una función es analítica, superficies de Riemann para funciones complejas multivaluadas, y su utilidad), y en teoría de la integral (integral de Riemann, claro xD) haciendo hincapié no tanto en la definición en sí (se supone que el lector debería tener cuanto menos una base de bachillerato y conocerla) cómo en las implicaciones de esta par aformalizar y poner en base firme muchos resultados anteriores, y posreriores (hasta la llegada de la integral de Lebesgue, y la teoría genera de la medida e integral, que serían necesarias mas adelante, pero eso no quita que la definición de Riman siga siendo muy válida en muchos casos).

Luego pasa a la parte que da al libro su subtítulo. Ahí habla de cómo para obtener una plaza de profesor debe hacer una lectura para conseguir una plaza de profesor permanente. Según la tradición propone 3 temas el último de los cuales era la geometría. Entre el jurado está Gauss, del cuál Riemann había sido alumno. Cómo quiera que Gauss había publicado muy recientemente su trabajo en geometría. Este versaba principalmente geometría intrínseca de superficies, de gran importancia, culminado por su “teorema egregio” que vincula la integral de su curvatura intrínseca -no depende del “embeding” de la superficie en \mathbb{R} ^3 con una propiedad topológica de la superficie, el género, que había aparecido en el trabajo de Riemann en superficies de Riemann compactas. El caso es que bien sea por mala uva (algo siempre posible en Gauss) o porque tenía curiosidad de ver que aportaba alguien tan brillante cómo Riemann al tema decidió que el trabajo versara sobre la tercera opción (cuando siempre se había mantenido la tradición de que versase sobre la primera).

El caso es que, con gran estrés, Riemann preparó una lectura magistral dónde generalizó los resultados de gauss a un número arbitrario de dimensiones. Para ello introdujo el concepto de variedad. Eso sí, cómo el trabajo debía leerse ante un público amplio que, aparte de matemáticos, incluía físicos, biólogos, geólogos, etc, no entraba en muchos detalles. Sea por eso, o por que el autor del libro así lo decidió, la verdad es que apenas comenta ningún punto técnico al respecto.

No obstante, pese a esa falta de detalles técnicos, si hay dos punto muy curiosos. Por un lado menciona a Kingdon Clifford, muy conocido por las álgebras que llevan su nombre, pero mucho menos (yo desde luego lo ignoraba) por su teoría de la gravitación basada en la geometría. Cierto es que ya Gauss había comentado que determinar en que geometría vivimos debería ser algo empírico, y basado en medidas locales (de ahí su geometría intrínseca, inspirada por su trabajo cómo cartógrafo). Pero Clifford va mas allá y afirma que es la materia la que curva el espacio. Esto lo publica en 1870, 45 años antes de que Einstein desarrollase la relatividad general. Por supuesto su teoría es mas una idea filosófica que algo bien desarrollado física y matemáticamente. Y aún estaba lejos el concepto de espacio-tiempo, en el que el tiempo y el espacio es algo que depende del espectador (manteniéndose invariante la velocidad de la luz, o la métrica de minkowsky).

También habla de dos discípulos Italianos (en el final de su vida Riemann fué a dar clase a Italia, por motivos de salud) de Riemmann, Cristoffel y Levi-Civitta. Estos continuarían su trabajo en geometría y construirían el cálculo tensorial que luego usaría Einstein en su relatividad general. Lo curioso es que ese trabajo ya estaba hecho en 1901. Con eso nos quedamos con que el 1870 ya se había sugerido que la materia curvaba el espacio. Muy poco tiempo después, 1907, de publicar su relatividad especial Herman Minkowsky pondría esa teoría en un formalismo geométrico, creando el concepto de espacio tiempo con una métrica constante. En conclusión, Einstein ya tenía en 1907 todos los ingredientes para cocinar su relatividad general. De hecho en la presentación actual el paso de un espacio-tiempo plano a uno curvo es algo tan “autoevidente” que resulta hasta extraño creer que le llevase tanto tiempo dar el salto. Admitamos que Einstein no conociera esa matemática. Pero el cálculo tensorial tampoco es tan complicado de entender (al menos sí lo explica alguien que sepa). Se puede tardar, en la forma en que se presentaba en esa época, unos 4 meses, cómo mucho. Realmente con clases privadas de un experto (cómo fué le caso de Einstein) yo creo que se podría reducir el tiempo a un mes o menos (realmente no sé l oque tardó, a lo mejor visto desde la perspectiva actual parece mas sencillo de lo que era en la época).

Entonces sí todo parecía tan predeterminado ,y estaban todos los ingredientes, y Einstein era tan listo, una vez más ¿Por qué tardó tanto? Bueno, supongo que por un lado porque las cosas parecen mas sencillas después. Y, por otro, porque estaba listo todo el aparato matemático de la geometría. Lo que no estaba nada, nada claro, sospecho, es cómo relacionar la materia con esa geometría. Además, Einstein trabajaba con observadores. Desde un punto de vista geométrico las cosas se ven de una forma, y desde los observadores de otra. Supongo que uno podría plantearse que pasa con observadores con aceleración lineal constante primero, y luego con una aceleración centrípeta constante (he leído varias biografías de Einstien, y me parece recordar que en parte si hizo eso). De hecho es pensando en observadores cómo sale el famoso experimento mental del ascensor, y de ahí la idea de la geometría cómo campo gravitatorio (en realidad hay mas factores históricos, pero eso es otro asunto). Pero, insisto, yo creo que la parte que fué mas difícil es la de la inclusión de la materia. Realmente uno puede saltarse toda esa búsqueda de Einstien y tener una forma de trabajo “operativa”. Aprende a calcular el tensor de Einstein y luego sabe que al otro lado está el tensor energía-momento. Se puede quedar con que para un fluido (algo importante en cosmología) tiene la forma que tiene (sí le apetece se lee los detalles de porque eso está relacionado con la teoría de fluidos standard). Y, luego para cuando se empieza de un lagrangiano, uno se queda con que del lagrangiano se saca el tensor energía momento mediante variaciones. Es algo realmente latoso el cálculo de ese tensor, no confundir con el tensor de energía-momento de nóether, con aquello de calcular las variaciones respecto a la métrica, y hay que usar varias formulilas para poner eso en forma tratable y etc, etc (yo hice hace poco el cálculo del tensor energía-momento de una cuerda bosónica, para ver si era capaz de reproducir los resultados de libro, y me costó lo suyo aunque la final lo saqué). Per ovamos, eso, que si a uno le plantan el lagrangiano del sector geométrico ya sabe que de ahí salen, mediante variaciones, el tensor de Einstein. Y si le plantan el lagrangiano de la la materia pues entonces puede “aplicar la receta”. Realmente son tareas precisas, y metódicas, y pueden hacerse con un ordenador. Para mathemática hay mcushos scripts de cálculo tensorial. máxima lo trae incorporado. no sé si hay scripts que calculen el tensor energía-momento a partir de un lagrangiano pero no se me ocurre motivos para que no pueda haberlos.
En definitiva, que puede ser engañosamente fácil la inclusión de la materia, pero sospecho, puede haber ahí mucha sutileza oculta.

Pero dejemos la relativdad y sigamos con Riemann. Tras eso el libro se pone a hablar de su trabajo en funciones elípticas. Ahí el libro entra en muchos detalles. Hace una introducción al tema desde el principio, definiendo las integrales elípiticas, y otras similares mas sencillas. Luego hace un repaso de los trabajos previos de los Benouilli, euler, Legendre, Abel y Jacobbi (y cómo Gauss ya tenía estos últimos trabajos antes que esos dos, pero sin publicar). Y luego, claro, explica el trabajo de Riemann. Realmente no puede usarse cómo libro de texto sobre funciones elípticas (una introducción a las ideas mas habituales y de mas uso viene en libros de física matemática, cómo , por ejemplo. El Mathews Walker). Es curioso eso de las funciones elípticas. Aunque he leído sobre ellas, por completitud, la verdad es que no me las pusieron nunca en un plan de estudios ni en física ni en matemáticas (y eso que en matemáticas cogí, mala elección a la postre ya que de las partes que me interesaban del temario no se dió nada, variable compleja II). La verdead es que no tengo claro sí siguen siendo importantes en alguna rama de las matemáticas hoy día o si son algo así como una “abandonamath”. Sé que existen las funciones automórficas y modulares, y me parece que, de algún modo, tiene algo que ver con las funciones elípticas. Pero el caso es que asistí en la complutense a un curso (abierto a todo el público) de funciones automorfas y modulares y si hay alguna relación no se mencionó.

La última parte del libro, cómo podría esperarse, trata de la famosa hipótesis de Riemann, Ahí se trata las propiedades de la función z de Rieman y de las partes pertinentes de la teoría de números (dsitribución de los números primos basicamente)

Hay algún aspecto más en el libro que no he mencionado (funciones hipergeométricas, por ejemplo). Y poco he dicho de los aspectos biográficos. Quien quiera los detalles que lea el libro, que merece mucho la pena ;).

En Arxiv hoy: Fisica de la función z(s) de Riemann y teleportación en el tiempo

enero 18, 2011

Hoy en arxiv hay un artículo interesante a nivel de fenomoenología. Uno en el que se anuncia una asimetría en el reactor de antineutrinos The Reactor Antineutrino Anomaly discutida en esta entrada el blog de Tomasso Dorigo. En ese mismo blog, en la entrada anterior a la que he enlazado, discute un artículo en el que se hace una crítica a los límites de exclusión del Tevatron sobre la masa del vector de Higgs.

Como quiera que ya han sido discutidos ahí y no tengo tiempo para todo, voy a comentar algo sobre otros dos artículos de muy diferente calado.

Uno es un artículo que repasa la hipótesis de Riemann y sus equivalentes en física: Physics of the Riemann Hypothesis

OS dejo aquí el abstract del artículo:

Physicists become acquainted with special functions early in their studies. Consider our perennial model, the harmonic oscillator, for which we need Hermite functions, or the Laguerre functions in quantum mechanics. Here we choose a particular number theoretical function, the Riemann zeta function and examine its influence in the realm of physics and also how physics may be suggestive for the resolution of one of mathematics’ most famous unconfirmed conjectures, the Riemann Hypothesis. Does physics hold an essential key to the solution for this more than hundred-year-old problem? In this work we examine numerous models from different branches of physics, from classical mechanics to statistical physics, where this function plays an integral role. We also see how this function is related to quantum chaos and how its pole-structure encodes when particles can undergo Bose-Einstein condensation at low temperature. Throughout these examinations we highlight how physics can perhaps shed light on the Riemann Hypothesis. Naturally, our aim could not be to be comprehensive, rather we focus on the major models and aim to give an informed starting point for the interested Reader.

El artículo empieza dando una breve introducción a la función zeta de Riemann \zeta (s). La parte sencilla de la definición de esta función es:
\zeta (s) = \sum_{n=0}^{\infty} 1/n^s .

Así, tal cuál, la función esta definida para s real. Usando la maquinaria de funciones de variable compleja (al nivel de un 2º curso en el tema) se puede extender esa función a todo el plano complejo, excepto al punto s= 1. También puede probarse, y ahí ya entra la conexión con la teoría de números, que la función puede escribirse en la forma:

\zeta(s)= \prod_p \left ( 1 - 1/p^k \right )^{-1}

dónde p es un número primo. No entraré en mas detalles, podéis leer un rápido resumen en el propio artículo y una buena introducción en, por ejemplo, el libro de variable compleja de Stein y Shacarchi “complex análisis” (vol 2)

La hipótesis de Riemann hace referencia a la estructura de los ceros de la función de Riemann. En particular el enunciado de la misma es que los ceros no triviales de esa función están sobre la línea Re(s)= 1/2. Esa conjetura es uno de los problemas del milenio del instituto Clay y quien la demuestre rigurosamente (o demuestre que es falsa rigurosamente) tendrá fama mundial y un millón de dólares. Pero que nadie se lance de cabeza a intentar demostrarla. Antes de el instituto Clay Hilbert, a principios del siglo XX, la incluyó dentro de su famosa lista de problemas a resolver, y aún se resiste la dichosa demostración.

En el artículo tratan diversas conexiones de esa función a la física. Esas conexiones van desde la mecánica clásica a la cuántica, en particular el caos cuántico. También incluyen conexiones con física nuclear y física estadística. Sin haber tenido tiempo de leer el artículo completo me parece que se ha omitido una de las mas habituales para los físicos teóricos, el uso de la función de Riemann como un esquema de regularización en teoría cuántica de campos. Sea como sea puede ser muy interesante la lectura del artículo para los teóricos de números que intenten ver su función favorita en la física, hablo de por ejemplo, el autor del blog math is sicence.

El otro artículo al que haré referencia viene discutido hoy en el blog de arxv, concretamente en : New Type Of Entanglement Allows “Teleportation in Time”, Say Physicists.

Haciéndome eco del espíritu del artículo no lo explicaré ahora, sino en un futuro próximo, cuando me haya leído con cuidado el artículo. En realidad haré mas que eso, lo publicaré en forma de qbits y, automáticamente, el artículo se publicará en un tiempo posterior al momento en que haga la publicación en esa forma de qbits entrelazados. Por supuesto la técnica se generalizará a viajes hacia atrás en el tiempo y me enviaré a mi mismo el artículo hasta la nochevieja de este año y, tras leerlo en el móvil (en mi nuevo móvil, un nokia N8 se pueden leer pdfs y djvus con una cierta comodidad si se sostiene el móvil en forma horizontal) volveré a tener la pequeña discusión sobre entrelazamiento cuántico y viajes en el tiempo que se produjo esa noche, pero esta vez daré mas detalles ;).

Formas diferenciales (conceptos básicos), homología y cohomología

julio 5, 2010

Por motivos ajenos a este blog recientemente he tenido que escribir una pequeña introducción informal a la teoría de formas diferenciales. Aprovecho ese trabajo para extenderlo con explicaciones sobre cohomologia y homologia, que son conceptos que surgen de manera natural al tratar las formas diferenciales y su importancia. En este post hago uso libre de los conceptos topológicos que introduje en la entrada que hice sobre la conjetura de Poincaré. De hecho, esta entrada contiene material que usaré en el futuro cuando vuelva a hablar sobre la conjetura de Poincaré. En general el material de esta entrada es de uso ubicuo en física y matemáticas y posiblemente la use de referencia en el futuro en muy diversos temas.

Una forma diferencial puede ser entendida como un operador multilineal antisimétrico definido sobre un espacio vectorial. Dicho de otra forma sería un elemento del producto tensorial antisimetrizado de elementos del espacio dual a un vectorial. Para los propósitos de este post no es necesario dar los detalles algebraicos. Lo interesante es conectar esta definición algebraica con una definición operativa. Si consideramos que tenemos una familia de espacios vectoriales dependientes de unos parámetros continuos podemos tener una forma diferencial definida algebraicamente (a veces se usa el término “forma exterior” para referirse a la construcción algebraica reservándose el término “forma diferencial” para el caso general)) en cada punto. El caso mas sencillo es \mathbb {R}^n considerado como espacio afín. Es decir, que en cada punto de \mathbb {R}^n tenemos un espacio vectorial copia del espacio vectorial en el origen. De ese modo podemos tener una forma diferencial, en el sentido algebraico, en cada punto. Esto define una forma diferencial en \mathbb {R}^n .

Una 0-forma sería simplemente una función. Si la forma pertenece al espacio dual será una 1-forma. Si pertenece al producto tensorial antisimetrizado de dos espacios duales sería una 2-forma, etc.

En \mathbb {R}^n en la práctica esto redunda en una construcción bastante sencilla, como a que puede leerse en, por ejemplo, el libro de Marsden-Tromba de cálculo vectorial. Así una 1-forma es una expresión formal del estilo:

f=f_1(x_1,x_2,..., x_n)dx^1  + f_2(x_1,x_2,..., x_n)dx^2 + .....f_n(x_1,x_2,..., x_n)dx^n

dónde las f_i(x_1,x_2,..., x_n) son funciones arbitrarias de las coordenadas y las dxison una notación para indicar la base del espacio dual de la base canónica de \mathbb {R}^n

Una n- forma sería una expresión del estilo:

\omega=f_{ij...k}dx^i \wedge dx^j .... \wedge dx^k

En esta expresión se ha introducido un elemento nuevo, el producto exterior \wedge . Este producto es una notación para el producto tensorial antisimetrizado . También puede definirse de otro modo, mediante unas propiedades sencillas:
Sea { dx_i } una base de un espacio vectorial V (o de su dual), que a su vez es un espacio vectorial). Un producto exterior, o producto cuña, de dos tales generadores se define exigiendo las reglas de cómputo (relaciones) siguientes:

1.dx_i \wedge dx_j = -dx_j \wedge dx_i \ si \ i \neq j

2. dx_i \wedge dx_i=0

Nota: Como estoy trabajando en \mathbb {R}^n se tiene que la base dual y la base del espacio son isomorfas y que, además, las componentes covariantes y contravariantes de un tensor son las mismas con lo cuá soy ago laxo a la hora de manejar subíndices y superíndices. )

A partir de esa propiedad de producto exterior de las bases puede, por linealidad, obtenerse el producto exterior de dos formas arbitrarias. En \mathbb {R}^3 , dado que el dual de \mathbb {R}^n coincide con el mismo, puede identificarse una 1-forma con un campo vectorial. Y el producto exterior de dos 1-formas puede verificarse que coincide formalmente con el producto vectorial de dos vectores. Eso sí, el producto vectorial de una n-forma y una m-forma es una (n+m) forma. Por tanto el “producto vectorial” de dos 1-formas es una 2-forma, y, por tanto, un objeto diferente a los “vectores” de los que era producto. Sin embargo la identificación funciona porque una 1-forma arbitraria tiene 3 componentes y una 2-forma también (ya que los productos exteriores dx^i\wedge dx^i se anulan) y al tener la misma dimensión, 3, pueden considerarse como “vectores” de dimensión 3.

El otro elemento importante de las formas diferenciales es la derivada exterior. Esta transforma un n-forma diferencial en una (n+1)-forma diferencial. La definición formal no es especialmente complicada. No obstante a efectos prácticos nos basta con la siguiente definición intuitiva:

d\omega= \sum_{i,j...,k,l} \frac{\partial f_{ij...k}}{\partial x^l} dx^l \wedge dx^i \wedge dx^j ... \wedge dx^k

Vamos a enlazar la derivada exterior con los elementos bien conocidos del cálculo vectorial. Si f es una 0-forma (recordemos, una función ordinaria) su derivada exterior es simplemente:

df=\sum_{i=1}^n \frac{\partial f}{\partial x^i} dx^i

Podemos, como antes, identificar esa 1-forma con un campo vectorial. De ese modo la derivada exterior de una 0-forma coincide con el gradiente de una función.

Para el caso de una 1-forma tenemos que su derivada exterior es:

d\omega = \sum_{i,j}\frac{\partial f_i}{\partial x^j} dx^j \wedge dx^i=\sum_{i<j}\left( \frac{\partial f_i}{\partial x^j} -\frac{\partial f_j}{\partial x^i}\right) dx^i \wedge dx^j

Si interpretamos la 1-forma como un campo vectorial y la 2-forma también como campo vectorial puede verse fácilmente que la derivada exterior coincide con el rotacional. Así mismo podría verse con sencillez que la derivada exterior de una 2-forma identificada a un campo vectorial nos daría la divergencia de ese campo. Nótese que la derivada de una 2-forma es una 3-forma. La 3-formas en \mathbb {R}^3 tienen una úrica componente no nula y, por consiguiente, pueden identificarse con funciones.

Hemos tratado n-formas en \mathbb {R}^n . En una variedad arbitraria (una variedad es, informalmente hablando, la generalización a dimensiones arbitrarias de las curvas y superficies del analisis vectorial- o de la geometria diferencial clásica, si se prefiere verlo así-) tendríamos que en cada punto de la variedad va a estar definido su espacio tangente, que será un espacio vectorial. Este espacio a su vez tendrá su espacio dual. De ese modo podemos trasladar la maquinaria de las formas diferenciales en \mathbb {R}^n a formas en variedades arbitrarias. La única circunstancia que da una complejidad extra es que tenemos mapas de la variedad a \mathbb {R}^n y hay que lleva cuenta de esos mapas.

La derivada exterior permite introducir unos conceptos muy interesantes, muy útiles en topología diferencial.

i) Se dice que una forma es cerrada cuando su derivada exterior es 0. Este concepto es muy útil en física. En el caso en que se identifica una forma diferencial con un campo vectorial eso significaba que el rotacional era 0. Los campos con rotacional son campos conservativos. Eso significa que la integral de ese campo a lo largo de un camino cerrado es nula. O, equivalentemente, que la integral de dicho campo entre dos caminos distintos con el mismo origen y destino es independiente del camino. Como es bien sabido eso permite definir un potencial y el campo en cuestión es una derivada del potencial. Eso nos lleva al segundo concepto importante relacionado con la derivada exterior

ii) Se dice que una n-forma w diferencial es exacta cuando existe una (n-1)-forma diferencial f tal que w=df. Esto generaliza el concepto de potencial de un campo vectorial conservativo.

Puede verificarse usando la definición que toda forma diferencial exacta es cerrada, es decir, que d^2 w= 0 \ \forall w. Lo contrario es falso. Es decir, en general que una forma diferencial sea cerrada no significa que sea exacta. Se puede dotar a las formas diferenciales de grado n con una estructura de grupo siendo la operación de grupo la suma de formas diferenciales (definida de la forma obvia). El grupo cociente de las formas cerradas módulo las exactas se conoce como grupo de cohomología de de Rham definidas en una variedad diferencial M se denota como H^p(M,R). Enseguida comentaré algo sobre que es y que significa.

Antes un pequeña aclaración sobre como entender “módulo las exactas”. La idea es muy simple. En general el potencial escalar no está definido de manera única. Si tenemos que U(x,y,z) es un potencial para un campo vectorial \vec {V}(x,y,z) entonces U(x,y,z) + K (dónde Ka es una constante) también lo es. En electromagentismo tenemos el caso del potencial vector \vec{A}(x,y,z) de un campo magnético \vec{B}(x,y,z) que no está definido de manera única pues si a A le sumamos un campo con rotacional nulo nos dará el mismo campo magnético (recuérdese que el potencial vector cumple que su rotacional es el campo magnético. Obviamente sumar al potencial vector algo con rotacional nulo nos va a dar el mismo campo magnético). Esto se generaliza a formas diferenciales. Si f es tal que w=df se tiene que si a f le sumamos una forma cerrada g se va a seguir teniendo que w=dg. Es decir, que la forma diferencial que nos da w esta definida módulo formas cuya derivada sea nula.

En física las formas diferenciales se usan de manera muy libre con dx indicando “desplazamiento infinitesimal dx”. La teoría expuesta aquí formaliza ese concepto. Aparte de la relación entre el electroganetismo y las formas diferenciales hay muchas mas aplicaciones directas de esta teoría. Po ejemplo, en termodinámica las magnitudes termodinámicas como la energía, la entalpía o la energía libre de Gibbs son, formalmente, formas diferenciales. En relatividad general las variedades y las formas diferencialles son el lenguaje natural para expresar los conceptos. En teoría cuántica de campos y en teoría de cuerdas esta teoria de formas diferenciales, y la topologia algebraica y diferencial en general, jueganmuy diversos papeles esenciales de las mismas.

Puede que a algún físico le haya extrañado la afirmación de que en general una forma diferencial cerrada no es exacta. Después de todo la condición de existencia de un potencial para un campo es que el rotacional sea nulo, osea, que la derivada exterior sea nula, y, por tanto, que la forma sea cerrada. La clave está en que normalmente se piensa en campos definidos en \mathbb {R}^n . Ahí si se cumple que una forma diferencial cerrada es exacta. Eso está conectado con el significado delos grupos de cohomología y, en particular, con el hecho de que los grupos de cohomologia de \mathbb {R}^n sean triviales. En general en una variedad arbitraria M los grupos de cohomología serán distintos de 0. Puede demostrarse que si dos variedades son difeomorfas (es decir, existe un difeomorfismo entre ambas, lo que intuitivamente significa que una puede deformarse en otra de forma suave-entiéndase, diferenciable-) sus grupos de cohomologia de de Rham son isomorfos. El caso contrario es, en general falso. Dos variedades con los mismos grupos de cohomologia de de Rham no son difeomorfas.

El concepto de cohomologia expresado mediante formas diferenciales (la cohomologia de de Rham) es un caso particular de la definición general de cohomología. En general una cohomologia es el dual de una homología. La homologia es una de las primeras técnicas que se introdujo para intentar clasificar espacios que fueran homeomorfos (equivalentes topologicamente). La forma mas sencilla de homologia es la homología simplicial.

Un símplice es, hablando informalmente, algún tipo de conjunto geométrico sencillo cuyo significado tiene sentido en cualquier dimensión. or ejemplo, podríamos definir los 0-símplices como conjuntos de puntos. Los 1-símplices como segmentos. Hasta ahí no hay arbitrariedad. Para definir un 2-simples ya si hay varias opciones. La mas sencilla sería definir un 1-simplice como un triángulo (incluyendo su interior). Pero también podríamos definirlo como un rectángulo. Si optamos por la primera definición un 3-simples seria un prisma. Si optamos por la 2ª un 3 símplice sería un cubo. Por supuesto estas definiciones informales pueden y deben expresarse rigurosamente, pero para el propósito de esta entrada no es necesario.

El concepto de símplice nos lleva al concepto de complejo simpicial, que es, informalmente hablando, un conjunto de símplices unidos entre sí de manera adecuada.

(Imagen de un complejo simplicial)

Una vez dadas estas definiciones comentaré porque son útiles en topología. El concepto clave es que podemos hacer una correspondencia entre un complejo simplicial y un conjunto topológico. Podemos, por ejemplo, deformar (estirando sin romper) las caras de un tetraedro o un cubo para convertirlo en una esfera. Esto es lo que se conoce como una triangulación de la esfera (el nombre proviene del caso en que el símplice son las caras del tetraedro que son triángulos). En realidad un cuadrado puede verse como dos triángulos, así que está claro que no hay gran diferencia entre trabajar con símplices cúbicos o triangulares. En realidad cuando se habla de complejo simplicial se entiende tanto el símplice en sí como el conjunto topológico que se pone en correspondencia con él.

En el párrafo anterior he introducido subrepticiamente un concepto clave, el de frontera. Un símplice tiene una frontera, que a su vez es un conjunto de símplices (excepto los 0-símplices cuya frontera es nula). Un 1 simplex tiene como frontera dos puntos (dos 1-simplices). Un 2-simplice triangular tiene como frontera tres segmentos (dos símplices). Un tetraedro tiene como frontera 4 triángulos, etc.

Un conjunto simplicial es, como dije, un conjunto de símplices de la misma dimensión dispuestos de manera “adecuada”. En particular una de las condiciones de “adecuado” es que los símplices siempre estén unidos entre sí por fronteras. Esto permite definir para un conjunto simplicial arbitrario, que denotaremos por S, su frontera, que denotaremos por \partial S (Aquí el símbolo \partial significa frontera y no tiene nada que ver con su significado habitual en análisis de derivada parcial).

Nótese que, en general, la frontera de un complejo simplicial puede ser nula. Entender porque formalmente requiere dar una definición precisa del concepto de frontera de un complejo simplicial, en la que cada elemento de la frontera se le asigna un signo. Intuitivamente puede verse de una manera muy sencilla. Un complejo simplicial será cerrado cuando los símplices estén unidos entre sí de tal modo que tengan fronteras comunes de tal modo que las de unos símplices cancelan a las de otros. Un ejemplo muy intuitivo ilustra esta idea. Piensese en la esfera y su triangulación mediante un tetraedro. Cada tríangulo del tetraedro tiene vértices comunes con otro triángulo. Ese vértice común se cuenta con signo positivo para uno de los triángulos y con signo negativo para el otro de tal modo que en conjunto su contribución a la frontera es 0. Intuitivamente esto esta relacionado con el hecho de que la esfera es una superficie sin frontera.

Al igual que con las formas diferenciales formas aquí vamos a tener complejos simpiciales cerrados y exactos. Un complejo diferencial (también llamado cadena, a partir de aquí usaré este nombre) es cerrado cuando su frontera es nula. Una cadena es exacta cuando es la frontera de otra cadena.

Podemos definir formalmente la suma de cadenas (en realidad un complejo simplicial es la suma formal de símplices básicos) y se observa que con esa suma el conjunto de cadenas de dimensión n (obviamente las que están formadas por símplices de dimensión n) tiene estructura de grupo. Las cadenas exactas y las cerradas son subgrupos. Al igual que con las formas diferenciales puede verse que una forma exacta siempre es cerrada, pero que el converso es falso en general. Eso nos lleva a definir la homología simplicial como el grupo cociente entre cadenas cerradas módulo las exactas. El grupo de homologia (sobre un cuerpo K) de dimensión n de un complejo simpicial S se denota por H_n(S, k) .

Un aspecto muy importante a tener en cuenta en las aplicaciones es que en general para un espacio topológico podemos tener una cantidad arbitraria de triangulaciones. Lo importante es que los grupos de homología no dependen de la triangulación que elijamos.

Al igual que con la cohomología se tiene que dos espacios homemorfo tienen grupos de homología iguales, pero que, en general, puede haber espacios no homeomorfos con los mismos grupos de homología.

La cohomologia es el dual de la homología. Es decir, se trata de buscar una regla que asigne a cada cadena un número y que sea compatible con la estructura simplicial. En particular puede demostrarse que la cohomologia de de Rham es equivalente a la cohomologia singular en el cuerpo \mathbb {R} . La cohomologia singular es la cohomología “canónica” que se corresponde a la homología singular. La homología singular depende en algunos tecnicismos de la simplicial, pero las ideas intuitivas de una y otra son las mismas.

La clave de la relación entre formas diferenciales y cohomologia es el concepto de integral de una forma en una variedad. Este generaliza al concepto de integral de línea y de superficie de un vector. Además si uno define el concepto e integral para variedades cn frontera se obtiene el teorema de Stokes en variedaes, que generaliza los teoremas clásicos de Stokes, de Green y de Gauss del análisis vectorial. Para dar definiciones adecuadas de estas integrales tendría que dar muchas nociones de teoría de variedades y eso requeriría escribir al menos tanto como lo que ya he escrito y por consiguiente, lo dejaré para otra ocasión. No obstante puede entenderse intuitivamente la idea. A un símplice le corresponde un trozo de una variedad. Uno puede integrar una forma diferencial en ese trozo para obtener un número. Eso respeta las estructuras homológicas necesarias y puede verse que define una cocadena. El grupo de cocadenas os da el grupo de cohomologia, y este es equivalente al grupo de cohomologia de de Rham.

La clave de la homologia y la cohomologia desde el punto de vista matemático es que los grupos homologicos y cohomlógicos son relativamente sencillos de calcular (en particular mas sencillos que los grupos de homotopía). En física es mas normal trabajar con cohomologia y formas diferenciales pues las cantidades físicas mas habituales son muchas veces, en el fondo, formas diferenciales.

Solitones

abril 14, 2010

En lo que ha venido a conocerse como “teoría del caos” se analiza el hecho de que la presencia de términos no lineales en ecuaciones dinámicas (en diferencias o diferenciales) puede resultar en comportamientos en los que hay una gran sensibilidad en las condiciones iniciales que convierten el sistema dinámica en algo impredecible a largo plazo.

Sin embargo este no es el único aspecto interesante que surge en presencia de no linealidad en las ecuaciones. Un fenómeno bastante singular es la aparición de lo que se conoce como “solitones”. Un solitón es un tipo de onda que mantiene su forma incluso cuando se propaga en un medio dispersivo. Aquí se hará una introducción a los aspectos más sencillos de la teoría de los solitones. Principalmente se analizará la ecuación de Koterweg- de Vries, pero también se mencionarán algunos otros tipos de solitones.

Historia
La primera observación histórica documentada de un solitón la hizo en 1834 el ingeniero naval inglés John Scott Russell. Mientras paseaba a caballo observo por un canal de agua poco profundo vio que una barca arrastrada por unos caballos sufrió un incidente y se paró bruscamente. a resultas de ello se formó una onda solitaria que avanzó por el canal durante largo tiempo sin desvanecerse. Como son bastante famosa dejo aquí las palabras que usó para describir su descubrimiento:

“I was observing the motion of a boat which was rapidly drawn along a narrow channel by a pair of horses, when the boat suddenly stopped – not so the mass of water in the channel which it had put in motion; it accumulated round the prow of the vessel in a state of violent agitation, then suddenly leaving it behind, rolled forward with great velocity, assuming the form of a large solitary elevation, a rounded, smooth and well-defined heap of water, which continued its course along the channel apparently without change of form or diminution of speed. I followed it on horseback, and overtook it still rolling on at a rate of some eight or nine miles an hour, preserving its original figure some thirty feet long and a foot to a foot and a half in height. Its height gradually diminished, and after a chase of one or two miles I lost it in the windings of the channel. Such, in the month of August 1834, was my first chance interview with that singular and beautiful phenomenon which I have called the Wave of Translation”.

Tras eso Russel realizó un análisis teórico y algunos experimentos. Experimentalmente halló hechos como que el volumen de agua en la onda era igual al volumen de agua desplazada por la perturbación inicial. Más interesante, descubrió que la velocidad de la onda solitaria (el la denominó, como se lee en el texto en inglés, “onda de traslación”) cumplía:

1. c^2=g(h+a)

dónde a es la amplitud de la onda, h la altura del canal de agua dónde se forma la onda y g es la aceleración de la gravedad. El aspecto clave es que la velocidad de la onda depende de su amplitud (altura). Posteriormente Boussinesq (1871) y Lord Rayleigh (1876) asumieron que la longitud de la onda tenía una escala mucho mayor que la profundidad de el agua y dedujeron un perfil par la onda. El paso final para establecer la teoría clásica lo dieron Kortewev y de Vries en 1895. A partir de las ecuaciones de Euler de los fluidos obtuvieron su famosa ecuación y analizaron algunas de sus propiedades mas sencillas. La deducción que ellos hicieron es bastante larga y puede encontrarse en, por ejemplo: http://panda.unm.edu/Courses/Finley/p573/solitons/KdVDeriv.pdf. Aquí se usará una deducción alternativa basada en las propiedades de dispersión de un medio.

Mucho mas tiempo después (1953) Fermi, Pasta y Ulam hicieron una serie de investigaciones numéricas -usando algunos de los primeros ordenadores digitales jamás construidos- sobre redes cristalinas monodimensionales, una cadena de iones susceptibles de vibrar (fonones). Fermi esperaba que el sistema se comportase ergódicamente y que la energía se distribuyese equitativamente entre los modos de vibración disponibles. Sin embargo las investigaciones mostraron que se producía un comportamiento cuasiperiódico. El tipo de fenómenos que aparecían podían interpretarse como si se formase algún tipo de cuasi-partículas localizadas en una pequeña zona de la cuerda vibrante. Siendo un físico de partículas Fermi las denominó “solitones”, que es el nombre actualmente usado para ese tipo de fenómenos.

Un hecho nuevo e interesante que apareció en esos estudios es que los solitones podían colisionar entre sí y emerger tras la colisión manteniendo su forma. Veremos aquí esto aquí mas adelante usando las soluciones n-solitón obtenidas unos cuantos años mas tarde porToda.

En 1965 Kruskal y Zabuski demostraron que el límite en el continuo del sistema de Pauli era la ecuación de KdV. Y pudieron relacionar sus resultados numéricos con las soluciones clásicas de esta ecuación.

Otros desarrollos posteriores dignos de reseñar son el método general para obtener una solución de la ecuación de KdV para unas condiciones de contorno dadas mediante la técnica de scatering inverso. También es interesante la conexión de la ecuación de KdV y lo que se conocen como pares de Lax.

Otra característica interesante es analizar porque se pueden obtener soluciones exactas de esta ecuación no lineal y porque no tiene comportamiento caótico (sensibilidad a las condiciones iniciales). El motivo es que esta ecuación tiene un número infinito de cantidades conservadas. En general una ecuación en derivadas parciales que exhiba estas características no va a tener comportamiento caótico. En este trabajo se analizará este aspecto basándose en el trabajo de Miura y compañía hecho en 1968.

Las soluciones tipo solitón son estables en diversos sentidos. No requieren condiciones iniciales demasiado especiales, y siguen existiendo si se modifican esto. Y también son estables bajo pequeños cambios en la ecuación diferencial que lo describe, por ejemplo si se añade un término de disipación (estabilidad estructural). Esta estabilidad es lo que permite que en la práctica lleguen a observarse este tipo de ondas en diversos fenómenos. Con todo es interesante partir de este tipo de soluciones y analizar que añadidos se les debe hacer para que pasen a tener comportamiento caótico.

En lo que sigue analizaremos algunos de los aspectos comentados y se reseñarán al final algunas consideraciones sobre el tema que no serán tratadas, pero que no está de más el estar informado de su existencia

Ecuaciones de onda y la ecuación de Koterweg- de Vries

Es bien conocida la ecuación en derivadas parciales lineal de 2º orden de tipo hiperbólico que describe la propagación de una onda:

2. \frac{\partial^2\phi}{\partial t^2}-c^2\frac{\partial^2\phi}{\partial x^2}=0

Las soluciones de esta ecuación describen ondas que se propagan a una velocidad, c, que es independiente de la frecuencia de la onda. Asumiendo que la onda se propaga en un medio tenemos que ese medio es no dispersivo. La ley de dispersión es la relación entre la frecuencia,w, y el número de onda, k, de las ondas que se propagan en él. En un medio no dispersivo se cumple: \omega^2= c^2 k^2. En general -para el caso de un medio isótropo- se tendrá una relación de la forma \omega^2 = f(k^2) . Si asumimos que la dispersión es muy pequeña podemos desarrollar por Taylor y obtener: \omega^2= c^2 + \Gamma k^4 . Esto nos lleva, asumiendo que \Gamma k^2\ << c^2 a la expresión final:

3. \omega(k)= ck - \beta k^3

Si proponemos que la ecuación de ondas que nos interesa tendrá una solución, la famosa onda plana, de la forma:

4 u(x,t)= e^{i(ckx - \beta \omega t)}

Podemos ver, teniendo en cuenta la acción del operador derivad parcial en esa solución de prueba, que la ecuación que buscábamos será:

5. u_t + c u_x + \beta u_{xxx} = 0

(Aquí se ha usado la notación de subíndices para las derivadas parciales).

El término responsable de la dispersión es el de la derivada tercera. Puede verse fácilmente que ahora si tenemos que la velocidad depende el número de onda. En particular se cumple c=\frac{\omega}{k}= 1 - k^2

Hago aquí un breve inciso para aclarar un punto que no suele comentarse en los textos sobre solitones y que tal vez pueda desconcertar a un físico que lee sobre este tema si intenta meditar sobre el asunto. Posiblemente el caso mas conocido de medio dispersivo sea un medio óptico (medio en el que pueden propagarse ondas electromagnéticas). En esos medios se tiene que la velocidad de la luz depende de su longitud de onda (asociada de manera únivoca a su número de onda). Sin embargo la ecuación de ondas en un medio óptico sigue siendo la ecuación de ondas lineal y no es necesario introducir ningún término con derivadas terceras (aparte de que la derivada temporal en la ecuación de ondas es de 2º orden y no de primero como en la ec. 5). ¿dónde esta el truco?. Bien, en la ecuación 2 hemos puesto la constante c, sin explicar su origen. Dicho origen depende según la física que estamos describiendo de diversos factores. En el caso de una onda electromagnética dependerá de la constante dieléctrica y la permitividad magnética del medio que aparecen en las ecuaciones macroscópicas de Maxwell (estas son básicamente las mismas que en el vacío sustituyendo las permeabilidades del vacío por las del medio). Estas constantes en general dependerán de la longitud de onda (y normalmente van a cumplir las relaciones de Kramers- Kronig). En el análisis de solitones la naturaleza de la dispersión se introduce como hemos señalado, y de ahí las diferencias.

Nótese que habíamos avanzado que la ecuación de KdV era una ecuación no lineal y que nuestra ecuación 5 es lineal. Eso significa que aun nos falta por introducir la no linealidad, y justificar su presencia. El punto clave es que si las ondas de distinto número de onda se propagan a distintas velocidades y por el análisis de Fourier, sabemos que una perturbación arbitraria estará compuesta por modos de diverso número de onda. Como estos se propagan a distinta velocidad se tendría que la forma inicial de la onda se iría difuminando con el tiempo y no tendríamos solitones. Necesitamos algo que contrarreste esa tendencia.

Pasamos a analizar un tipo sencillo de ecuación con un tipo simple de no linealidad, lo que se conoce como ecuación invíscida (osea, sin término de viscosidad) de Burguers:

6. u_t + (1 + u) u_x= 0

Buscaremos la solución de esta ecuación mediante el conocido método de características. En particular se tiene que u es constante en las líneas que cumplen \frac{dx}{dt} = 1 + u . Y que, por consiguiente, las curvas características son: x= (1 + u) t  + cte . De ese modo la solución general es:

7. u(x,t) = f(x - (1 + u)t) .

con f una función arbitraria. En definitiva, tenemos que para un perfil inicial u(x,0) = f(x) podemos obtener por el método de las características una solución única que propaga la solución a través de las curvas características. En realidad las cosas no son tan sencillas como parece y esta solución es válida solo localmente. En general pasado un cierto tiempo las soluciones, al menos una parte de las mismas, “estallarán” (en inglés blow-up) lo que corresponde físicamente con que el perfil de la onda se romperá. Nótese también que este transporte a través de las curvas características no es exactamente una onda en el mismo sentido que las soluciones de d’Alambert a la ecuación de ondas lineal.

Pero, con todo, ya tenemos los dos ingredientes básicos. Podemos combinar un término de dispersión con un término no lineal y obtener la ecuación de Korteweg -de Vries:

8. u_t + (1 + u) u_x + u_{xxx} =0

Si añadiésemos en vez de un término de dispersión uno de disipación obtendríamos otra ecuación bastante conocida, la ecuación de Burguers:

9. u_t + (1 + u) u_x + u_{xx} =0

También podríamos combinarlas en una ecuación que contuviese un término de dispersión y uno de disipación. Aquí se va a tratar el caso con dispersión, pero es interesante saber que si se añade disipación no se van a perder las características tan interesantes que cumplen las soluciones de la ecuación de KdV. Antes de proceder a analizar la ecuación simplemente señalar que mediante sencillos cambios de variables puede escribirse en su forma mas habitual:

10. \partial_t \phi + \partial^3_x \phi + 6\, \phi\, \partial_x \phi =0

Soluciones de la ecuación de KdV

Vamos a analizar, como habíamos comentado antes que era nuestro interés, soluciones tipo D’Alambert para la ecuación KdV. Es decir, soluciones del tipo u(x,t)=f(x-ct). Si sustituimos esta expresión de la solución en la ecuación 1o obtenemos una ecuación diferencial ordinaria:

11 . cf'  -6ff' + f'''=0

Integrando una vez se obtiene:

12. -cf  -3 f^2 + f''=A

dónde A es una constante. Si se usa f’ como un factor integrante y se integra una vez mas se obtiene:

13. 1/2(f')^2=f^3 + 1/2 f^2 + Af  + B

dónde B es una segunda constante arbitraria.

Para poder seguir avanzando es necesario imponer condiciones de contorno. Las mas sencillas posibles corresponden a elegir f, f' , f '' \rightarrow 0 cuando \xi =x -ct \rightarrow  \pm \infty . En ese caso A y B son 0 y la ecuación puede integrarse fácilmente dando el resultado final:

14. f(x-ct)= -1/2csech^2 (1/2c^{1/2}(x-ct - x_0))

dónde x_0 es una constante de integración.

De esta solución pueden deducirse de manera sencilla estas dos propiedades características que había obtenido experimentalmente Russell:

i. La amplitud es la mitad de la velocidad.

ii. Su anchura es inversamente proporcional a su altura, es decir, ondas mas alta se mueven mas rápido (y por la propiedad i son mas estrechas).

A nivel conceptual es interesante señalar lo que de particular tiene la existencia de esta solución de onda que se propaga. Su existencia depende de la competitividad entre dos fenómenos que actúan en sentidos opuestos: La dispersión (asociada a la derivada tercera) y la tendencia a destruir la onda (fenómeno shock wave que se vio cuando se analizó la solución de la ecuación invíscida de Burgues mediante el método de las características).

Esta es la solución mas sencilla posible, y se corresponde con la onda que observó Russell por vez primera. Pero definitivamente hay mas soluciones de esta ecuación. Esas soluciones se expresan en términos de las funciones elípticas cn de Jacobi. Cómo es demasiado asumir que todo el mundo este familiarizado con dichas funciones se darán aquí algunas nociones básicas e imprescindibles sobre el tema.

Primero definimos la integral:

15. v=\int_0^\phi \frac{d\theta} {\sqrt {1-m \sin^2 \theta}}

Esta integral es análoga a:

16. w= \int_0^\psi \frac{dt}{\sqrt{1-t^2}}

en 16 si ponemos w=sen (\theta ) se ve que w=arccsen (\psi) o que sen( w) = \psi , es decir, que 16 define la función trigonométrica arcsen. Esto llevo a Jacobi (y a Abel) a definir a partir de 15 dos nuevas funciones:

17. sn( v) = sen( \phi)

y

18. cn(v) = \cos (\phi)

Aunque en la definición no es transparente estas funciones dependen del parámetro m presente en la integral. Si quiere tenerse en cuenta este parámetro se usa la notación sn (v |m) y cn (v |m).

Dos casos especiales, m=0,1, permiten reducir la integral 15 a formas conocidas e integrables. En particular para m=0 se tiene:

19. v= \phi  y por tanto cn (v|0)= cos(\phi)=cos(v)

Para m=1 se obtiene:

20. v= arseh(cos \phi) y por tanto cn(v|1)=sech (v)

De aquí se puede concluir que sn v y cn v son funciones periódicas para 0 \le m  < 1 pero que la periodicidad se pierde para m=0.

Una tercera función elíptica posible es:

21. dn(v) = \sqrt {1-m\sin^2 \phi}

Algunas propiedades útiles de estas funciones son:

a) sn^2 + cn 2=1

b) dn^2 + k^2 cn^2=1

c) \frac{\mathrm{d}}{\mathrm{d}z}\, \mathrm{sn}\,(z) = \mathrm{cn}\,(z)\, \mathrm{dn}\,(z)

d) \frac{\mathrm{d}}{\mathrm{d}z}\, \mathrm{cn}\,(z) = -\mathrm{sn}\,(z)\, \mathrm{dn}\,(z),

e) \frac{\mathrm{d}}{\mathrm{d}z}\, \mathrm{dn}\,(z) = - k^2 \mathrm{sn}\,(z)\, \mathrm{cn}\,(z).

Ciertamente este brevísimo sumario de definiciones y propiedades no hace justicia a la rica rama de las matemáticas que son en si mismas las funciones elípticas, íntimamente ligada a la teoría de curvas elípticas y a algunos aspectos de la teoría de números. Algo mas de información puede obtenerse en la página correspondiente de wikipedia http://en.wikipedia.org/wiki/Jacobi%27s_elliptic_functions

Tras este breve inciso sobre funciones elípticas volvemos al tema de las soluciones de la ecuación de KdV. Si uno considera condiciones de contorno periódicas, es decir que la función en meno infinito valga lo mismo que en mas infinito (lo que equivale a transformar la recta real en un círculo) puede verse que la solución a la ecuación de KdV se puede escribir, haciendo unos pequeños cambios de variable y notaciones, como:

22. u(x,t)= 2a^2k^2 cn^2(a(x - 4(2k^2 -1) a^2t)

Korteweg y de Vries denominaron a estas soluciones ondas cnoidales. Aquí k es el módulo de la función elíptica cn. Puede verse que para k \rightarrow 1 cn converge a sech y de ese modo se recupera la solución de onda solitaria como un caso límite.

En este tipo de soluciones la relación entre amplitud y velocidad de la onda es mas compleja que en el caso de la “onda solitaria” y el análisis requiere el uso de propiedades de las funciones elípticas incluyendo valores que deben ser hallados numéricamente (o buscados en tablas) y no se tratará aquí. Mencionar que este tipo de ondas aparecen en fenómenos reales, como por ejemplo en ríos o canales. Esta foto antigua muestra ondas cnoidales en el canal de Panamá:

Se pueden obtener mas soluciones de la ec. de KdV. Hay una manera sistemática de hacerlo por un procedimiento iterativo. Ahí se postula un 1-solitón, que es básicamente la onda solitaria hábilmente reescrita y se postula una forma para forma para el 2-solitón que depende de la forma del 1-solitón y de unas constante. Sustituyendo esta forma en la ecuación se despeja el valor de las constantes y se obtiene el 2 solitón. Aplicando el procedimiento se obtiene el n-solitón. Esta técnica la desarrolló Toda. Usando esa técnica se puede obtener la siguiente expresión para el 2-solitón:

23. u(x,t)=12\frac{3 + cosh(2x-8t) + cosh(4x -64t)}{(cosh(3x - 36t) + 3 cosh(-28t))^2}

El motivo por el que escribo la expresión de esta solución, sin ofrecer los detalles de como se obtiene, es que analizando sus propiedades se puede ilustrar una de las características de los solitones que mencionamos en la introducción histórica, las colisiones de solitones.

Para t grande y negativo u(x,t) es asintóticamente igual a 2 sech^2(x - 4t - \phi) + 8 sech^2(x - 16t + \phi /2) mientras que para t grande y positivo es igual a 2 sech^2(x - 4t + \phi) + 8 sech^2(x - 16t - \phi /2) dónde \phi= log(3)/3 .

La interpretación de esta matemática es la siguiente. Para t negativos grandes tenemos dos solitones separado, uno a la izquierda y otro a la derecha, moviéndose ambos hacia el centro según avanza t. Para un entorno de t=0 se tiene que ambos solitones emergen en uno sólo que posteriormente, para t positivo y grande, se convierte de nuevo en dos solitones, iguales a los de t negativo, alejándose de x= 0. El único efecto de la interacción es introducir un pequeño cambio de fase que se corresponde a un pequeño retraso del solitón respecto a la posición que ocuparía si no hubiese interaccionado con su compañero. Aunque matemáticamente estas propiedades se establecieron muchos años después hay constancia de que en sus experimentos en tanques de agua Russell observo esta interacciones entre solitones.

Constantes de movimiento en la ecuación de KdV

Miura, en 1968, introdujo una función w mediante la relación:

24. u= w + \epsilon \frac{\partial w}{\partial x} + \epsilon ^2 w^2

dónde \epsilon es una constante arbitraria. Usando la definición de w, y sustituyendo en la ecuación de KdV se llega a.

25. \frac{\partial w}{\partial t} + \partial / \partial x (\frac {\partial ^2 w}{\partial x ^2} - 3 w^2 - 2\epsilon w^3)=0

\frac{\partial w}{\partial t} + \frac {\partial F_w}{\partial x} = 0

para todo \epsilon . Esto esta en la forma de una ley de conservación con F_w el flujo de w. Pero \epsilon es una constante arbitraria y por tanto tenemos un número infinito de leyes de conservación para funciones de la variable original u. Para verlo ponemos w(u) como una serie de potencias en epsilon:

26. w= \sum_{m=0}^\infty  \epsilon ^m w_m

Encontramos que w_0= u , w_1= - \frac{\partial u}{\partial x} , w_2= - \frac{\partial  ^2 u}{\partial x^2 - u^2} , etc. Estas ecuaciones de conservación pueden ser integradas sobre x desde – infninito hasta + infinito y asumiendo que la solución va a 0 en los puntos de frontera se llega a :

27. \frac {dI_n}{dt} = 0

I_n= \int_{ - \infty}^{+ \infty} w_n(u(x,t))dx

Aunque no justificaremos aquí el motivo puede verificarse que se pueden interpretar las dos primeras cantidades conservadas como, respectivamente, el momento y la energía de la onda.

Realmente hay diversos modos de obtener las leyes de conservación. Por ejemplo uno de ellos usaría técnicas de hamiltonianos, pero explicarlo nos llevaría a complejidades que no pretendo introducir en este texto.

Lo interesante es saber que si podemos hallar etas cantidades conservadas la ecuacion diferencial no tendrá comportamiento caótico.

Conclusión

Se han visto algunas de las propiedades mas sencillas de los solitones. Este tipo de solitones son ilustrativos de fenómenos interesantes que aparecen en el estudio de sistemas no lineales de ecuaciones en derivadas parciales diferentes al famoso caos (sensibilidad en condiciones iniciales). Aunque por motivos de mantener el texto en unas proporciones razonables se han omitido muchos aspectos señalar que, por ejemplo, puede aprovecharse lo que hemos aprendido sobre interacción no lineal de diversos modos para crear un modelo en que la fase de cada modo actúe de manera arbitraria y obtener un modelo para estudiar el fenómeno de la turbulencia débil. En general para hacer eso de una manera adecuada sería una buena idea introducir las técnicas de ecuaciones diferenciales estocásticas, lo cuál es un tema muy interesante en si mismo.

Aparte de sus relaciones con el caos los solitones son interesantes en si mismos tanto en su aspecto matemático como en física y resto de ciencias aplicadas ya que la ecuación de KdV y otras con similares características aparecen en sistemas naturales y en otros artificiales de gran interés práctico. Esto incluye temas tan dispares como la óptica no lineal o los impulsos neuronales que alguna gente cree que podrían estar debidos a ondas solitónicas en las membranas celulares de las neuronas.

Para concluir una importante aclaración final. Aquí se han tratado los solitones por así decirlo “analíticos”. Aquellos que hayan estudiado teoría de campos o teoría de cuerdas habrán visto la introducción de diversos tipos de objetos que también llevan el nombre de solitones y cuya relación con lo visto aquí es harto compleja de vislumbrar. En el caso de las teorías gauge estamos ante lo que se conoce como solitones topológicos. Se trata de cantidades conservadas debido a que los valores del campo gauge en el infinito (que tiene la topología de una 3 esfera) toman configuraciones que no pueden obtenerse unas de las otras mediante transformaciones continuas. Ese tipo de configuraciones pueden interpretarse como soluciones localizadas en una cierta región del espacio relativamente pequeña y con energía finita. Tiene por tanto características similares a partículas y en ese sentido se parecen a los solitones aquí estudiados. En el caso particular de teorías de gran unificación algunas de esas soluciones solitónicas puede verse que comparten algunas de las propiedades de los monopolos que introdujo Dirac en un intento de obtener una teoría simétrica del electromagnetismo. De hecho son una predicción ineludible de esas teorías de gran unificación y el hecho de no haberse encontrado requiere algún tipo de justificación (por ejemplo su dilucción durante la inflacción) si quiere mantenerse la consistencia de esas teorías de unificación. Ciertamente ese es un tema que no esta relacionado con lo que se ha visto aquí, pero es interesante señalar su existencia para evitar posibles confusiones con el término solitón.

Otro tipo de uso común en física de partículas de la palabra “solitón” aparece en la ecuación en derivadas parciales de seno gordón. Ese tipo de solitón puede estudiarse de manera en parte similar a lo visto aquí y en parte por razonamientos de tipo topológico. En ese sentido estaría un poco a medio camino entre ambos casos. No entraré a fondo en analizar esas posibles coincidencias pues no es aproiado para el propósito del presente texto.

Referencias

Una introducción sencilla al tema de los solitones dentro de un estudio general de los diversos aspectos de las ecuaciones no lineales es el libro de Henry D. I. Abarbanel M. I Rabinovich y M .M Suschik “introduction to nonlinear dynamics for physicists” disponible en Wrold Scientific.

Un texto clásico sobre teoría de solitones es: “Solitons: an introduction” por P. G. Drazin, R. S. Johnson editado por CAM BRIDGE TEXTS IN APPLIED MATHEMATICS .

Otro texto interesante, de un nivel matemático algo superior, es “An introduction to wave equations and solitons” escrito por Richard S. Palais. Esta disponible online en http://www.ma.utexas.edu/~uhlen/solitons/notes.pdf.

La wikipedia inglesa también es una buena fuente de información en sus entradas sobre solitones, la ecuación de kowerteg de Vries o las cnoidal waves.

En esas referencias puede encontrarse abundante información sobre lo que se ha tratado aquí y también sobre lo que no se ha tratado (método de scatering inverso, pares de Lax, etc).

Sobre el otro tipo de solitones, los usados en teorías cuánticas de campos, aparte de las introducciones usuales en los textos clásicos una referencia específica sería: “Solitons and instantons: An introduction” Por R. Rajaraman

50 cosas que hay que saber sobre las matemáticas

agosto 19, 2009

Hoy me encontré en una libreria de proposito general un librito con ese provocativo título.

Le ojeé rapidamente y vi que trataba bastantes temas de matem´tica moderna. Estos incluían, entre otros muchos, topologia, matemática discreta, programación lineal, geometrías no euclideas, probabilidad, teoria de juegos, etc.

Se nota que es un libro de divulgación, pero aún asi venían algunas fórmulas y daba la impresión de que se exponia de manera razonablemente rigurosa (sin perder la intención divulgativa) el temario propuesto.

Siempre me ha parecido que un error de la divulgación científca es su tendencia a presentar las cosas sin matemáticas. Al hacer eso se consigue que el riesgo de que el lector entienda cualquier cosa remotamente elacionada con la ciencia que se pretende divulgar es muy alta. En mi opinión es mucho mas interesante divulgar la matemática. No es necesario que el lector adquiera capacidad para usar con detalle la matemática que aprende sino que aprenda correctamente los conceptos y que se haga una idea de cuál es el uso posible de esa matemática.

Un tipo de lector ideal para ese libro podria ser el qu siguiera la serie de television producida por los hermanos Scott “numbers”. Muchos de los ocnceptos matemáticos nombrados en esa serie son introducidos en ese libro.

Debo aclarar que no he leido el libro (ya conozco esa matemática-al menos la mayoria de ella- por haberla estudiado formalmente) y que sólo me guio por una impresión. Pero vamos, que o muy mal lo ha hecho el autor, y lo poco que leí con detalle me hace a pensar que, por el contrario, ha heco una buena labor, o el libro es totalmente recomendable para cualquiera con un interés por las matemáticas.

Por cierto, otro público al que podria interesar ese libro es a los licenciados en física e ingeniería, para que vean que hay matemáticas mas allá del álgebra lineal, el cálculo en varias variables, las ecuaciones diferenciales y el análisis de fourier ;-).

La conjetura de Poincaré: I

junio 29, 2009

Posiblemente alguna gente recordará que en el 2003 hubo bastante revuelo en el mundo de las matemáticas. La causa era que por fin parecía haberse demostrado uno de los “problemas del milenio” del instituto Claymath, la conjetura de Poincare que enuncia que cualquier variedad compacta simplemente conexa es equivalente a la 3-esfera (a lo largo del post iré explicando que significan estos términos). El autor de la demostración era un peculiar matemático ruso, Grigory Perelman, basándose en los trabajos de Richard Hamilton (no confundir con Willian Rowan Hamilton, el de la mecánica hamiltoniana) sobre lo que se conoce como flujo de Ricci. en 2006 se le concederia, durante el transcurso del congreso internacional de matemáticas, celebrado en Madrid, la medalla fields de matemáticas. Eso sí, la rechazaría, pero eso es otro asunto.

En el 2007 Donal O’Shea publicó un libro dedicado a esta conjetura y su historia. La traducción al español es del 2008 y en este post comentaré el libro, y la conjetura en si misma.

El libro esta dirigido, aparentemente, a un publico genérico al que no se le presupone especiales conocimientos en física y matemáticas. Ciertamente hay mucho en ese libro que cualquiera puede aprovechar. No obstante algunos aspectos no tengo claro hasta que punto se pueden apreciar realmente bien si no se tiene una buena base en matemáticas, especialmente en topologia y en geometría de variedades. Aparte de los aspectos técnicos el libro es muy detallado en ls aspectos históricos y sociológicos. Yo he leído varios libros de historia de las matemáticas (y biografías de físicos y de matemáticos) y aún así he aprendido detalles muy interesantes en este aspecto en este libro.

El libro empieza contándonos la presentación de Perlman de sus resultados en una reunión de matemáticos a la que ha asistido el autor. Sirve para crear una atmósfera de expectación que justifica la existencia del libro

En los siguientes capítulos, dedicados ala antigüedad principalmente, empieza preguntándose por la forma del mundo. Esto le sirve al autor para presentar varios temas. Por un lado nos va a presentar la idea de como representar la superficie de la tierra en mapas y la idea de un atlas (conjunto de mapas que representan el total de la superficie terrestre). Esto es en el fondo la idea que esta detrás del concepto de variedad bidimensional. Cualquier entorno local de la misma puede ponerse en una correspondencia 1-1 con un trozo de \mathbb R^2 . Dependiendo de si esa correspondencia es continua, diferenciable o lineal a trozos así es la variedad (esta es una observación mía que no esta presente en el libro). También aprovecha para repasar la falsa idea de que en la edad media se creía que la tierra era plana. En realidad la gente culta sabía que la tierra no era plana desde al menos la época de la Grecia clásica. Si uno lo piensa es fácil convencerse de que debía ser así. De un lado tenemos la observación de que lo último que desaparece de la vista cuando un barco se aleja en el horizonte es el mástil, lo cual encaja con que la superficie de la esfera sea curva. Por otro lado tenemos que la sombra de la tierra en la luna durante un eclipse es un círculo. Yo añadiría que el hecho de que la luna se vea como un círculo desde diversos puntos de la tierra sólo es compatible con que la luna sea una esfera. y si la luna es una esfera uno puede imaginar que la tierra también lo és.

En cualquier caso hay documentos históricos que avalan estos hechos. En particular en la época de Colón estaba claro que la tierra era una esfera. Incluso se tenía una medida muy acertada de su radio. Precisamente por eso los portugueses rechazaron la propuesta de Colón ya que el trayecto que el proponía era demasiado largo. De hecho este dato fue bien conocido por los historiadores de siglos posteriores. La percepción del público general de hoy día de que en esa época se creía mayoritariamente en una tierra plana es algo reciente. Se debe a unos versos de Wasington Irving (el autor de “cuentos de la alhambra” entre otors libros) presentados en un acto conmemorativo que daban a entender lo contrario. La gente se quedó con esa cantinela y se ignoró la bien documentada verdad. Ciertamente extenderme tanto en eta anécdota dada la cantidad de cosas que debo presentar en este post parece excesivo. Pero no deja de ser inquietante plantearse cómo la percpecion general del público de hecos historicos trascendentales puede depender de aparentes nimiedades cómo las de un verso afortunado (o desfortunado).

En esos primeros capítulos presenta otros aspectos muy relevantes a lo largo del resto del libro. Por ejemplo, en el cuarto, los postulados de Euclides. Es bien conocido (por los aficionados a la divulgación al menos) que el quinto postulado abriría la puerta a las geometrías no euclideas.

En el tercer capítulo cuestiones sobre como a partir de datos locales, mapas detallados, podemos inferir aspectos globales sobre el mundo. Un atlas suficientemente detallado podria distinguir un mundo esférico de uno de forma toroidal incluso si no tuvieramos medos de ver el planeta desde fuera.

El siguiente capítulo, el cuarto, se pregunta sobre la forma del universo. Ahí presenta descripciones muy detalladas sobre aspectos de la 3-esfera muy curiosos. Muy agradable de leer ese capítulo. Además no olvidemos que la 3-esfera es una pieza clave en la conjetura de Poincaré. Y, por supuesto, generaliza el concepto de superficie al de variedad n-dimensional.

El quinto y sexto capítulo ya se sitúan en tiempos mas recientes. Nos habla sobre como se forjan las geometrías no euclideas en los trabajos de Gauss, Lobachevsky y Bolyai. También nos cuenta muchos detalles de la vida personal y profesional de estos matemáticos y de cómo era la sociedad de esos tiempos en Europa. Cubre aspectos generales de la sociedad y, sobre todo, de las características de las universidades de la época, y de la investigación matemática en general.

El trabajo de Gauss se centra en la geometría diferencial de las superficies bidimensionales. Ya Euler había trabajado en ese tema. La novedad del enfoque de Gauss es que hace hincapié en definir los objetos matemáticos (curvaturas principalmente) en términos de cantidades locales, independientes de como la superficie este embebida en \mathbb R^3 . La relación de esto con el 5º postulado esta relacionado con el hecho de que en una superficie curva las geodésicas (curvas de longitud mínima), que juegan el papel de las rectas en esa superficie no cumplen en general dicho postulado. Por ejemplo en la esfera por un punto exterior a una recta (círculo máximo) pasa un número infinito de rectas.

Los capítulos 7 y 8 están dedicados a Riemann. En el aspecto sociológico es muy interesante leer como Alemania no había sido gran cosa en matemáticas hasta el siglo XIX y cómo la inversión económica cambió eso para sorpresa del resto de países. Hoy día se asocia a Alemania con la matemática y la física y se piensa que siempre han sido buenos en esos asuntos. Pero según cuentan en el libro eso surgió a raíz de disputas territoriales entre las incipientes universidades de la época, en particular Gotinga (famosa mas tarde, en el siglo XX, cómo cuna de muchos de los padres de la mecánica cuántica) y Berlín.

Riemman generalizó los resultados de Gauss para dimensiones superiores. Cuando la variedad tiene mas de dos dimensiones se puede considerar las curvaturas de los diversos planos bidimensionales en esa superficie. Eso da lugar a un tensor, el tensor de Riemann.

El porque en este libro se tratan tanto asuntos geométricos, cuando la conjetura de Poincaré es un tema de características topológicas, es que la prueba de esa conjetura usa el tensor de Ricci, que es una contracción del tensor de Riemann Estos temas suelen ser bien conocidos por los físicos, al menos los teóricos, debido a la conexión entre estas geometrías y la relatividad general. Son también temas que han sido tratados extensamente en diversos libros de divulgación. Es por eso que no me he extendido demasiado en las explicaciones técnicas. A partir de aquí, que es dónde empieza la parte esencial, seré mas detallado.

Los capítulos 9 y 10 están dedicados a Poincaré, y en parte a Kleín. Como siempre la parte histórico/social es excelente. En la parte matemática nos cuenta, entre otras cosas, cómo Poincaré sentó las bases de la topología, creando además algunas herramientas fundamentales para el estudio de esas propiedades. Una vez conocidas esas bases se explica en que consiste la conjetura. Siendo esta la parte fundamental del tema entraré aquí a dar esas nociones matemáticas en una forma técnica. Realmente el libro se queda a un nivel divulgativo. No sé realmente cuanto podrá apreciar un lector sin cualificación matemática a partir de esa exposición. Dado que soy estudiante de matemáticas y que además me dedico a la teoría de cuerdas mis conocimientos en geometría diferencial y en topologia son relativamente buenos y sé lo que esta intentando en estos capítulos. Realmente la parte que para mi resulta novedosa es la que viene en los capítulos siguientes. No obstante no todos los físicos están familiarizados con la topología así que confío en que les puede resultar útil la introducción somera que haré sobre esta disciplina a partir de ahora.

Primero empezaré explicando que entiende un matemático por una topología.

Las nociones de continuidad en cálculo se suelen dar en términos de epsilones y deltas, pero eso en esencia es hablar de entornos abiertos de la recta real, y el caso es que si uno lo analiza uno usa sólo 3 propiedades básicas de los abiertos.

Una topología es recoger esas tres propiedades y convertirlas en axiomas.

Sea X un conjunto y sea Y={Xn} una colección finita o infinita de subconjuntos de X, X e Y forman un espacio topológico si
i. el conjunto vacío e Y pertenecen a Y
ii. Cualquier subcolección finita o infinita {Zn} de Xn tiene la propiedad de que la unión de todos los Zn pertenece a Y
iii. Cualquier subcolección finita {Zm} de los Xn tiene la propiedad de que su intersección pertenece a Y.

Los Xn son los abiertos de esa topología. Conviene hacer una pequeña distinción, que no siempre se explica en los libros de topologia/geometría para físicos. Los intervalos epsilón y deltas del cálculo de una varible, y sus generalizaciones elmentales, los discos abiertos de radio epsilon/delta en el plano, las bolas abiertas en tres dimensiones, etc, son un tipo especial de abiertos, pero, ciertamente, hay conjuntos que son abiertos y no son de esa forma. Esos subconjuntos especiales de la topología forman una base de la misma.

Bien, una vez que tenemos definidos los abiertos cualquier definición que hagamos en términos de esos conjuntos va a ser una definición topológica. Por ejemplo se dice que un conjunto es cerrado cuando su complementario es abierto. Otra noción topologica de interés (en particular necesaria para formular la conjetura) es la de compacidad. Intuitivamente en \mathbb R^n un compacto va a ser un conjunto cerrado y acotado (la distancia entre dos cualesquiera de sus puntos es finita). Pero esa no es realmente la definición de compacidad. Se puede usar esa definición (de hecho en algunos sitios se hace así) pues el teorema de Heine-Borel nos dice que todo conjunto cerrado y acotado en \mathbb R^n es compacto. Pero como dije una noción topológica debe darse en términos de los abiertos. Vamos a ello.

Primero debo explicar la idea de recubrimiento. Dado un subconjunto, S, de un espacio topológico, X un recubrimiento de S es una colección de conjuntos abiertos Rn tal que S esta incluido en la unión de todos los Rn. Se dirá que un conjunto es compacto cuando todo recubrimiento del mismo admite un subrecubrimiento (un cubrimiento con un un subconjunto de la colección recubridora)finito. La noción de compacidad es útil por muy diversos motivos. Una es que, por el teorema de Heine-Borel, podemos caracterizar los cerrados y acotados, un tipo de conjuntos interesante, mediante esta propiedad.Oto aspecto útil es que si queremos demostrar algo sobre un compacto nos basta demostrarlo sobre cualquier elemento del conjunto recubridor y asegurarnos de que la propiedad demostrada no se pierde cuando tenemos una unión finita de esos elementos. Es importante hacer notar que como en un compacto todos los recubrimientos admiten subrecubrimiento finito podemos elegir los Rn de la forma que mas nos convenga.

Tan importante es la noción de compacidad que la mayoria de resultados toopológicos van a estar referidos a espacios compactos. Los no compactos son mucho mas difíciles de estudiar.

Antes de seguir con tecnicismo haré una aclaración importante. Quienes hayan leído en algún libro de divulgación sobre topología lo mas probable es que se la hayan definido algo así como “geometría de las superficies de goma”, o el estudio de las propiedades que se mantienen bajo operaciones de estirar/contraer y de identificar. Eso se parece muy poco a lo que he explicado hasta ahora. El caso es que conviene distinguir dos aspectos de la topologia, Por un lado esta la topologia de conjuntos. Al generalizar las propiedades de los abiertos usados en las definiciones de cálculo nos permite formalizar el mismo y extenderlo a espacios abstractos. Esto es útil para dar un marco común a todas las ramas de las matemáticas. Estas nociones de topologia de conjuntos son fundamentales en las definiciones que se hacen en conceptos relacionados con teoría de la medida, análisis funcional, etc. Y por supuesto también son esenciales en definiciones de geometría (tanto diferencial cómo algebraica). Por otro lado tenemos otro aspecto, que enlaza con la definición dada en los textos divulgativos. Nos va a interesar poder conocer cuando dos espacios son indistinguibles entre si a partir exclusivamente de sus propiedades topológicas.Pues bien, esos espacios equivalentes topologicamente se corresponden a la noción intuitiva de estirar/contraer e identificar. Enseguida veremos la definición técnica de estos conceptos.

Había dicho que la introducción de una topología permitía definir el concepto de función continua de forma abstracta. Vamos con esa definición. Una función f:M->N entre dos espacios topológicos se dice continua si la imagen inversa de un abierto de N es un abierto de M. Sóo con esto se puede dar una definición rigurosa de la idea de que dos espacios son deformables el uno en el otro, es decir topológicamente equivalentes. Dos espacios son topologicamente equivalentes, homeomorfos, cuando existe entre ellos una aplicación continua y con inversa continua, tal aplicación se dice que es un homeomorfismo.(Normalmente se añade la condición de que esa aplicación sea biyectiva). Lo interesante de esto es que si dos espacios son homeomorfos van a tener las mismas propiedades topológicas.

Y tenemos casi todos los conceptos involucrados en el enunciado de la conjetura. Vamos a por los que nos faltan.

Una noción topológica es la de espacio conexo, intuitivamente un espacio es conexo cuando no esta hecho de varias partes separadas.Por ejemplo R 2 sería conexo, un círculo en el plano sería conexo. Sin embargo dos círculos sin puntos en común, por ejemplo círculos de radio uno con centro en (-5.0) y (0,5) no lo serían.

La definición rigurosa de este concepto es:

Un espacio topológico X es conexo si no puede ser escrito cómo X = X1 U X2 dónde X1,X2 son ambos abiertos y X1 Int X2 = Conjunto vacío.

Es fácil probar, no lo haré, que esta definición es “topológica”, es decir que dos espacios, uno conexo y otro no, no pueden ser homeomorfos.Hay más definiciones referentes a la conectividad, conexo por arcos, etc. Pero con esta nos vale.

Nos falta ir un pequeño paso más allá de la mera noción de conexo para poder enunciar la conjetura de Poincaré. Necesitamos explicar que es un conjunto simplemente conexo. Eso requiere entrar en el tema de la homotopía. Para exponer esto voy a seguir el esquema de la wiki, más que nada para aprovechar algunas fotos.

Dos aplicaciones continuas (entre dos espacios topológicos X, e Y) f,g:X ->Y se dicen homotópicas si existe otra aplicación (continua también) H: X x [0,1] -> Y (la x hace referencia al producto cartesiano, [0,1] es el intervalo unidad cerrado) tal que:

H(x,0)=f(x)
H(x,1)=g(x)

Un ejemplo importante es considerar las diferentes clases (homotópicas) de mapas del círculo, S^1, a un espacio X:

S^1 \rightarrow X

la estructura resultante es el importantísimo grupo fundamental. Es este grupo el que nos permitirá definir lo que es un espacio simplemente conexo.

Mas formalmente el mapa de un círculo en un espacio topológico la podemos dar mediante la idea de lazo.

Sea X un espacio topológico, y p un punto fijo de X. Un lazo con base en p es una aplicación continua que verifica γ(0) = γ(1) = p.

El producto α * β de dos lazos α y β se define como . Esto es, el lazo α * β primero recorre el camino de α, pero a “doble velocidad” y después el de β, también a doble velocidad.

Esto nos lleva al concepto de clases de homotopía de lazos, y de ahí al grupo fundamental.

as clases de homotopía son las clases de equivalencia debidas a la relación de ser homotópico. Dos lazos con base en un punto común p son homotópicos si existe una aplicación continua H:[01]x[0,1] ->X tal que

H(s,0)=\alpha (s)
H(s,1)=\beta (s)
H(0,t)=p

El producto de dos clases de homotopía de lazos [f] y [g] se define como [f ∗ g]. Puede demostrarse que este producto está bien definido al ser independiente de la elección de representantes. Este producto nos permite obtener una estructura de grupo (véase la entrada anterior del blog para una introducción a la teoría de grupos): el elemento neutro será la clase [γ] del lazo trivial definido como γ(t) = p para todo t; el inverso de la clase de un lazo [f] será la clase del mismo lazo recorrido en sentido contrario (es decir, f − 1(t) = f(1 − t))

El grupo fundamental de un espacio topológico X basado en un punto p \in X , notado como \pi_1(X,p) , es el conjunto de clases de homotopía de curvas cerradas con la operación yuxtaponer clases. El subíndice 1 en el pi hace referencia a que existen otros grupos de homotopía. La definición del grupo n-ésimo de homotopia sigue la misma pauta, sustituyendo el círculo por la n-esfera. Siendo útiles hay que decir que el grupo mas importante es, con diferencia, el primero, de ahí lo de fundamental. Aquí he definido este grupo. En los cursos introductorios de topologia se suelen dar algunas técnicas elementales para el cálculo del mismo. También en esos cursos se suele mencionar un aspecto importante de este grupo. Dos espacios que tienen el mismo grupo de homotopía se dice que son homotopicamente equivalentes. Se cumple, además, que si dos espacios son homeomorfos son homotópicos, pero no a la inversa. Justo esa falla de que dos espacios homotopicos no sean necesariamente homeomorfos es la que esta detrás de que la conjetura de Poincaré no sea una trivialidad.

Este grupo de homotopía nos va a permitir definir la noción de conexidad simple que aparece en el enunciado de la conjetura. Un espacio se dice simplemente conexo si su grupo fundamental es trivial. Intuitivamente esto significa que cualquier curva cerrada en el espacio es homotópica (contractible) a un punto.

Bien, con esto ya he explicado todas las nociones implicadas en la conjetura que dí al inicio del post. En otra entrada explicaré cómo se demostró la misma, dando definiciones técnicas de algunos de los conceptos que en el libro vienen explicados de manera intuitiva. Mi intención era haber explicado todo de una sola vez, pero para ello tendría que renunciar a unos mínimos de rigor explicativo o hacer un post excesivamente largo, opciones ambas que no me parecen oportunas.

Aunque volveré sobre el libro en la siguiente entrada dedicada al tema no concluiré esta sin aclarar que en los capítulos subsiguientes el autor hace un buen trabajo exponiendo las ideas que llevaron a la demostración. También da apuntes sociológicos (de algunos de los cuales el autor fue testigo de primera mano) relacionados con el desarrollo de la topología en el siglo XX. Con todo ello estamos ante un libro excelente en el terreno matemático y mas excelente aún en el terreno de sociología e historia de la matemática. Eso sí, en este blog comenté, en el post, “El reto de Fermat”, otro libro-titulado igual que el post- dedicado a otro gran problema matemático recientemente, la conjetura de Fermat. Ese libro, también excelente, entraba en bastantes mas tecnicismos que este. Tal vez algunos lectores con una buena formación matemática, pero que no saben nada sobre la conjetura, y que puede que no sean expertos en topologia, echen de menos un libro de esas características. Pero eso no le quita un ápice de mérito al libro de O’Shea. Simplemente deja abierto el camino a que otro autor haga otro tipo de libro sobre la conjetura.

Por cierto, llevo ya varios post con primeras partes sobre temas diversos. Intentaré ir poniendo las correspondientes continuaciones.

Teoría de grupos y física I: conceptos básicos

junio 3, 2009

Una de las ramas de la matemática cuyo uso en física es fundamental es la teoría de grupos, en particular la teoría de grupos de Lie. Reflejo de esa importancia es que el modelo standard de partículas, la teoría sobre la naturaleza mas sofisticada y fundamental sobre la naturaleza que esta verificada experimentalmente se conoce, incluso en los libros de divulgación cómo SU(3)xSU(2)xU(1). Y en esos mismos libros de divulgación posiblemente se habrá podido leer de modelos de gran unificación tipo SU(5) ó SO(10). Aparte esta el hecho de que formalmente todas las partículas del modelo standard pertenecen a representaciones del grupo de Lorentz. En este post (y los que le siguen) intentaré explicar que significan, y que utilidad tienen, esos símbolos.

Antes de eso, no obstante, señalar que pese a su importancia la teoría de grupos no siempre se enseña en una licenciatura de físicas, incluso en al especialidad de teórica. Por ejemplo, ahora mismo, en el plan actual de la UAM esta ausente. Ciertamente casi cualquier estudiante de físicas sabrá, una vez cumplimentado en primer curso el correspondiente curso de álgebra lineal, que SU(2) es el grupo de matrices unitarias especiales de dimensión 2, pero, ciertamente de saber eso a entender su uso en teoría cuántica de campos media un pequeño abismo.

Eso sí, a lo largo de los estudios la gente habrá oído comentar varias veces que tal o cuál cosa de mecánica cuántica (no relativista) se puede explicar de una manera mas elegante mediante grupos. Eso incluye cosas cómo el momento angular, los coeficientes de Clebs-Gordon y alguna cosa más. Posiblemente alguno se ha quedado con ganas de ver algo sobre el tema. Intentaré ver algo al respecto, pero me centraré mas en los usos de la teoría en física de partículas.

Una última puntualización antes de entrar en materia. La forma de ver exponer la teoría de grupos varia mucho de los textos escritos para físicos a los textos escritos para matemáticos. En este post expondré los resultados en el estilo de los físicos de modo que pueda leerlo el mayor número posible de gente. Pero, aparte, comentaré la forma en que se ven esos conceptos en la literatura matemática para que cualquier con un bagaje en matemática moderna pueda ver la forma “verdadera” de dichos conceptos. Eso sí, asumiré que ese lector matemático ya conoce topologia, geometría diferencial en variedades y cosas así.

Empecemos ya con la materia. Un grupo (G, .) es un conjunto de elementos en los que se introduce una operación interna, que denotaré por un punto “.” (ocasionalmente usaré el signo + para esa operación en los lugares dónde su uso sea mas natural), que cumple las siguientes propiedades:

i) Asociativa: a.(b.c)=(a.b).c \forall ~a,b,c \in~G
ii) Elemento identidad: \exists ~ e~ t.q. ~ e.a=a.e ~\forall a \in G
iii) Elemento inverso: \forall a \in G \exists ~ a^{-1} ~ t.q.~ a.a^{-1}=a^{-1}.a=e

Si además la operación “.” cumple la propiedad conmutativa se dirá que el grupo es Abeliano.

Vamos a ver algunos ejemplos:

(\mathbb Z,+) , el conjunto de números enteros con la suma usual, es un grupo abeliano; donde el elemento neutro es el 0, y el simétrico de x, es -x.
(\mathbb Z_n,.) Grupo cíclico de orden n. Es el grupo generado por un único elemento a y sus potencias hasta orden n. Esta última es la identidad, esto es {a,a^2, a^3,...,a^n=e}. No entraré en muchos detalles sobre este grupo. En el caso mas sencillo dónde los elementos del conjunto son números enteros los generadores del grupo son los enteros que son primos relativos con n. De hecho puede demostrarse que todos los otros casos son equivalentes (isomorfos) a este. Sin embargo este tipo de grupos aparecen de manera abstracta en, por ejemplo construcciones topológicas como la homotopia o la homologia.

Estos dos ejemplos anteriores son grupos discretos, es decir, el conjunto G tiene un número finito de elementos. Aunque son interesantes en si mismos y útiles en varias ramas de la matemática y la física nos va a interesar mas el caso de los grupos continuos, es decir, aquellos en los que el conjunto G tiene un número infinito (no numerable) de elementos. Ejemplos de estos grupos van a ser los que aparecían al principio, los U(n), SU(n), SO(n), etc .

Grupo unitario U(n): Conjunto de las matrices unitarias nxn, con la operación “.” el producto de matrices. Es decir, las matrices que cumplen U^{\dagger}.U=U^{\dagger}.U=\mathbb I . Para n>1es no abeliano. Sin embargo U(1) es abeliano. Se corresponde a las transformaciones de fase e^{i\theta}.

Grupo especial unitario SU(n): Grupo de las matrices unitarias con determinante unidad.

Grupo ortogonal SO(n): grupo de la matrices ortogonales, es decir, que cumplen A.A^T=A ^T.A=\mathbb I .

Voy a detenerme un poco en este último grupo porque nos va a permitir ver el motivo por el cuál los grupos son importantes en física. En los cursos de álgebra lineal elemental se muestra cómo las operaciones geométricas de girar un vector por un ángulo \theta se corresponde con una matriz ortogonal de dimensión 2: \left( \begin{array}{cc} cos{\theta} & -sen{\theta}  \\ sen{\theta} & cos{\theta} \end{array} \right)

Pues bien, esta matriz se puede ver que es, para cualquier valor de \theta un elemento de SO(2). Igualmente las matrices de SO(3) se corresponden a la operación geométrica de giros (Si quisiéramos incluir reflexiones tendríamos que permitir matrices con determinante -1 y tendríamos el grupo O(n)). En física hay muchos problemas que tiene simetría rotacional, es decir, que el problema no cambia si el conjunto de todas las partículas y/o campos involucradas en el problema son sometidos a una rotación. Esto nos da ya una idea de la íntima relación que va a haber entre grupos continuos y física.

Un poco mas formalmente puede decirse que los grupos de rotaciones son los grupos que dejan invariante el producto escalar de dos vectores. Este producto viene definido por una métrica. Los grupos SO(n) se corresponden a la métrica usual en \mathbb R^n . Antes hablé del grupo de Lorentz. Este es el análogo al grupo SO(n) cuando en R ^4 se tiene, en vez de la métrica euclidea usual, la métrica de Lorentz, i.e. la métrica diag (-1,1,1,1). Se suele denotar el grupo de Lorentz mediante la notación SO(3,1). Si además de rotaciones permitimos traslaciones hablamos del grupo euclideo para el caso de la métrica usual y del grupo de Poincaré para la métrica de Lorentz.

Voy a hacer un pequeño inciso destinado a los matemáticos. En física la mayoría de grupos continuos van a ser grupos matriciales y por “continuo” puede entenderse, hablando vagamente, que los elementos de cada matriz posible van a estar determinados por unos ciertos parámetros. Es decir, que los elementos de la matriz van a ser funciones de un cierto número de variables y la continuidad del grupo viene a decir que esas funciones son funciones continuas (entendidas como funciones de variable real).

En matemáticas se quiere tener una definición general mas abstracta. Para ello se introduce el concepto de grupo topológico. Un grupo topológico es un grupo en el que el conjunto G es un espacio topológico. Se exige, además, que las operaciones de grupo sean compatibles con la topología, es decir que la multiplicación del grupo G × G -> G y la operación de inversión G -> G sean aplicaciones continuas. Aquí, G × G es visto como un espacio topológico con la topología producto.

De hecho se suele ir un paso más allá. En física interesan los grupos de Lie. Estos aparte de continuos deben ser diferenciables. Esto nos lleva, en terminología moderna, a decir que un grupo de Lie es una variedad diferencial en las que operaciones de grupo son funciones \mathbb C^\infty. Mas adelante introduciré la noción de álgebra de Lie en términos matriciales. Anticipar que en términos matemáticos el álgebra de Lie se corresponderá con el conjunto de los vectores invariantes por la izquierda bajo la acción del grupo, que, en última instancia puede verse que se corresponde con el espacio tangente en la identidad.

Sigamos, tras ese paréntesis para matemáticos, con algunas nociones más.

Dados dos grupos G=(g1,g2,…} y H={h1,h2,….} se define su producto directo GxH= {g_ih_i} con la ley de multiplicación g_kh_l.g_mh_n=g_kg_m.h_lh_m

Esto ya nos permite entender la notación usada al principio cuando decíamos que el modelo standard es SU(3)xSU(2)xU(1). Ciertamente entender plenamente el significado de esa notación es mucho mas complicado que todo lo visto hasta ahora, pero, en esencia, es lo que he puesto antes, el producto directo de esos grupos.

Saber si un grupo dado puede o no escribirse como producto de otros grupos es algo importante. Para poder estudiar eso vamos a introducir otro concepto, el subgrupo invariante.

Un subconjunto N de un grupo G es un subgrupo invariante de G si \forall t~ \in ~ N ~ r.t.r^{-1} ~ \in ~ N . Es decir, que la operación de multiplicar un elemento de N por cualquier elemento de G no nos saca de N. Se ve trivialmente que cualquier componente en un producto directo de grupos es un subgrupo invariante del grupo producto. Se dice que un grupo que no contiene ningún subgrupo invariante es un grupo simple. SU(n) es un grupo simple. U(n), por el contrario, no lo es. Puede verse que U(n) se puede descomponer en el producto SU(n) xU(1). Dada la relevancia de U(1) se introduce un concepto mas. Se dice que un subgrupo es semisimple cuando puede escribirse como producto de otros grupos mas sencillos ningunos de los cuales es U(1). Según esto U(n) no sería un grupo semisimple.

Para concluir este post voy a introducir brevemente un concepto más, de capital importancia, la representación de un grupo. Una representación es la realización de los elementos del grupo como matrices.

En el caso de los grupos que en su definición ya interviene el concepto de matriz (SU(n), O(n), U(n), etc) sto no parece aportar nada especial. En el caso de otros grupos, como el caso de los grupos finitos, esto si tiene su utilidad. No obstante es muy importante dejar claro que incluso en los grupos cuya definición se hace en términos de matrices tiene sentido hablar de representaciones. Veamos porque.

Pensemos en SO(3) . En su definición viene dado por matrices 3×3 que actúan sobre vectores de dimensión 3. En mecánica clásica tenemos una magnitud física, el momento angular, que esta definida para sistemas que tiene invarianza bajo rotaciones. La expresión convencional para el momento angular es \vec L=\vec r x \vec p . En cuántica el radio r y el momento lineal p se sustituyen por los correspondientes operador posición y operador momento. Análogamente se introduce el operador momento angular \hat L=\hat r x \hat p .

Clasicamente el momento angular puede tomar cualquier valor. Sin embargo cuánticamente el operador momento angular (al menos para ciertos sistemas, como los estados ligados del átomo de hidrógeno) puede verse que va a tomar una serie discreta de valores. Más aún, clasicamente pueden medirse simultáneamente el valor del momento angular total L (o su cuadrado) y todos las componentes, (Lx, Ly, Lz), del momento angular. Cuanticamente sin embargo los operadores Li aunque conmutan con el operador L ^2 no conmutan entre sí y por tanto no pueden medirse simultáneamente sus valores (normalmente, por convenio se opta por medir Lz). Esto nos lleva a que tendremos que caracterizar los estados en términos de (L^2 ,Lz) . Esto nos lleva a que tendremos los autoestados caracterizados por valores (l, m) dónde l es el autovalor respecto a L^2 y m el autovalor respecto a Lz. Se puede demostrar, además, que si los valores posibles de m para un l dado son m={l, l-1, l-2,….,0, -(l-1), -(l-2), …,- l}.

Tal vez el lector se haya despistado un poco con la física de los párrafos precedentes y se pregunte su relación con as representaciones. Pasemos a aclararlo. Actuando sobre funciones arbitrarias el operador L esta definido en términos de los operadores r y p, según dijimos antes. Sin embargo si nos restringimos a autofunciones con momento angular y tercera componente angular bien definidos podremos representar L^2 y los Li mediante matrices nxn. Aquí la dimensión n estará relacionada con el autovalor l. En concreto será el número de valores posibles de m para un l dado. Así, para l=0 tenemos un sólo valor posible. Para l=1 tenemos 3, para l=2 tenemos 5 y, en general n= 2l + 1. Según esto para estados de momento l=1 el grupos SO(3) vendría representado por matrices 3×3, para l=2 por matrices 5×5, etc. En realidad en cuántica en vez de SO(3) se va a tomar su grupo recubridor, que es SU(2) y las cosas son ligeramente diferentes. Más aun, estrictamente el momento angular esta asociado a los generadores infinitesimales del grupo de Lie (su álgebra de Lie). De hecho lo que en última instancia se estudia son las representaciones de ese álgebra, que generan las representaciones del grupo. No obstante se suele referir a la representación del álgebra como la representación del grupo sin hacer mayor distinción. No ahondare en estos conceptos ahora, lo pospondré para posts venideros.

En física de partículas las cosas van a ser ligeramente diferentes. Los grupos SU(n) se van a corresponder no a simetrías externas globales sino a simetrías internas locales. Asociados a esos grupos van a estar los bosones vectoriales. En el caso U(1), correspondiente al electromagnetismo, ese bosón vectorial es el fotón, mediador de la interacción electromagnética. En el caso de SU(3) esos bosones serán los gluones, mediadores de la interacción nuclear fuerte.

Veremos que los bosones vectoriales estarán asociados a una representación específica de esos grupos, la representación que los define (conocida como representación adjunta). Físicamente los bosones interactuan con fermiones cargados bajo ese grupo de simetría. Así los fotones interactuan con electrones con carga eléctrica y los gluones sobre quarks que (aparte de carga eléctrica, irrelevante para lo que aquí quiero mostrar) tienen carga bajo SU(2), conocida como carga de color.

En términos matemáticos tenemos que los fermiones van a ser algo así como los vectores sobre los que actúan las matrices. Para aquellos con un cierto nivel en matemáticas decir que las teorías gauge se corresponden a conexiones en fibrados principales y que los fermiones se corresponden a fibrados vectoriales asociados.

En pos ulteriores iré aclarando más que significan todas estas cosas. Introduciré el concepto de suma directa de representaciones y así podré explicar el significado de expresiones del tipo:

(2×2)x2=(3+1)x2=(3×2)+(1×2)=4+2+2

Pero eso será en otro post. El tema de la teoría de grupos es extenso y difícilmente pueden condensarse en una única entrada todos sus aspectos relevantes.

El reto de Fermat

enero 5, 2009

En 1993 una ecuación matemática salto a las primeras planas de los periodicos. Eso, desde luego, es algo tremendamente nhabitual.

la ecuación en cuestión era:

x^n + y^n = z^n

Para n=2 se tiene una ecuación que posiblemente le sonara a mucha gente,  el teorema de Pitagoras. Menos gente sabrá identificar el contexto general en que surge esa ecuación. Sin embargo a esa ultima porción de lectores posiblemente le suene Fermat, y en particular tal vez hayan oído hablar del ultimo teorema de Fermat. Después de todo el año pasado se estreno una película española titulada “la habitación de Fermat” sobre la que prefiero no emitir ningún juicio (por si acaso xD). Pues bien, esa ecuación es la que esta relacionada con el ultimo teorema de Fermat. En concreto dicho teorema afirma que para n=2 la única solución de la misma es la solución trivial (en la que una de las incógnitas es 0).

El teorema es famoso, al menos entre los matemáticos por la anécdota de que Fermat lo dio a conocer como una nota ala aritmética de Diofanto dejando el lacónico comentario de “en el estrecho margen de este libro no puedo escribir la demostración del mismo”. Y si hemos de atenernos al hecho de que la demostración del mismo por parte del matemático Andrew Willes en 1993 (400 años después del anuncio de Fermat, y, de hecho, la demostración original tenia errores que tardaron un año en corregirse) ocupaba alrededor de 300 páginas sin duda debemos darle la razón a Fermat, no cabe.

Obviamente la demostración de Willes usa técnicas matemáticas que no existían en el tiempo de Fermat y ambas demostraciones no podían ser iguales. De hecho lo mas probable es que la demostración original de Fermat fuese falsa.

Los detalles de la demostración de Willes escapan el alcance de cualquiera que no sea (muy) experto en teoría de números. Sin embargo en la colección “ciencia abierta” de nívola se editó un libro con el mismo titulo que este post que hace un repaso de la historia del teorema y da una idea de las técnicas matemáticas empleadas.

Cualquiera con un conocimiento básico de matemáticas (a nivel de enseñanza secundaria) podrá seguir casi todos los capítulos. Solo el ultimo le resultara posiblemente inasequible.

La cuestión que se podrán plantear algunos lectores es si merece la pena leer un libro así salvo que uno este interesado en la teoría de números. Debo admitir que yo no soy alguien de ese grupo. Si he leído el libro es porque estoy intentando aprender geometría algebraica (de uso frecuente en teoría de cuerdas) y mucho material sobre esa materia hace referencia a la teoría de números. Aparte en la introducción del libro se informa de que a lo largo del texto se va a ir viendo como los intentos de demostración del teorema dieron lugar (o al menos contribuyeron decisivamente) al nacimiento de la teoría de anillos y sus ideales. Si alguien ha estudiado álgebra abstracta, donde se estudian tales cosas, tal vez comparta mi impresión de que se presentan esos conceptos de forma bastante aburrida y que no se motiva mucho al estudio de los mismos. Como quiera que para estudiar (a la manera de los matemáticos) geometría algebraica es necesario estudiar álgebra conmutativa y esta requiere manejarse bien con anillos e ideales el libro sirve bastante bien como motivación, y, aparte pone en conte3xto ese material ayudando a ver para que sirve.

Otra conclusión que he extraído del libro es que la formación en matemática de los físicos es proclive a generar una idea un poco incorrecta sobre los méritos de los matemáticos del XIX. Yo, desde luego, no tenia particularmente una impresión especialmente favorable sobre Dedekind, y resulta que es el creador de la teoría de ideales. Es mas, pensaba que todo ese material de álgebra abstracta había surgido en la primera mitad del siglo XX.

El ultimo capitulo del libro, como señale antes, es mas arduo. Y aún así no presenta el material necesario para entender a fondo la demostración de Willes (cosa, por otro lado, totalmente imposible). Hace, sin embargo, un muy buen trabajo presentando la teoria de funciones moduares, curvas elípticas y la parte relevante de la teoría de Galois sobre extensiones de cuerpos.

Estos conceptos confluyen en la demostración del teorema de Fermat a través de lo que se conoce como conjetura modular (ascendida hace poco a la categoría de teorema). Esta conjetura viene a decir: “Toda curva elíptica con coeficientes racionales es modular”. A partir de esa conjetura puede demostrarse el teorema de Fermat y eso es lo que hizo Willes, demostrando para ello un caso particular (curvas elípticas semiestables),pero suficiente para sus propósitos de la conjetura.

Voy a dar unas nociones mínimas de que son estos objetos.

Una curva elíptica es el conjunto de los puntos que satisfacen la condición P(x,y)=0 donde P es un polinomio en dos variables de grado 3 con coeficientes complejos. Si x e y son variables reales tenemos una curva real. Si se permite que sean complejos tendremos una curva compleja, que, geométricamente, es una superficie. En particular la conjetura modular trata el caso en e que los coeficientes del polinomio son racionales.

Una función modular es una función invariante bajo el grupo modular. Este es el grupo de transformaciones de la forma z -> \frac {az +b}{cz + d} . En particular la conjetura modular se refiere a la posibilidad de parametrizar una curva elíptica con coeficientes enteros por una función modular.

No voy a dar mas detalles, remito al lector al libro ya la bibliografía que allí aparece. Lo que si voy a hacer es unos comentarios sobre la relevancia de estos conceptos en teoría de cuerdas. Las curvas elípticas son un caso particular de las curvas algebraicas. Una superficie de Riemman compacta es una curva algebraica y la teoría de estas superficies es la base del desarrollo perturbativo de la teoría de cuerdas. Por otra parte en teoría de cuerdas aparece de modo natural el grupo modular (la acción de la cuerda es invariante bajo dicho grupo) y no es de extrañar que en los desarrollos de la misma aparezcan funciones modulares, como las funciónes eta y theta de Dedekind. Realmente la teoría de funciones modulares es bastante extensa, y eta relacionada con la teoría de funciones automorfas (el caso mas sencillo de las mismas es el de las funciones elípticas, las cuales surgen en el estudio de las integrales elípticas, y que, posiblemente, sean conocidas por la mayoría de los físicos-o al menos le suena haber oído halar de ellas-). Normalmente los libros de teoría de cuerdas (y eso si hay suerte) sobre las funciones modulares se limitan a dar la definición y a anumerar las propiedades de las dos funciones que he mencionado. En el libro tratado en este post se puede coger una idea de algunos aspectos mas geométricos e intuitivos que afectan a estas funciones.

En definitiva, un libro excelente para un publico general en el que aparte de aprender sobre el teorema de Fermat se le introducirán de manera intuitiva una serie de conceptos matemáticos de interés general (para matemáticos). Un valor añadido es que esos conceptos son útiles de diversos modos en el background matemático que debe tenerse en física de cuerdas. Ciertamente se puede aprender la geometría algebraica relevante a la teoría de cuerdas por caminos muy diferentes a los de los matemáticos puros (ver por ejemplo el libro Mirror Symmetry disponible gratuitamente on-line en Clay mathematics monographs) pero posiblemente por ese camino no se lleguen a apreciar adecuadamente muchos aspectos. También es cierto lo reciproco, en teoría de cuerdas son relevantes temas alejados de un interés matemático general (por ejemplo, las toric varieties).

No quiero decir que lo que este libro presenta baste para entender geometría algebraica, faltaría mas, pero si puede servir de motivación y para situar correctamente muchos conceptos.

No quiero terminar el post dejando la impresión de que este es un libro para físicos de cuerdas. Es un libro muy bien escrito en el que hará las delicias de los que tengan vocación por las matemáticas puras (por ejemplo, contiene demostraciones completas de muchos resultados, en particular de casos particulares del teorema de Fermat para valores concretos de n) y definitivamente muy recomendable.

Un comentario final. En matemáticas no existe premio nobel (la historia del porque es una anécdota divertida que no contare ahora) y su papel lo juega la medalla fields. Una particularidad de esa medalla es que solo se concede por trabajos hechos por su autor cuando tiene menos de 40 años. Esa es una característica bastante polémica y el caso de Willes enardeció la disputa. El motivo es que Willes dió a conocer sus resultados cuando tenia los 41 años recién cumplidos y, por tanto, se quedó sin recibir la medalla dichosa que, dada la importancia de su trabajo (que va mucho mas allá del teorema de Fermat) sin duda merecía.

Alain Connes N.C.G. R.I.P.

agosto 5, 2008

Hay tres teorías que abordan la gravedad cuántica y que gozan de un cierto prestigio, la teoria de cuerdas, la LQG y la geometría conmutativa de Alain Connes.

Puesbien, debemos despedir a una de ellas, La NCG ha muerto. Resulta que hacía una predicción sobre la masa del Higgs, 170 GeV. Y, un poco por casualidad, escrutando datos del tevatrón se han descartado una serie de valores, entre ellos ese. Total, que, salvo que pueda reajustarse (con la consiguiente pérdida de credibilidad), la teoría queda descartada.

Podeis leer detalles al respecto en el propio blog de Connes:

http://noncommutativegeometry.blogspot.com/2008/08/irony.html

En el de Lubos Motl (que esta encantado con la noticia):

http://motls.blogspot.com/2008/08/tevatron-falsifies-connes-model-of.html

o en el de resonnances:

http://resonaances.blogspot.com/2007/02/alain-connes-standard-model.html

Personalmente lo único que puedo decir es que había leido algunos artículos de Connes sobre el tema, pero no a fondo, que son muy enrevesados. Había sacado un libro (o dos, ya no recuerdo) bastante gordos al respecto dónde se adentraba en detalles. Pues bien, me ahorro tener que leerlos, lo cuál, dada mi ingente lista de lecturas pendientes, no esta mal.

Por cierto, hay modelos de NCG basados en ciertos escenarios de teorías de cuerdas, o, directamente, en construcciones casi “fenomenológicas” de teoría de campos, que hasta dónde sé no quedan descartados por este resultado.

Y ahora que el GLAST esta casi calibrado, y dispuesto a recolectar datos (ver http://blogs.nasa.gov/cm/blog/GLAST ) es posible que la LQG quede descartada si no sé encontrase ninguna dispersion de la velocidad de la luz en el vacio, o tal vez confirmada en caso contrario. El “tal vez” se debe a que cierto tipo de teorias de cuerdas, las cuerdas de Liouville (cuerdas formuladas directamente en 4 dimensiones) también dan resultados en esa linea.

Hay mas candidatos a gravedad cuántica, pero los tres que mencioné al principio eran los mas aceptados. Ahora ya sólo quedan dos. Hum ¿habrá publicado Connor McCloud algún paper en alguna de esas dos teorías? Es que de ser así ya sé por cuál apostaría 😉

Si alguien esta interesado en tener algunas nociones básicas de que es la geometría no conmutativa, y en especial su relación con la física puede leer esta entrada de mi otro blog:
http://freelance-quantum-gravity.blogspot.com/2007/06/breviario-de-goemtra-noconmutativa.html

P.S.  Resulta fascinate cómo hace subir el número de visitas el tener tu artículo enlazado desde el blog de Lubo, así cómo sorprendente la presencia de dicho link, por mucho de que san entradas que traten el mismo asunto. En fin, todo un honor :-).