Sistemas hamiltonianos y caos

INTRODUCCIÓN

En este post se analiza la teoría de sistemas hamiltonianos y se ilustran algunas relaciones de la misma con fenómenos caóticos. La línea de exposición sigue aproximadamente la de el último capítulo del libro Differential Dynamical Systems. Sin embargo hay algunas diferencias significativas en algunos puntos para acercar la exposición a lo que es común en libros de mecánica clásica para físicos. Con todo se siguen mencionando algunos resultados básicos no comentados habitualmente en libros para físicos. También hay algunas diferencias en algunos puntos del tratamiento matemático. Se incluyen apéndices en técnicas matemáticas bien conocidas en los cursos de licenciatura de exactas pero que no suelen verse en otras licenciaturas. También se añaden algunas referencias a material proveniente del tratamiento formal de la mecánica clásica tal como puede vrse en, por ejemplo, el libro de VI. Arnold «Métods matemáticos de la mecánica clásica».

DINÁMICA LAGRANGIANA

La mecánica de Newton estaba dada por, principalmente, su segunda ley F=m.a dónde a es la derviada segunda de la posicion en el tiempo y F es una fuerza que normalmente va a depender de la posición y a veces de la velocidad. Es por tanto una ecuación diferencial.

El problema con esa ecuación es que sólo tiene esa forma en un sistema de coordenadas cartesiano. Si el problema físico a tratar tiene, por ejemplo, simetría esférica, algo muy común, hay que cambiar la forma de la ecuación. Esto se hace introduciendo fuerzas ficitcias como la fuerza centrífuga y simlares.

Bien, esto es un problema prácico. Estaría bien tener unas ecuaciones equivalentes a las de Newton y que no cambiaran si usamos otros sistemas coordinados. Y ahí surgieron las figuras de Euler y Lagrange y su cálculo de variaciones. Presento una exposición standard de las cuestiones.

La idea es que tenemos una función, o mejor dicho, funcional, ahora explico que es eso, llamada lagrangiana.

1. L(q, dq/dt, t)

Las q denotan las coordenadas que indican la posicion de la partícula. las dq/dt son las velocidades.

Bien, digo que es un funcional y no una función. ¿Por qué?, La explicacion es bien sencilla. q y dq/dt son a su vez funciones dependientes del tiempo, es decir q(t) denota la posición en la coordenada generalizada q de la partícula en el tiempo t . La palabra genralizada quiere decir que no suponemos a priori que estemos en un sistema cartesiano y nos vale cualuqier tipo de coordenada (radio, ángulo, o lo que sea). Por tanto L depende de unas funciones q (y además del tiempo), es una función de funciones (una función cuyos argumentos son otras funciones). Eso es un funcional.

Ahora bien, hasta ahora no tenemos ecuaciones,. ES decir, no tenemos nada que nos permita calcular las trayectorias q(t) que realmente sigue la partícula. ¿Cómo hacemos eso?

Ahí debemos aplicar el principio de mínima acción. A partir de la lagrangiana tenemos una operacion que nos da una magnitud física conocida como «acción».

2. S= ∫t1 t2 L(q, dq/dt, t) dt

El principio de mínima accion dice que una partícula clásica va a seguir de entre todas las posibles trayectorias q(t) entre los tiempos t1 y t2 justo aquella para la que esa integral sea un extemal (generalmente un mínimo aunque en teoria podria ser un máximo).

¿Y cómo encontramos esa trayectoria maximal?.

Consideramos cuanto varía la integral cuando variamos una trayectoria q(t) -> q(t) + δq(t) y nos interesan las variaciones que cumplen que δq(t1)=δq(t2)=0, es decir, que sólo variamos la trayectoria en los puntos intermedios y no en los extremos pués es en los puntos itermedios donde queremos saber la trayectoria (esto es un tecnicismo pués siepre podemos situar los extremos donde queramos.

Bien, pués hay que comparar lo que vale L en q(t) y en q(t) +δq(t). Se hace un desarrollo de potencias (tipo taylor en cierto modo) Y se obtiene la variación de la accion δS de la accion, que debe ser 0.

No daré los detalles de la derivación, sólo expongo el resultado final, que son las famosas ecuaciones de Euler-Lagrange:

3. d/dt(∂L/∂dq/dt) – ∂L/∂q=0

Pese a que haya derivadas parciales en la forma de la ecuación en realidad lo que tenemos es una ecuacion diferencial.

Voy a comentar algunos aspectos, no comúnmente señalados en textos de física, sobre la existencia de las soluciones y su carácter. La clave es que si bien las soluciones de las ecuaciones de Euler-Lagrange son puntos estacionarios (máximos o mínimos) de la acción existen otros puntos estacionarios que no satisfacen esas ecuaciones. Se darán unas condiciones (terorema de Tonelli) para que las ecuaciones de E.L nos den un mínimo. Antes empezamos con un ejemplo, debido a Weierstrass, ilustrativo de lo que puede fallar.
Considerese el problema de encontrar una curva \gamma [0,1] \rightarrow \mathbb{R} de modo que \gamma = x(t) minimice el funcional

A[\gamma]= \int_{-1}^1 t^2 \dot{x}^2 dt

Si \gamma fuera C2 satisfaría las ecuaciones de E-L y se tendría la solución x(t)= t -1. que no es C2 en t=0, violando la suposición. Puede verificarse que hay una secuencia de funciones cuya acción tiende a 0:

x_n(t)=\frac{arctan(nt))}{actan(n)}

Puede verificarse que xn satisfacen ls condiciones de frontera. Además:

A[x_n]=\frac{1}{arctan^2(n)} \int_{-1}^1 (\frac{(nt)}{1+ (nt)^2})^2 dt < \frac{1}{arctan^2(n)} \int_{-1}^1 \frac{dt}{1 + (nt) ^2}=\frac{2}{n.arctan(n)}

Cuando n\rightarrow \infty la parte derecha tiende a 0 y, entonces, A[xn] ->0. La secuencia xn(t) tiende a la curva discontinua x_{\infty}(t)=sgn(x) . Por tanto hemos encontrado el mínimo de A, pero no en una función suave.

El requerimiento clave para asegurarse la existencia de un mínimo se expresará en términos del hessiano cuya definición es:

\rho_{ij}(x,v,t) \equiv \frac{\partial ^2 L}{\partial v_i \partial v_j} (aquí las v representan las velocidades generalizadas)

Esto nos permite establecer el requerimiento crucial, la condición de Legendere: El hessiano es una matriz definida positiva uniformemente, es decir, existe un c>0 tal que para todo (x,v,t) y todos los vectores w \in \mathbb {R}^n se tiene w^T \rho w  \geq c \mid w \mid^2

Con esto ya tenemos los conceptos necesarios (los conceptos sobre topología, variedades, flujos, etc, pueden consultarse en los apéndices correspondientes) para enunciar el teorema de Tonelli.

Teorema de Tonelli. Supongase que L(x,v,t) es C2 enM \times \mathbb{R}^n \times \mathbb {R} dónde M es una variedad compacta n-dimensional y satisface las siguientes condiciones:

(i) La condición de Legendre
(ii) depende periódicamente en el tiempo L(x,v,t + T)= L(x,v,t)
(iii) crece superlinealmente con la velocidad, es decir:

\frac{L(x,v,t) }{\mid v \mid} \rightarrow \infty  \ cuando \ v \rightarrow \infty

(iv) tiene un flujo completo \psi_t (x,v) ,t \in \mathbb{R}

Entonces para cualquiera puntos a, b \in M hay una curva C2 , \gamma(t) que satisface las ecuaciones de Euler-Lagrange y es un mínimo de la acción.

¿Que forma tiene la lagrangiana?
Otro punto excelente de la formulacion lagrangiana es que permite obtener a veces su forma a partir de consideraciones de simetría. El principio de galileo nos dice que las leyes de la física deben ser las mismas para observadores inerciales, es decir, aquellos que se desplazan unos respecto a otros a una velocidad constante.

Bien, si imponemos esto en la lagrangiana esto implica que debe depender del cuadrado de la velocidad. En un sistema cartesiano la coordenada generalizada q es simplmente la coordenada normal x (ó y, ó z, da igual) y dq/dt es la velocidad que denotamos por v. Así pués

L=a.v2

¿y cuanto debe ser esa a? Bien, si queremos tomar contacto con las leyes normales de newton debemos tener que als ecuaciones de Euler Lagranage se reducen a las de newton par auna partícula libre. Por tanto a debe valer (puede comprobarse sencillamente tomando las derivadas oportuns) a=1/2m

Es decir, una partícula libre tiene

4. L=1/2mv2

Bien, ya podemos describir una partícula libre pasamos a considerar como describir una partícula en interacción.

En mecánica elemental de la manera que se enseña actualmente se introducen los conceptos de energía cinética y energia potencial. Si os habeis fijado bien os habreis dado cuenta de que la forma de la lagrangiana de una partícula libre es justo la energía cinética de una partícula. Consideraciones sencillas nos llevan a que en general, para un sistema aislado sin rozamiento la lagrangiana va a ser de la forma:

5. L= T -U

T es la energiá cinética y U la potencial. Por ejmplo para un muelle U(q)=1/2kq2 y para el campo gravitatorio U=-GM/r

Con esto ya tenemos un estupendo «algoritmo». Elegimos las coordenadas que por simetría mejor describan el sistema. Expesamos en esa coordenadas la energía cinética y la potencial y restando ambas tenemos nuestra lagrangiana.

Una vez tenemos la Lagrangiana usamos las ecuaciones de Euler-Lagrange y ya tenemos las ecuacioens diferenciales que describen el sistema. Ya «sólo» queda resolver esas ecuaciones (para las condiciones iniciales fijadas) y tenemos resuelto nuestro problema mecánico.

Bien, esta es la lagrangiana para partículas puntuales. En física (incluso física clásica) no todo son partículas puntuales que se mueven por el espacio. Por ejemplo tenemos campos que varian con el tiempo. El más típico (y casi el único en física clásica) es el campo electromagnético. Este campo electromagnético viene descrito por unas ecuaciones en derivadas parciales, las ecuaciones de Maxwell. Especificar el estado del campo significa establecer el valor de 6 funciones (3 para coordenadas del campo eléctrico y 3 para cada coordenada el magnético) en todo el espacio.

Pese a eso puede generalizarse el concepto de lagrangiana y tener una lagrangina para campos. Para campos tanto clásicos como cuánticos. Y a partir de ella obtener ecuaciones de Euler Lagrange. Esto es interesante en mecánica clásica para varios propósitos. Por ejemplo permite obtener una lagrangiana, y posteriormente una hamiltonianna, para ecuaciones especialmente relevantes, como por ejemplo la ecuación e koterveg- de Vries, y usar las técnicas de sistemas hamiltonianos para obtener información sobre ella.

Un último comentario. En el formalismo lagrangiano las variables son las coordenadas y las velocidades. El conjunto de los valores posibles de esas variables tiene una estructura geométrica (de variedad diferenciable) y se conoce como espacio de configuraciones.

DINÁMICA HAMILTONIANA

El formalismo de Lagrange es muy útil en mecánica clásica por la facilidad que aporta para formular las ecuaciones de los sitemas físicos. También es muy útil en teoria cuántica de campos (teoría de cuàntica relativista para entendernos) pués proporciona un formalismo covariante, es decir, que se transforme de una manera «sencilla» bajo cambios de coordenadas, de los campos relativistas. Sin embargo tanto en cuántica (especialmente cuántica no relativista) como en mecánica clásica, es especialmente útil el formalismo hamiltoniano.

Tenemos las ecuaciones de Newton que pueden formularse como una sencilla ecuación diferencial F=ma, en el formalismo lagrangiano, en el hamiltoniano que vamos a ver ahora, luego esta el de Hamilton Jacobi. Todos estos pueden hacerse con herramientas matemáticas más o menos básicas (haciendo un poco la vista gorda con cosas como el cálculo de variaciones y la transformada de Legendre que aparecerá un poco más tarde). Estos formalismos son todos del siglo XIX. Sin embargo en el siglo XX surgió la matemática moderna, la topologia, la geometría diferencial de variedades y muchas otras cosas. Usando gemoetría en variedades, se puede reformular la mecánica clásica en forma más sofisticada. Por ejemplo el conjunto de valores permitidos para las variables generalizadas de un sistema clásico forman una variedad, conocida cómo espacio de configuraciones. Sí se pasa al formalismo hamiltoniano se puede hablar de un «espacio de fases».

Bueno, vamos ya con el formalismo de Hamilton. El truco es el siguiente. Tenemos que una cantidad muy importante en mecánica es el momento de una partícula. En física básica se pone simplemente

1. p=m.v

Una de las cosas para las que es útil el lagrangiano es para supervisar las simetrías del sistema. Se puede ver que si el sistema es invariante bajo traslaciones hay una cantidad invariante, que tiene la forma:

2. p=\left( \frac{\partial L}{\partial \dot{q}} \right)

Sí se evalúa eso para el lagrangiano de una partícula libre

3. 1/2.m.\dot{q}^2

que recordemos era la energía cinética de una partícula se ve que coincide con la expresión 1.

Ciertamente el lagrangiano de una partícula libre es invariante bajo traslaciones (es decir, si cambiamos la coordenada q a otra cualquiera q’=q+ a). Así pués se opta por que se defina siempre el momento de una partícula mediante esa expresión incluso sí el lagrangiano (y por tanto el sistema físico que describe) no es invariante bajo traslaciones.

Una vez tenemos definido el momento ya podemos ir al hamiltoniano. Nuestro objetivo es expresar el sistema físico en términos de las variables posición y momento p y q, en vez de en término de las variables posición y velocidad: q y dq/dt (que he denotado en las ecuaciones anteriores con una q, con un punto encima). El espacio de valores posibles para esas variables será una estructura geométrica (variedad) que se conoce cómo espacio de fases. Ahora lo expondré “sencillito” y no usaré el lenguaje de variedades (ver el apéndice correspondiente para los aspectos mas técnicos).

Tenemos que pasar de las variables (q,dq/dt,t) a las (q,p,t) dónde dq/dt y p se relacionan mediante 2. Un problema de ese tipo, donde una variable se relaciona con otra mediante su derivada y queremos hacer un cambio de variables entre ambas se resuelve mediante lo que se conoce cómo transformada de Legendre. No explicaré los detalles de la misma, un tanto aburridos, y pondré el resultado final:

4. H(q,p,t)=\dot{q}.p - L( q,\dot{q},t)

Para que H dependa sólo de q y p debemos expresar el lagrangiano en términos de (q,p,t). Es decir, debemos invertir la relación 2 para obtener la p en función de la dq/dt. Esta inversión es algo que a veces se puede hacer y a veces no. En la mayoría de sistemas clásicos si se puede. Sin embargo no siempre ocurre. Por ejemplo en la lagrangiana de una partícula relativista no puede hacerse. Estos sistemas se llaman singulares y son muy interesantes. Por ejemplo en teoría cuántica de campos aparecen. El caso más sencillo es el campo electromagnético. Pero vamos a ocuparnos de los sistemas donde sí se puede hacer esta inversión, que son muchos y muy útiles.

Una vez hemos hecho esta inversión ya tenemos el hamiltoniano que estábamos buscando. Recordemos que el Lagrangiano tenía una interpretación muy sencilla para sistemas típicos. Era :

5. L= T-V

Es decir, la resta de la energía cinética menos la potencial. ¿Existe alguna interpretación similar para el Hamiltoniano? Pues sí. El Hamiltoniano es la energía total:

6. H = T + V

Llegados a este punto uno puede preguntarse si realmente hacia falta tanto formalismo si después de todo ya sabemos calcular la energía total de una partícula. Basta calcularla y expresarla en términos del momento en vez de en términos de la velocidad. La cuestión es que la prescripción de que la energía es T + V es cierta para sistemas sencillos. En general, en un sistema lagrangiano, la energía es un concepto que surge por el hecho de que el sistema sea invariante bajo transformaciones temporales. Se puede demostrar que eso implica que en la dinámica lagrangiana hay una cantidad conservada cuya expresión es:

h(q_i, \dot{q}_i, t)= \displaystyle\sum_{i} \dot{q}_i\frac{\partial L}{\partial \dot{q}} - L

Puede observarse la similitud entre esta expresión y la expresión (4) para el hamiltoniano. Claramente el hamiltoniano es la energía expresada en términos de los momentos. Aunque no es relevante para lo que vamos a discutir aquí es interesante hacer notar que el momento lineal esta relacionado con la invarianza del hamiltoniano bajo traslaciones y el momento angular con la invarianza bajo rotaciones. En general cuando la acción es invariante bajo un grupo de transformaciones va a existir una cantidad conservada que vendrá dada por el teorema de Noether.

Con propósito ilustrativo, daremos un ejemplo explicito: el hamiltoniano para un sistema sencillo, el del oscilador armónico.

7. H=p^2/2m + 1/2.k.q^2

En dinámica newtoniana y lagrangiana tenemos ecuaciones del movimiento. Necesitamos algún modo de obtnerlas en nuestro formalismo hamiltoniano. Esto se hace mediante las ecuaciones de Hamilton:

8. \dot{q}=\partial H/ \partial p

\dot{p}= - \partial H/ \partial \dot{q}

Al igual que pasa con el caso de Lagrange aunque aparezcan términos con derivadas parciales del hamiltniano las ecuaciones de movimiento para las partículas son ecuaciones diferenciales ordinarias. Pongo el ejemplo de cómo resultarían para el oscilador armonico:

9. \dot{q}=p
\dot{p}=-k.q

Esto es un sistema de dos ecuaciones diferenciales ordinarias de primer orden equivalente a una ecuación diferencial de segundo orden, cómo se esperaría.

Una aclaración válida para este formalismo y el del lagrangiano. He puesto, normalmente, las expresiones para el caso de una sola variable generalizada q. Por supuesto puede generalizarse de manera obvia para el caso en que en el sistema haya varias partículas , en general N partículas, con coordenadas qi donde i=1,2..,N.

SIMETRÍAS E INVARIANTES: TEOREMA DE NOETHER

Se ha comentado la relación entre invarianzas de la acción y la existencia de cantidades conservadas. Veamos esto de manera formal.

Primero aclaremos que se entiende como una simetría. Para ello introduciremos algunos conceptos. Empezamos por definir un flujo. Supongamos que tenemos un sistema dinámico cuyo espacio de fases es una variedad M. Un flujo (completo) es \phi_t(x) es un mapa diferenciable uniparamétrico \phi: \mathbb{R} \times M \to M que cumple:

(a) \phi_0(x)=x
(b) \forall t, s \in \mathbb{R}
\phi_t \circ \phi_s =\phi_{t + s}
dónde \phi_t \circ \phi_s \equiv \phi_t(\phi_s(x))

La propiedad b nos indica que un flujo debe tener la propiedad de grupo.
Un flujo va a poder asociarse a un campo vectorial f: M \to \mathbb{R}^n mediante la expresión:

f(x))=\frac{d}{dt}\phi_t(x) 	\lfloor t=0

Se dirá que un flujo tiene una simetría si existe un difeomorfismo S : M -> M (ver apéndice de variedades para la definición de difeomorfismo) que cumple:

\phi_t(S(z)) S(\phi_t(z)) , t\in \mathbb{R}

Equipados con estas definiciones diremos que un lagrangiano es invariante (equivariante) bajo un difeomorfismo S si cumple:

L(S(x),DS(x) v, t)=L(x,v,t) (Aquí DS(x) indica el jacobiano del difemormismo)

En el caso particular en el que el difemorfismo depende de un parámetro, S(x) \to h_s(x), \forall s \in mathb{R} tenemos el teorema de Noether (formulado en 1915)

Teorema de Noether. Supongas L(x,v,t) es C^2 , h_s : M \to M es un difeomorfismo C^2 dependiente de manera suave en el parámetro s y L es invariante por h. Entonces las ecuaciones de Euler-Lagrange para L tienen un invariante:

I(x, \dot{x})=\frac{\partial L}{\partial \dot{x}} (x, \dot{x}, t) \frac {\partial h_s (x)} {\partial s} \lfloor {s=0}

Esta versión del teorema de Noether es adecuada para simetrías externas, es decir , simetría de la acción bajo cambios en las coordenadas (difeomorfismos). puede verificarse que si el difemormorfismo es una traslación el invariante de Noether sería el momento lineal, si fuera una rotación sería el momento angular y si fuese una traslación temporal el invariante seria la energía. En física de partículas es posiblemente mas común el caso en que las simetrías son simetrías internas. En ese caso estamos hablando de lagrangianos de campo (densidades lagrangianas) y la acción es invariante bajo transformaciones internaas que transforman unos campos en otros. Para los propósitos tratados aquí no interesa principlamente la versión que hemos expuesto del teorema de Noether.

CORCHETES DE POISSON

Se pueden reescribir las ecuaciones de Hamilton (8) en una forma mas compacta:

10. \frac{dz}{dt}= J \nabla H dónde J= \left(  \begin{array}{cc} 0 & I \\  -I & 0 \end{array} \right)

Aquí z=(q,p)^T representa un punto en el espacio de fase J, llamada matriz de Poisson, es una 2n x 2n matriz antisimétrica e I es la nxn matriz identidad. Es interesante señalar que cumple la propiedad J^2= -I con lo que en cierto modo J generaliza a la unidad imaginaria, i.

Nos va a interesar conocer cuanto cambia una función escalar, F, en el espacio de fases. Para ello usaremos (10) y la regla de la cadena \frac{dF}{dt}=\frac{ \partial F}{ \partial t} + \frac{ \partial F}{\partial z}\dot{z} . Esto puede escribirse de modo compacto como:

11. \frac{dF}{dt}=\frac{ \partial F}{ \partial t} + \{F, H \} dónde \{F, H \} es el corchete (canónico) de Poisson y está definido por:

12. \{F, H \} = \nabla F^T J \nabla H = \sum_{i=0}^n  \left( \frac{\partial F}{ \partial q_i} \frac{\partial H}{ \partial p_i} - \frac{\partial F}{\partial p_i} \frac{\partial H}{ \partial q_i}\right)

Usando el corchete de Poisson podemos escribir las ecuaciones de movimiento en la forma:

13. \dot{z}= {z, H}

Podemos usar l expresión anterior como punto de partida para una clase mas genérica de sistemas dinámicos, los sistema de Poisson. Mantenemos 13 como la ecuación de movimiento, pero ampliamos la definición de los corchetes de Poisson. La clave está en que exigimos que cumplan una serie de propiedades (antisimetría, bilinealidad, derivación e identidad de Jacobi) que cumplen los corchetes canónicos pero no exigimos que provengan de un sistema hamiltoniano. La definición concreta es la siguiente:

Un corchete de Poisson { , } es un operador bilineal en un par de funciones en C^2 (M,\mathbb{R}) que cumple:

i) Antisimetría: {F,G}= -{G,F}
ii) Bilinealidad: {F + G, H}={F,H} + {G,H} y {aF, bG}=ab{F,G}
iii) Derivación: {FH, G}= F{H,G} + H{F,G}
iv) Identidad de Jacboi:
{F,{G,H}}+ {G, {H,F}} + {H, F,G}}=0

Se puede probar que la existencia de un corchete de Poisson implica la existencia una matriz J antisimétrica que cumple la igualdad 12. Hay, no obstante, una diferencia. En el caso standard J es no singular. En el caso general si puede ser singular. Un caso sencillo dónde utilizar la dinámica de Poisson simplifica las cosas nos lo darían las ecuaciones de Euler para un cuerpo rígido. Si escribimos la ecuaciones en términos de las velocidades angulares, momentos angulares y ejes de inercia obtendríamos tres ecuaciones. Esto significa que el espacio de fases sería de dimensión impar y no correspondería a un sistema hamiltoniano, pero si sería un sistema poissoniano. No se darán los detalles, que pueden ser consultados en la bibliografía correspondiente.

INVARIANTE DE POINCARÉ

El propósito de esta breve sección es introducir unos conceptos que se usarán mas adelante, cuando se analice el caos en sistemas de dos dimensiones. También servirá para ilustrar el porque es relevante el uso de formas diferenciales y, en general, conceptos de gemoetria diferencial, incluso si no se pretende trabajar de una manera sofisticada como pueda ser la mecánica simpléctica en variedades.

Empezamos con unas definiciones:

-Bucle: Es, sencillamente, un mapa de un círculo en un espacio topológico. Dicho de otro modo, una curva cerrada. Técnicamente, en el caso de que el espacio topológico fuese la variedad espacio de fase de un sistema hamiltoniano, tendría la siguiente caracterización:

14. \mathfrak{L} = \{(q (s),p(s), t(s)) : s \in[0,1] \} dónde q(1)=q(0).

Nótese que aquí, aparte de q y p, hemos considerado que el espacio de fases tiene una variable adicional, t.Esto es adecuado para hamiltonianos que dependen del tiempo. Estos no suponen grandes modificaciones a lo visto antes. El espacio de fases de estos hamiltonianos se denomina espacio de fases extendido.

– Acción de bucle (loop action): Sea \mathfrak{L}: \mathbb{S}^1 \to M \times \mathbb{ R} un bucle en el espacio de fases extendido. Entonces la acción de bucle se define como:

S(\mathfrak{L}) = \oint _{\mathfrak{L}} pdq - Hdt

El teorema de Poincaré afirma que esa acción es invariante bajo el flujo hamiltoniano. El flujo hamiltoniano es un caso particular de el flujo asociado a un vector f. En particular f tiene la expresión f=(  \partial H / \partial p, - \partial H / \partial q)

No se va a dar la demostración de esta afirmación. No obstante es importante señalar que depende en la versión n-dimensional (osea, en variedades) del teorema de Stokes. Para empezar la simple definición de integrales de línea, rotacionales y demás elementos del cálculo vectorial requieren para su generalización a n-dimensiones de las formas diferenciales.

SISTEMAS HAMILTONIANOS LINEALIZADOS

En teoría de sistemas dinámicos los puntos de equilibrio juegan un papel clave. En dinámica hamiltoniana un punto de equilibrio z* se corresponde con un punto crítico de la función hamiltoniana, i.e. \nabla H (z*) = 0 .

Linealizamos el hamiltoniano en un entorno de z y nos da:

15. H(z* + \delta z)=H(z*) + 1/2. \delta z^T D^2H(z*) \delta z + O(\delta z^3)

Aquí D^2H es el hessiano de H:

16. (D^2H)ij \equiv \frac{ \partial^2 H}{ \partial x_i \partial z_j}

La constante H(z*) no parecería en la ecs. de movimiento. Eso nos permite escribir dichas ecuaciones en la forma:

17: \delta \dot{z}= JS \delta z= K \delta z

dónde J es la matriz de Poisson y S=D^2H(z*)

Una matriz de la forma K=JS, con S=S ^T se llama matriz hamiltoninana. Estas matrices forman grupo bajo adicción: Si K1 y K2 son matrices hamiltonianas también lo es K1 + K2. Este grupo es el grupo simpléctico sp(2n) (mas concretamente el álgebra de Lie del grupo simpléctico).

Una solución formal a la ecuación 17 es \delta z(t)=exp(tK) \delta z(0). La exponencial exp(tK) es una matriz simpléctica. El conjunto de matrices simplécticas tiene estructura de grupo bajo la multiplicación de matices y se denota como SP(2n). En términos de formas diferenciales se puede caracterizar el grupo simpléctico como el grupo de formas antisimétricas de rango máximo, aunque no se entrará en detalles de esa forma de definirlo.

Nótese que aunque las matrices simplécticas forman grupo el producto de dos matrices hamiltonianas no es necesariamente una matriz hamiltoniana. No obstante vamos a poder definir una operación interna para el conjunto de las matrices hamiltonianas. i H_3= \{H_1, H_2 \} y H1, H2 son matrices hamiltoninas cuadráticas también lo es H3. En particular se puede ver que H_3=1/2. z^TS^3z dónde S3= S1JS2 – S2JS1. De ese modo K3=JS3 es una matriz hamiltoniana y:

18.K_3=JS_3=[K1,K_2]

dónde [ , ] es el conmutador [A,B]=AB – BA. Es está estructura adicional la que convierte el grupo sp(2n) en una álgebra de Lie. En general un álgebra de Lie es un grupo aditivo con la operación adicional del paréntesis de Lie [ , ] que satisface las identidades de Jacobi. Si uno exponencia los elementos de un álgebra de Lie uno obtiene un grupo de Lie (el álgebra son los generadores infinitesimales del grupo) Una introducción sencilla a los elementos más básicos de la teoria de grupos puede consultarse en : Teoría de grupos y física I: conceptos básicos

La estabilidad del equilibrio de un sistema hamiltoniano esta gobernada por los autovalores de su matriz hamiltoniana. El primer resultado importante es el siguiente teorema, debido a Poincaré y Lyapunov:

Terorema.. Si \lambda es un autovalor de una matriz hamiltoniana K, entonces también lo es su opuesto. Además el polinomio característico de K es par.

De este teorema pueden obtenerse bastantes conclusiones. Si una matriz hamiltoniana es real su polinomio característico también lo será y, por consiguiente, si tiene un autovalor complejo el conjugado de ese autovalor también será autovalor.

Otra consecuencia es que un equilibrio hamiltoniano no puede ser nunca asisntóticamente estable pues eso requeriria que todos los autovalores tuviesen partes reales negativas (y el teorema dice que si hay un autovalor negativo su opuesto positivo también será autovalor).

En el caso particular en que H es real hay cuatro posibles agrupaciones de los autovalores:

a) Hiperbólico (punto de silla): \lambda es real. Por tanto hay un par de autovalors (\lambda , - \lambda )

b) Elíptico (centro): \lambda = i \omega es imaginario. Entonces - \lambda = \bar {\lambda} y (iw, – iw) forman un par.

c)Cuarteto de Krein: \lambda es complejo con Re ( \lambda) \not= = . En ese caso hay un cuarteto de autovalores (\lambda, - \lambda, \bar{ \lambda}, \bar { - \lambda}) .

d) Parabólico: Un autovalor doble \lambda = 0 .

Esto puede generalizarse al teorema:

Teorema (autovalores hamiltonianos). Si K  \in sp(2n) tiene un autovalor \lambda de multiplicidad k entonces - \lambda es también un autovalor de multiplicidad k. Además, la multiplicidad del autovalor 0 (si está presente) es par.

COLISIONES DE KREIN
En este apartado se analiza la cuestión de como cambia la estabilidad de un sistema hamiltoniano cuando se modifica un parámetro. Estamos por tanto ante lo que podría considerarse el estudio de las bifurcaciones par un sistema hamiltoniano.

Supongamos que el equilibrio es linealmente estable, de modo que los autovalores empiezan en el eje imaginario. Según varia el parámetro los autovalores cambian de manera continua. Además no pueden dejar el eje a menos que dos autovalores colisionen pues según habíamos visto si \lambda es autovalor su opuesto también lo es. Según eso hay dos modos en que un punto elíptico pueda perder la estabilidad. Uno es que un par de autovalores colisionen al valor 0 (caso parabólico) y continúen a autovalores reales (caso hiperbólico). El otro es que un par \pm i \omega _1 colisione con otro par \pm i \omega _2 dando lugar a un cuarteto de Krein. Es este segundo caso lo que se conoce como una colisión de Krein. La cuestión a tratar es si puede cada colisión de Krein llevar a una inestabilidad.

La respuesta es negativa. La inestabilidad es posible solamente si ciertas condiciones en una cantidad, la signatura de Krein, se satisfacen. Vamos a definir dicha signatura.

Partimos del hecho que a cada matriz hamiltoniana K, le corresponde un hamiltoniano lineal:

H(\xi) = -1/2. \xi^T JK \xi

El valor de H es independiente del tiempo a lo largo de su flujo y puede usarse para la definició buscada.

Signatura de Krein. Supongase que K \in sp(2n) tiene un par de autovalores no nulos \pm i \omega con autovectores correspondientes v= u \pm i \omega . Sea \xi \in E_{\pm i \omega} = span (u,\omega) cualquier vector en el subespacio invariante por \pm i \omega. La signatura de Krein de E_{\pm i \omega} es:

\sigma_{ \omega}=sgnH(\xi)

Es sencillo verificar que la definición no depende del autovector elegido.

La signatura de Krein es, esencialmente, la dirección de rotación en el plano canónico. Veamos esto ilustrado en un ejemplo. Sea K= \left( \begin{array} {cc} 0 & \omega \\ - \omega & 0 \end{array} \right) de modo que H(z) = 1/2 \omega (x^2 + y^2). El autovector para i\omega es v= (1, i)^T y H(u)=1/2 \omega Por tanto \sigma_{\omega}=sgn(\omega) que corresponde a la dirección de rotación.

Una vez tenemos las nociones necesarias podemos enunciar el teorema.

Teorema de colisiones de Krein Sea K(s) una matriz hamiltoniana que depende en un parámetro s. Supóngase que para s < 0 tal que K tiene 2d \leq 2n autovalores imaginarios distintos que son no nulos para s \leq 0 . Supongase que estos autovalores colisionan en s = 0. Si todos los autovalores que colisionan tienen la misma signatura de Krein entonces existe un \epsilon >  0 tal que los 2d autovalores permanecen en el eje imaginario para 0< s < \epsilon .

La interpretación de este teorema es que un equilibrio cuyos autovalores ejecutan una colisión de Krein con signatura mezclada habitualmente dan lugar a una órbita periódica. Por analogía con la correspondiente bifurcación genérica esto se llama una bifurcación de Hamilton-Hopf.

INTEGRABILIDAD

Hay varias nociones posibles del concepto de integrabilidad. Aquí se usará la que, posiblemente, sea la mas aceptada. Recoremos que una integral de movimiento es una F que cumple:

dF/dt= \{F,H\}=0

Integrabilidad de Liouville Un sistema hamiltoniano de n grados de libertad es integrable si existen n integrales $ F_i $ que son indpendientes en casi todo punto y que están en involución, i.e. \{F_i, F_j \}=0

En esta definición la independencia de ls F’s se entiende como que sus vectores gradientes sean linealmente independientes.

El resultado central es el siguiente teorema:

Teorema (Liouville-Arnold) Supongase que H es integrable de Liouville. Para c \in \mathbb{R}^n sea M_c= \{ z : F_i= c, i=1,2,...,n \} una superficie de nivel de las integrales en la cuál los gradientes son linealmente independientes. Entonce M_c es un subvariedad invariante. Sí M_c es compacto y conexo es difeomoro al n-toro. En este caso hay n coordenadas angulares \theta _i en M_c tal que el flujo Hamiltoniano es conjugado a

\frac{ d \theta}{dt}= \Omega (F)

para algún vector de frecuencia \Omega

Este teorema enlaza con resultados clásicos y bien conocidos de la teoría de sistemas hamiltonianos, las variables de acción-ángulo y la ecuación de Hamilton-Jacobi.

Se dice que un sistema hamiltoniano integrable está en forma de variables acción ángulo si depende solo en variables momento, es decir:

H(\theta,I)= H(I)

En estas variables las ecuaciones de movimiento son:

\dot{I}= - \frac{ \partial H}{\partial \theta} = 0

\dot{\theta }=\frac{ \partial H}{\partial I }= \Omega (I)

Estas ecuaciones son triviales de integrar. Por supuesto la complicación es encontrar cuales son esas variables acción-angulo. Uno debe partir de el sistema hamiltoniano expresado en las variable «físicas» y encontrar una trasformación canónica de variables que nos lleve a esas variables acción-ángulo. Aunque interesantes los detalles de transformaciones canónicas y la ecuación de Hamilton-Jacobi tiene un interés tangencial para lo que sigue y no se darán.

Un último comentario, cuando se trató el tema de los solitones se mencionaba que la ecuación de KdV era un sistema completamente integrable. Esa ecuación puede plantearse desde una formulación Hamiltoniana -para sistemas continuos- y el criterio de integrabilidad expuesto aquí puede aplicarse sin grandes cambios. Cuando se hablaba de que la ecuación era completamente integrable podía entenderse en este sentido.

SISTEMAS CASI INTEGRABLES: TEOREMA KAM

Consideremos la perturbación de un hamiltoniano integrable:

19. H(\theta, I)= H_0(I) + H_1(\theta, I)

En el caso integrable, para \epsilon= 0 las trayectorias se apoyan en toro invariante definido como las superficies de nivel M_c= \{ (\theta, I) : I_c = c_i \} de las variables de acción. En cada toro la dinámica está dada por las correspondiente ecuaciones que tienen el flujo:

\psi_t (\theta, I)= (\theta + \omega t mod 2 \pi, I)

Las órbitas resultantes dependen de la relaciones entre los componentes del vector frecuencia. El caso mas sencillo se da cuando \omega = \alpha m con me \in \mathbb {Z}^n y \alpha \in \mathbb {R}. En este caso la órbita es periódica con periodo T= 2\pi / \alpha

El caso contrario se da cuando w es inconmensurable, i.e. \omega.m \not = 0 \forall m \in \mathbb{Z}^n \ . En este caso el flujo es cuasiperiódico y transitivo, es decir, cada órbita es densa en el toro. Entender porque esto es así es relativamente sencillo intuitivamente. Ver los detalles detrás de estas afirmaciones requieren unos conceptos elementales de teoría de números, que no se incluirán aquí.

Entre estos dos casos extremos están los vectores de frecuencias conmensuradas: w tales que hay al menos un vector entero no nulo m con w.m=0. El conjunto de soluciones enteras de esta ecuación son llamadas el módulo resonante. En este caso las órbitas son densas en toros de dimensión mas baja.

En general los toros resonantes de un sistema integrable pueden ser muy afectados por una perturbación. No obstante uno de los resultados mas importantes de la dinámica Hamiltoniana, descubierto por Kolmogrov en 1953 es que un número «suficiente» de toros son preservados. Este resultado fué formalizado posteriormente por Vladimir I. Arnold (1963) para sistemas analíticos y por Jürgen Moser para sistemas suficientemente suaves (1962).

Las frecuencias relevantes para la teoría KAM serán las frecuencias diofánticas:

Frecuencias diofánticas. Un vector w es diofántico si hay un c > 0 y un \tau > n-1 tal que \omega \in \mathfrak{D}_{c, \tau} = \{\omega \in \mathbb{R}^n : \lfloor m.\omega \lfloor >b \lfloor m 	\lfloor^{- \tau} \forall m \in {Z}^n \ \}

Aquí \mathfrak{D}_{c, \tau} es un conjunto de cantor cuando \tau > n - 1 y b \not = 0. Además, cuando c->0 la medida de este conjunto de cantor se aproxima a 1 (Nota: esta es una afirmación no trivial, pero no se dará aquí una demostración de la misma).

Un concepto clave en la teoría de Kolmogrov es la identificación de toros invariantes por sus frecuencias. En lugar de intentar entender la órbita de un punto particular en el espacio de fases se elige un vector de frecuencia diofántica w y se sigue el toro con esa frecuencia según crece \epsilon . La cuestión es entonces si el flujo del sistem perturbado tiene un toro invaante n-dimensional con una frecuencia dada para algún \epsilon \not= 0 . Una respuesta a esa cuestión es la siguiente versión del teorema KAM.

Teorema KAM (versión de Pöschel, 1982).. Supóngase que H_0(I) es analítico real y no degenerado y supongase que H_1(\theta, I) es C^r con r 0 $ tal que si \epsilon < \alpha c^2 el sistema 19 tiene un toro invariante para todo \omega \in \mathfrak{D}_{c,n} en el rango del mapa de frecuencia \Omega . Similarmente, si una superficie de energía \mathcal{E} es isoenergéticamente no degenerada entonces hay toros cuyas frecuencias son proporcionales a cada \omega  \in \mathfrak {D}_{c,n} en el rango de \Omega . En ambos casos la dinámica en cada toro es suavemente conjugada al flujo del hamiltoniano.

Una consecuencia de este teorema enlaza con lo que se comentaba cuando se hablaba de solitones. Allí se mencionaba que experimentos numéricos con el sistema FPU (Fermi, Pasta, Ulam) mostraban que, en contra de lo esperado, no se producía una termalización de la energía entre los diferentes modos de vibración de una cadena no lineal. Aunque la aplicación directa del teorema KAM a ese sistema es compleja se puede intuir de él que la termalización no es una propiedad típica de los sistemas hamiltonianos completamente integrables débilmente perturbados porque la mayoría de ls trayectorias están confinadas en toros n-dimensionales y no se esparcen densamente a través de la superficie de energía.

CAOS EN SISTEMAS HAMILTONIANOS DE DOS DIMENSIONES

Vamos a analizar algunos aspectos de sistemas con dos grados de libertad (i.e. dos posiciones mas dos momentos). Nuestra principal herramienta serán las secciones de Poincaré. Recuérdese que la filosofía de las secciones de Poincaré es estudiar la intersección de las trayectorias (en el caso hamiltoniano serán órbitas en el espacio de fases) de un sistema con una superficie fija que las intersecta. De ese modo podemos analizar algunos aspectos de una dinámica continua mediante un sistema discreto, el mapa de Poincaré. En concreto la definición del mapa de Poincaré es la siguiente:

20. z'=P(z)= \psi_{\tau(z)}(z)

dónde \tau(z) el primer tiempo para el que la órbita de z \in S retorna a S.

Cuando S es una superficie bidimensional la dinámica de P es fácil de visualizar numéricamente. Sin embargo en nuestro caso la construcción de una sección se complica por el hecho de que la superficie tridimensional de energía \mathcal{E}= \{ z: H(z)= E \} , es tipicamente no euclidea (un plano/hiperplano), y es, por contra, una variedad.. Por ejemplo, para el oscilador armónico n-dimensional \mathcal {E} es el conjunto:

\sum_{j=1}^n \omega_j (p_j^2 + q_j^2)= 2E

que, cuando \omega_j >  0 es, topologicamente, la esfera \mathbb{S}^{2n - 1}

Para construir una sección de Poincaré para un sistema bidimensional nos gustaría elegir una superficie bidimensional en \mathcal{E} que es una sección global para el flujo. Recuérdese que una superficie es una sección si el campo vectorial asociado al flujo no es tangente en ningún punto a S y es una sección global si la órbita de cada punto cruza S y retorna.

Frecuentemente es difícil demostrar que una sección es global y es necesario recurrir a la intuición. Por ejemplo, en un sistema de osciladores no lineales suele suceder que las variables oscilan en torno a cero y una posible elección para una sección es la superficie para la cuál una de esas configuraciones se anula:

\mathcal{Q}= \{(p,q): q_2= 0 \}

Si nos centramos en una superficie de energía \mathcal{E} una candidata a sección es la intersección S= \mathcal {E} \cap \mathcal {Q} . Sin embargo esta superficie no es, tipicamente, transversa a S. Para mejorar este problema la sección debe ser un subconjunto de S= \mathcal {E} \cap \mathcal {Q} al cuál el campo vectorial es transverso. Como \dot{q}_2= - \partial H/ \partial p_2 el campo vectorial será transverso a \mathcal {Q} cuando \partial H/ \partial p_2 \not = 0 . podemos pues, elegir como sección:

21. \Sigma =  \mathcal {E} \cap \mathcal {Q} \cap \{ \partial H/ \partial p_2 \not = 0 \}

Las secciones de Poincaré de la forma 21 normalmente son visualizadas proyectándolas sobre el par de de variables (q_1, p_1) . Una de las razones porque este es un buen sistema de coordenadas para S es que el mapa resultante preserva áreas. Esto se sigue de la conservación del bucle de Poincaré . Sea \mathfrak {L} un bucle en la sección tal que cada punto en \mathfrak {L} tiene energía E. Cómo \oint_{\mathfrak{L}} Hdt= E \oint_{\mathfrak{L}} dt y la integral de una diferencial exacta en torno a un bucle es cero este término de la acción se anula. Para la sección \mathcal{Q}= \{(p,q): q_2= 0 \} s tiene q_2 \equiv 0 en \mathfrak {L} y pdq se reduce a p_1dq_1 y así la acción de bucle se convierte en:

S[L]= \oint_{\mathfrak{L}} p_1dq_1

que es simplemente el área encerrada por \mathfrak{L} en el plano (p_1, q_1) . Cómo S[L] esta preservada a lo largo de ls trayectorias la acción transformada L’=P(L) también se apoya en la sección y tiene la misma acción. Por tanto el mapa de Poincaré preserva el área. Consecuentemente el estudio de la dinámica de los sistemas hamiltonianos en dos dimensiones en superficies de energía (sin puntos críticos) esencialmente se reduce al estudio de mapas que preservan el área.

Usando las técnicas de este apartado y algún lenguaje de programación es fácil construir un mapa de Poincaré para el sistema de Henon-Heiles que nos informa sobre el movimiento de las estrellas en una galaxia. Ese sistema se corresponde con el potencial:

U(x,y) = (x^2+y^2)/2 + xy^2 -x^3/3.

Cuando E= 1/2 las órbitas parecen cubrir círculos, indicando que están en algún toro invariante. También parece haber un punto de silla de «periodo tres» y algunos puntos en las variedades estables e inestables de equilibrio. Cuando la energía se incrementa a E=!/8 las trayectorias cercanas al punto de silla ya no aparentan apoyarse en curvas suaves. Esto es una indicación de que los toros KAM han sido destruidos y reemplazados por dinámica caótica (conjetura que podría respaldarse calculando los exponentes de Liapunov y verificando que exhiben dependencia sensible a las condiciones iniciales)

Sección de Poincaré para el hamiltoniano de Henon-Heiles para el caso no caótico (E=0.02):

Sección de Poincaré para el hamiltoniano de Henon-Heiles para el caso cuasi-caótico (E=1/8):

APÉNDICE 1: Conceptos topológicos

Las nociones de continuidad en cálculo se suelen dar en términos de epsilones y deltas, pero eso en esencia es hablar de entornos abiertos de la recta real, y el caso es que si uno lo analiza uno usa sólo 3 propiedades básicas de los abiertos.

Una topología es recoger esas tres propiedades y convertirlas en axiomas.

Sea X un conjunto y sea Y={Xn} una colección finita o infinita de subconjuntos de X, X e Y forman un espacio topológico si
i. el conjunto vacío e Y pertenecen a Y
ii. Cualquier subcolección finita o infinita {Zn} de Xn tiene la propiedad de que la unión de todos los Zn pertenece a Y
iii. Cualquier subcolección finita {Zm} de los Xn tiene la propiedad de que su intersección pertenece a Y.

Los Xn son los abiertos de esa topología. Conviene hacer una pequeña distinción, que no siempre se explica en los libros de topologia/geometría para físicos. Los intervalos epsilón y deltas del cálculo de una varible, y sus generalizaciones elmentales, los discos abiertos de radio epsilon/delta en el plano, las bolas abiertas en tres dimensiones, etc, son un tipo especial de abiertos, pero, ciertamente, hay conjuntos que son abiertos y no son de esa forma. Esos subconjuntos especiales de la topología forman una base de la misma.

Una vez que tenemos definidos los abiertos cualquier definición que hagamos en términos de esos conjuntos va a ser una definición topológica. Por ejemplo se dice que un conjunto es cerrado cuando su complementario es abierto. Otra noción topologica de interés es la de compacidad. Intuitivamente en \mathbb R^n un compacto va a ser un conjunto cerrado y acotado (la distancia entre dos cualesquiera de sus puntos es finita). Pero esa no es realmente la definición de compacidad. Se puede usar esa definición (de hecho en algunos sitios se hace así) pues el teorema de Heine-Borel nos dice que todo conjunto cerrado y acotado en \mathbb R^n es compacto. Pero como dije una noción topológica debe darse en términos de los abiertos. Vamos a ello.

Primero debo explicar la idea de recubrimiento. Dado un subconjunto, S, de un espacio topológico, X un recubrimiento de S es una colección de conjuntos abiertos Rn tal que S esta incluido en la unión de todos los Rn. Se dirá que un conjunto es compacto cuando todo recubrimiento del mismo admite un subrecubrimiento (un cubrimiento con un un subconjunto de la colección recubridora)finito. La noción de compacidad es útil por muy diversos motivos. Una es que, por el teorema de Heine-Borel, podemos caracterizar los cerrados y acotados, un tipo de conjuntos interesante, mediante esta propiedad. Otro aspecto útil es que si queremos demostrar algo sobre un compacto nos basta demostrarlo sobre cualquier elemento del conjunto recubridor y asegurarnos de que la propiedad demostrada no se pierde cuando tenemos una unión finita de esos elementos. Es importante hacer notar que como en un compacto todos los recubrimientos admiten subrecubrimiento finito podemos elegir los Rn de la forma que mas nos convenga.

Antes de seguir con tecnicismo haré una aclaración importante. Quienes hayan leído en algún libro de divulgación sobre topología lo mas probable es que se la hayan definido algo así como «geometría de las superficies de goma», o el estudio de las propiedades que se mantienen bajo operaciones de estirar/contraer y de identificar. Eso se parece muy poco a lo que he explicado hasta ahora. El caso es que conviene distinguir dos aspectos de la topologia, Por un lado esta la topologia de conjuntos. Al generalizar las propiedades de los abiertos usados en las definiciones de cálculo nos permite formalizar el mismo y extenderlo a espacios abstractos. Esto es útil para dar un marco común a todas las ramas de las matemáticas. Estas nociones de topologia de conjuntos son fundamentales en las definiciones que se hacen en conceptos relacionados con teoría de la medida, análisis funcional, etc. Y por supuesto también son esenciales en definiciones de geometría (tanto diferencial cómo algebraica). Por otro lado tenemos otro aspecto, que enlaza con la definición dada en los textos divulgativos. Nos va a interesar poder conocer cuando dos espacios son indistinguibles entre si a partir exclusivamente de sus propiedades topológicas.Pues bien, esos espacios equivalentes topologicamente se corresponden a la noción intuitiva de estirar/contraer e identificar. Enseguida veremos la definición técnica de estos conceptos.

Había dicho que la introducción de una topología permitía definir el concepto de función continua de forma abstracta. Vamos con esa definición. Una función f:M->N entre dos espacios topológicos se dice continua si la imagen inversa de un abierto de N es un abierto de M. Sóo con esto se puede dar una definición rigurosa de la idea de que dos espacios son deformables el uno en el otro, es decir topológicamente equivalentes. Dos espacios son topologicamente equivalentes, homeomorfos, cuando existe entre ellos una aplicación continua y con inversa continua, tal aplicación se dice que es un homeomorfismo.(Normalmente se añade la condición de que esa aplicación sea biyectiva). Lo interesante de esto es que si dos espacios son homeomorfos van a tener las mismas propiedades topológicas.

Una noción topológica comúnmente usada es la de espacio conexo, intuitivamente un espacio es conexo cuando no esta hecho de varias partes separadas.Por ejemplo R 2 sería conexo, un círculo en el plano sería conexo. Sin embargo dos círculos sin puntos en común, por ejemplo círculos de radio uno con centro en (-5.0) y (0,5) no lo serían.

La definición rigurosa de este concepto es:

Un espacio topológico X es conexo si no puede ser escrito cómo X = X1 U X2 dónde X1,X2 son ambos abiertos y X1 Int X2 = Conjunto vacío.

Es fácil probar, no lo haré, que esta definición es «topológica», es decir que dos espacios, uno conexo y otro no, no pueden ser homeomorfos.Hay más definiciones referentes a la conectividad, conexo por arcos, etc. Pero con esta nos vale.

Vamos ahora con unos conceptos mas especializados que usaremos en el apéndice de variedades.

– Haussdorf: Un espacio X es Hussdorff si para cada x, y pertenecientes a X con x \not = y hay entornos U, V de x e y respectivamente tales que la intersección de U y V es nula.

– Compacidad local: Un espacio X es localmente compacto si cada punto de X tiene un entorno compacto.

-Separabilidad. Un espacio topológico se dice que es separable si tiene una base contable de entornos

– Paracompacticidad: Un espacio es paracompacto si es Haussdorff y cada recubrimiento abierto admite un subrecubrimiento localmente finito
APENDICE 2: Formas diferenciales

Una forma diferencial puede ser entendida como un operador multilineal antisimétrico definido sobre un espacio vectorial. Dicho de otra forma sería un elemento del producto tensorial antisimetrizado de elementos del espacio dual a un vectorial. Para los propósitos de este apéndice no es necesario dar los detalles algebraicos. Lo interesante es conectar esta definición algebraica con una definición operativa. Si consideramos que tenemos una familia de espacios vectoriales dependientes de unos parámetros continuos podemos tener una forma diferencial definida algebraicamente en cada punto. El caso mas sencillo es \mathbb {R}^n considerado como espacio afín. Es decir, que en cada punto de \mathbb {R}^n tenemos un espacio vectorial copia del espacio vectorial en el origen. De ese modo podemos tener una forma diferencial, en el sentido algebraico, en cada punto. Esto define una forma diferencial en \mathbb {R}^n .

Una 0-forma sería simplemente una función. Si la forma pertenece al espacio dual será una 1-forma.Si pertenece al producto tensorial antisimetrizado de dos espacios duales sería una 2-forma, etc.

En \mathbb {R}^n en la práctica esto redunda en una construcción bastante sencilla, como a que puede leerse en, por ejemplo, el libro de Marsden-Tromba de cálculo vectorial. Así una 1-forma es una expresión formal del estilo:

f=f_1(x_1,x_2,..., x_n)dx^1  + f_2(x_1,x_2,..., x_n)x^2 + .....f_n(x_1,x_2,..., x_n)dx^n

dónde las f_i(x_1,x_2,..., x_n) son funciones arbitrarias de las coordenadas y las dxison una notación para indicar la base del espacio dual de la base canónica de \mathbb {R}^n

Una n- forma sería una expresión del estilo:

\omega=f_{ij...k}dx^i \wedge dx^j .... \wedge dx^k

En esta expresión se ha introducido un elemento nuevo, el producto exterior \wedge . Este producto es una notación para el producto tensorial antisimetriado de espacios vectoriales. También puede definirse de otro modo, mediante unas propiedades sencillas:
Sea { ei } una base de un espacio vectorial V (o de su dual), que a su vez es un espacio vectorial). Un producto exterior, o producto cuña, de dos tales generadores se define exigiendo las reglas de cómputo (relaciones) siguientes:

1.e_i \wedge e_j = -e_j \wedge e_i \ si \ i \neq j

2. e_i \wedge e_i=0

A partir de esa propiedad de producto exterior de las bases puede, por linealidad, obtenerse el producto exterior de dos formas arbitrarias. En \mathbb {R}^3 , dado que el dual de \mathbb {R}^n coincide con el mismo, puede identificarse una 1-forma con un campo vectorial. Y el producto exterior de dos 1-formas puede verificarse que coincide formalmente con el producto vectorial de dos vectores. Eso sí, el producto vectorial de una n-forma y una m-forma es una (n+m) forma. Por tanto el «producto vectorial» de dos 1-formas es una 2-forma, y, por tanto, un objeto diferente a los «vectores» de los que era producto. Sin embargo la identificación funciona porque una 1-forma arbitraria tiene 3 componentes y una 2-forma también (ya que los productos exteriores dx^i\wedge dx^i se anulan) y al tener la misma dimensión, 3, pueden considerarse como «vectores» de dimensión 3.

El otro elemento importante de las formas diferenciales es la derivada exterior. Esta transforma un n-forma diferencial en una (n+1)-forma diferencial. La definición formal no es especialmente complicada. No obstante a efectos prácticos nos basta con la siguiente definición intuitiva:

d\omega= \sum_{i,j...,k,l} \frac{\partial f_{ij...k}}{\partial x^l} dx^l \wedge dx^i \wedge dx^j ... \wedge dx^k

Vamos a enlazar la derivada exterior con los elementos bien conocidos del cálculo vectorial. Si f es una 0-forma (recordemos, una función ordinaria) su derivada exterior es simplemente:

df=\sum_{i=1}^n \frac{\partial f}{\partial x^i} dx^i

Podemos, como antes, identificar esa 1-forma con un campo vectorial. De ese modo la derivada exterior de una 0-forma coincide con el gradiente de una función.

Para el caso de una 1-forma tenemos que su derivada exterior es:

d\omega = \sum_{i,j}\frac{\partial f_i}{\partial x^j} dx^j \wedge dx^i=\sum_{i<j}\left( \frac{\partial f_i}{\partial x^j} -\frac{\partial f_j}{\partial x^i}\right) dx^i \wedge dx^j

Si interpretamos la 1-forma como un campo vectorial y la 2-forma también como campo vectorial puede verse fácilmente que la derivada exterior coincide con el rotacional. Así mismo podría verse con sencillez que la derivada exterior de una 2-forma identificada a un campo vectorial nos daría la divergencia de ese campo. Nótese que la derivada de una 2-forma es una 3-forma. La 3-formas en \mathbb {R}^3 tienen una úrica componente no nula y, por consiguiente, pueden identificarse con funciones.

Hemos tratado n-formas en \mathbb {R}^n . En una variedad arbitraria tendríamos que en cada punto de la variedad va a estar definido su espacio tangente, que será un espacio vectorial. Este espacio a su vez tendrá su espacio dual. De ese modo podemos trasladar la maquinaria de las formas diferenciales en \mathbb {R}^n a formas en variedades arbitrarias. La única circunstancia que da una complejidad extra es que tenemos mapas de la variedad a \mathbb {R}^n y hay que lleva cuenta de esos mapas. Los detalles necesarios sobre variedades se tratan en su propio apéndice.

APÉNDICE 3: Variedades

La idea de una variedad es generalizar el concepto de las curvas y superficies del cálculo vectorial y de la geometría diferencial clásica, en particular de los conceptos de métrica y curvatura en superficies. El primer modo en que se llevo a cabo esa tarea fué mediante el cálculo tensorial de Levi-civitta. Sin embargo el cálculo tensorial clásico es poco riguroso, y tiene limitaciones en cuanto a los objetos geométricos que pueden definirse por esos medios. Por ese motivo se creó la teoría de variedades diferenciales, que usa elementos de topologia de conjuntos y álgebra multilineal. Una variedad va a ser algo que localmente es como mathbb{R}^n y que puede obtenerse pegando esos trozos de manera adecuada. Un aspecto importante a tener en cuenta en la definición será que definiremos mapas de la variedad en mathbb{R}^n y no como en la teoría de curvas y superficies dónde se hace un mapa de mathbb{R} (curvas) y mathbb{R}^2 (superficies) a subconjuntos de mathbb{R}^3. Esto permite definir la variedad sin hacer referencia a un espacio mathbb{R}^n en el que este embebida.

Tras estos preliminares vamos con las definiciones. Un variedad es un espacio Haussdorf separable tal que en cada punto hay un mapa d-dimensional. La dimensión de la variedad es la dimensión de las cartas. Por tanto hay una colección de cartas \{\mu_{\alpha} : U_{\alpha} \to R^d , \alpha \in I \} tal que \{U_{\alpha}, \alpha \in I \} es un recubrimiento de la variedad. Esta colección de mapas es llamada un atlas. Un trozo de la variedad puede quedar cubierto por dos o mas mapas. Se debe cumplir que las funciones de paso de un atlas a otro (basicamente un cambio de variable) sean continuas.

Si en la definición anterior sustituimos la condición de continuidad por la condición de derivabilidad infinita obtenemos una variedad diferenciable.Es importante (y sorprendente) notar que puede haber variedades que admitien distintas estructuras diferenciables. Es decir, son iguales como variedades, pero diferentes com variedades diferenciables.

BIBLIOGRAFÍA

Dinámica convencional:

1. Landau y Lipshitz: «Mecánica» (vol 1 del curso de física teória). editorial reverté.

2. S. Goldstein. Mecánica clásica.

Dinámica analítica para matemáticos :

1. VI. Arnold: Métodos matemáticos de la mecánica clásica (editorial paraninfo) [incluye una demostración del teorema KAM]

Dinámica Hamiltoniana y caos.

1. James D. Meiss Differential Dynamical Systems (ed Siam: mathematical modeling and computation)

Topología:

1. Munkres: Topology

2. Amstrong: topología básica (editorial reverté)

Geometria diferencial (formas diferenciales y variedades):

1. Michael Spivak : Calculo en variedades (ed Reverté) [introductorio]
2. Boothby: Diferentiable manifolds

2. Richard L. Bisho- Samuel I. Goldberg: Tensor Analysis on manifolds (editoral Dover). [El último capítulo contiene una breve introducción a la dinámica hamiltoniana en variedads- geometría simpléctica-. Las definiciones de este capítulo son mas rigurosas que el de Arnold, con lo cuál es un buen complemento]

Etiquetas: , ,

2 respuestas to “Sistemas hamiltonianos y caos”

  1. Alejandro Álvarez Silva Says:

    Muy buen artículo. Felicitaciones:
    Alejandro Álvarez

  2. Anónimo Says:

    Un artículo completo, sucinto y conciso. Enhorabuena.

Replica a Alejandro Álvarez Silva Cancelar la respuesta