Archive for 24 noviembre 2011

“Science and technology commons”: protegiendo la ciencia del liberalismo

noviembre 24, 2011

Desde mucho antes de que se llegase a la situación actual de crisis de modelos sociopolíticos (que no económica) he dedicado mucho tiempo a analizar y estudiar el papel de la ciencia en la sociedad. En España, históricamente, ha habido un gran desprecio por la ciencia entre las clases políticas, los empresarios y el común de la gente. Teniendo en cuenta que en última instancia la ciencia es el único soporte real de todos los avances de calidad de vida (pese a los esfuerzos de las torpes teorías económicas por evitarlo) ciertamente es chocante.

Tampoco es que histórica y geográficamente España sea el único caso (ni siquiera el peor) de desprecio por la ciencia. Un ejemplo muy curioso es China. Durante muchos siglos China (y no sólo China, pero no voy a analizar todo a la vez) ha estado muy por delante de Europa en tecnología y ciencia. Cuando Gutemberg “inventó” la imprenta en China había, desde siglos atrás, millones de libros impresos. El acero colado (obtenido por fundición, y mucho más útil que el forjado) en Europa se introdujo en siglo XIX. En China era conocido desde hace…si, siglos. Y no digamos ya de los usos de la pólvora. Aún así la tecnología China tenía una naturaleza práctica y puramente empírica y pudo ser fácilmente adelantada cuando Newton (y otros, pero para mi la pieza clave es con diferencia Sir Isaac) crearon la moderna ciencia occidental. Lo curioso es que aunque, en general, aquí se percibe el avance científico como algo positivo (aunque no se respete adecuadamente a los que lo crean) en China, durante algunas épocas, no era así. Por ejemplo, en algunos momentos de la dinastía Ming se promulgaron leyes del estilo “todo aquel que idee un medio mejor o mas eficaz de realizar a cabo alguna teoría determinada será castigado por ello con pena de muerte”. Supongo que de no haber tenido esa ley, inspirada supongo en el confucionismo, probablemente la ciencia moderna habría surgido en China y el mundo sería muy diferente al actual.

Sea como sea el papel de la ciencia en la sociedad hay un factor de esa relación que es uno de los motivos por el que me interesa tanto la ciencia: la ciencia proporciona independencia de la sociedad. Cómo a poco que uno haya estudiado algo de historia se sabe que las sociedades cambian de forma imprevisible y no necesariamente a mejor cuantas mas herramientas se tengan para poder amortiguar los efectos de esos cambios más seguridad para el individuo. En realidad dado el poco interés por promover la ciencia que ha habido siempre en España la situación para los científicos era ya desde hace tiempo tan mala cómo podría esperarse y los cambios actuales en esta crisis no afectan eso demasiado. Por supuesto, cómo digo, la ciencia tiene un valor intrínseco y no necesita demasiado del resto de la sociedad para proporcionar beneficios a quienes la conocen. Digamos que aunque el modelo empresarial en España no fomente el I+D, y el gobierno no apoye apenas la ciencia pura hay muchos medios para que con un buen conocimiento de la porción suficiente de ciencia se pueda vivir bastante bien, buscándose la vida, sin necesidad de apoyos y que a uno le quede un tiempo razonable para investigar en lo que le plazca. Eso sí, que se pueda hacer no significa que sea lo ideal y que no deba hacerse lo posible por cambiarlo.

Tras estas reflexiones introductorias voy al núcleo del post de hoy. Todos estamos oyendo actualmente que va a haber recortes en sanidad, pérdidas de coberturas médicas, etc, etc. Y tenemos como referencia el tercer mundo en materia de salud (también conocido cómo estados unidos :P) dónde la gente en paro no tiene cobertura alguna y la gente de clase media, e incluso clase media-alta, tiene seguros médicos que les cubren las enfermedades leves, cuyos tratamientos podrían pagarse ellos mismos sin el seguro médico, pero no las enfermedades graves que no pueden pagarse y generalmente cuando contraen una de esas enfermedades terminan muriendo cuando, arruinados, dejan de poder pagar el tratamiento (o directamente mueren enseguida por no poder pagarse la operación oportuna). A modo de ejemplo ilustrativo par ala entrada he intentado buscar el precio de una radiografía en los USA cuando no se tiene seguro médico. Al amigo google no le ha hecho ninguna gracia mi búsqueda y no me daba ningún resultado pertinente. He procedido a cambiar de motor de búsqueda y me he ido a altavista (que me ha redirigido a yahoo, me acabo de enterar de que ya no existe altavista xD). Me ha mejorado algo los resultados, pero aún no he encontrado lo que buscaba. Aún asi dí con una página con precios de varias pruebas médicas (el precio que habría que pagar por ellas en una clinica privada, sin seguro médico) según el SNS, sistema nacional de salud: Una radiografía vale 20 euros y una ecografía, 65. Diversas variantes de la búsqueda, en google y yahoo, no me han dado el resultado deseado así tengo que poner los datos de memoria. Una hermana de una amiga tuvo que hacerse una radiografía en USA, estando de vacaciones. Si mal no recuerdo le costo unos 300 €, osea, más de 10 veces el precio de la misma prueba en España. Evidentemente como en una clínica privada, y sin seguro médico, pagas el importe total de la prueba está claro que el coste real (técnico) de la misma es no superior a 20 € y que el exorbitado precio de la misma prueba en USA responde a otros factores.

Bien ¿que factores pueden ser esos? Uno será la falta de libre mercado seguramente. Y otro, probablemente, la guerra de patentes. El tema de las patentes en la ciencia y la tecnología moderna es un tema candente, sobre el que se ha llamado la atención varias veces, incluso antes de la crisis económica. Con la legislación actual de patentes estamos al borde de un colapso en el avance tecnológico. Es un problema ubícuo que se da en varias ramas de la tecnología. Uno de los sectores dónde el asunto es mas dañino es en la industria médica/farmaceútica. Un buen análisis de la historia de las patentes en ese sector, y las consecuencias, las podéis leer aquí: Producción y protección de tecnologías libres, una alternativa a las patentes En ese post, además, se discuten varios aspectos legales sobre las dificultades jurídicas de establecer un sistema de tecnología libre de patentes (incluso cuando los investigadores trabajen por libre y tengan deseo expreso de que su trabajo no este sujeto a esas patentes). También nos da un dato interesante, que puede fijar un orden de magnitud de lo que puede estar significando el sistema de patentes. La penicilina, que no tenía patentes, paso de un precio de 3995 $ la libra (medida de peso, no moneda británica xD) en 1945 a 282 $ en 1950. es decir, un factor 20 de descenso de precio (y eso descontando el efecto de la inflacción) debido a la competencia. Como quiera que las farmaceúticas vieron que la competencia no era buena y que los costes de producción de un medicamento eran lo bastante altos como para lograr una posición de oligopolio (situación e la que uno número pequeño de empresas tienen una posición de poder y pueden fijar los precios en valores mas altos de los que permitiría una situación de oferta-demanda pura) lograron formar un lobby que consiguió unas leyes draconinas de patentes que se aseguraron de que eso no volviese a pasar. Si me he de guiar por los dos ejemplos que he puesto antes sospecho que ahora mismo podríamos estar pagando (bien sea directamente, bien sea a través de los impuestos con los que los gobiernos forman la seguridad social y pagan a las empresas) por los productos médicos precios de entre 10 y 20 veces más de lo que dichos productos tendrían en un mercado competitivo. Digamos que con ese factor de sobreprecio hay margen de maniobra mas que suficiente para resolver el problema de la salud pública sin cargarle el mochuelo al contribuyente. Pero es peor, las farmaceúticas no están produciendo las mejores solucione posibles desde el punto de vista médico sino las mas rentables económicamente. Sé que esto puede sonar paranoico, a mi me sonaba paranoico no hace mucho. Los factores que me han llevado a creer la existencia de estos desmanes son, aparte de las consideraciones económicas sobre lo que es un oligopolio (que es algo que he aprendido recientemente) y como eso impide la competencia, testimonios de primera (o en algunos casos 2ª) persona de gente trabajando en esos sectores que me han comentado casos concretos. Por supuesto muchas teorías sobre las farmaceúticas que circulan siguen siendo claramente paranoias, pero está claro que hay que ser muy cuidadoso al respecto y no descartar ninguna hipótesis.

Otro sector dónde las patentes están yendo por el camino del escándalo es el tema de la tecnologia de móviles y tablets. Actualmente hay casos en marcha de denuncias de apple contra samsung porque el galaxy tab se parece demasiado ¡estéticamente! al IPad 2 y han conseguido bloquear en algunos países la distribucion de ese tablet. Apple tiene patentes por cosas tan ridículas cómo el el desbloqueo de pantalla mediante un deslizador (que, con muy buen criterio, la mayoría de desarrolladores se saltan a la torera y hay ese sistema de desbloqueo en todas las plataformas -android, Synbian, etc- posiblemente mas para fastidiar que porque sea especialmente interesante). Como anécdota decir que apple ha sido tan canalla de poner una denuncia por incumplimiento de patente a una pequeña compañía Valenciana por un tablet android. Al final perdió la batalla legal, pero ha paralizado el tablet durante más de un año y ahora mismo ese mismo tablet ya no es competitivo así que les ha fastidiado bien el negocio a la compañía.

En general todo el tema de la tecnología de móviles y tablets es un ejemplo de una práctica abusiva por parte de las compañías. Si, como se hizo con los PC’s en su momento se optase más por móviles y tabletas clónicas se liberaría el mercado y este avanzaría mas deprisa, y, mas importante, bajarían mucho los precios. Si uno consulta las páginas de 2ª mano puede ver que hay empresas que comercializan copias “chinas” (o no, que ensamblar un movil o un tablet no tiene nada de complicado y puede hacerlo cualquiera) de móviles famosos. Hay móviles con nombres con variantes múltiples e ingeniosas de los modelos mas conocidos (Samsung galaxy S, Iphone, xperia arc, etc). Realmente es muy divertido leer las características de dichos clónicos. Si el móvil original es “dual core” el clónico también. Pero eso sí, si el original tiene una velocidad de reloj de, digamos, 1.5 Ghz para los procesadores el clónico puede tranquilamente quedarse con 0.5 Ghz. Y en vez de llevar 1 GB de memoria puede quedarse en 250 MB. Y, por supuesto, con una versión de android inferior a la propia de la fecha (a lo mejor lleva una 2.º cuando lo típico es ir con un 2.3.2) y con posibilidades dudosas de actualización (y a saber si dejan el acceso al market). Pero, por supuesto son mucho mas baratos, y si uno busca alguna función concreta puede salirle a cuenta. Un ejemplo, el Samsung Galaxy note, que cuesta libre unos 600 € (si uno sabe dónde buscar puede que algo mas barato). Ciertamente es un supermóvil, con una pantalla capacitiva y un lapiz óptico que permite tomar notas manuscritas (o incluso dibujar) en una generosa superficie de 5.3 pulgadas. Con ese tamaño también resulta bastante cómodo leer pdf’s, djvu o libros en formato e-pub (en realidad para literatura, y con el reflow del sistema e-pub, o de algunos lectores de pdf una pantalla de 3.5 es suficiente, pero 5.3 es muuucho mejor). Ahora bien, si uno se conforma con un móvil android (versión no muy puntera) de 5 pulgadas
que no tenga lapiz óptico, y con menos resolución, puede encontrar un modelo clónico por unos 100 €. Y, me imagino, que si uno es hábil siempre puede “cocinar” una rom para el móvil clónico con la última versión que vaya saliendo de android (si el hardware puede moverla, al menos).

Por supuesto lo más interesante es que se vendieran los componente sueltos y uno pudiera montarse un móvil/tablet a su gusto, como e hace con los sobremesas. Y ponerle el sistema operativo que le apeteciera (o incluso un arranque dual). Y podría actualizarlo (al menos algunos aspectos) cuando quisiera. Y sería mucho mas barato. Ahora bien ¿incumpliría eso alguna patente? no me sorprendería?

Por supuesto no todo en el mundo son móviles y tablets y hay que desarrollar tecnologias libres de patente en muchos mas sectores. Por ejemplo, sería muy interesante que se investigasen en técnicas de diagnóstico nuevas, y libres de patente. En realidad estos dos casos no tiene porque ser disjuntos. Un móvil/tablet es un ordenador, y cada vez mas potente. Puede comunicarse con la web en casi cualquier lugar por GSM a precios módicos. Lleva GPS, lleva bluetooth, micro USB,etc. Total, que llevas un ordenador potente con muchas opciones de conexión. Se ha desarrollado muy poco la tecnología de periféricos para móviles, pero creo que es un sector que debería despegar.

Un ejemplo es el de las pulseras médicas. Ahora tenemos, por ejemplo, modelos como este: Pulsera informacion medica ICE‐KEY accidentes. Está pensada para uso de médicos profesionales, y está, creo yo, dirigida a hipondríacos, o, sencillamente, gente muy preocupada por su salud (incluso si no se están continuamente imaginando que están enfermos). Conozco gente que, ahora mismo, se están bajando aplicaciones para detectar su pulso, o calcular las calorías que comen, y las que gastan. Algunos de esos programas, usan “creativamente” las funciones del móvil y no son muy fiables. Por ejemplo, calculan el pulso poniendo el dedo en la cámara del móvil o el peso de los alimentos situándolos sobre la pantalla. Ni que decir tiene que el margen de error es bastante amplio. Quizás el cálculo de calorías sea algo mas acertado pues usa el GPS. Pero vamos, que no es muy fiable. Ahora bien, si se crease una pulsera dedicada, que midiese todas esas variables por medios hardware dedicados, y que se comunicase con el software del modo por bluetooth se podría tener un seguimiento de la salud de una persona muy continuo y fidedigno. Si se avanzase en ese campo imagino que se podrían llegar a crear pulseras que fuese controlando más y más variables: presión arterial, colesterol, ¿análisis completo de sangre?, ¿pruebas específicas de algún antígeno vírico?, ¿que más?. En realidad ya hay algo en marcha en esta linea, por ejemplo para Iphone, pero de momento es más un producto para fanboys que para el común de la población 😛

Móviles aparte hay otras opciones interesantes de combinar medicina e informática. Ya hace tiempo que se viene hablando de sensores de cámaras que capten espectros no visibles en la región del teraherzio. Eso permitiría técnicas diagnosticas baratas sustitutas (o al menos complementarias) de las radiografías, tomografías, etc. Si se acompañan de un software adecuado una persona podría realizarse exploraciones casi diarias en diversas zonas proclives de sufrir diversas enfermedades (cáncer, piedras de riñón, etc). No seria necesarios (aunque si conveniente, y no tan difícil) que la persona entendiera las imágenes, lo haría el software por ella. Cuando detectara un posible positivo iría al médico, para que se lo confirmase. Digamos que, creo yo, podríamos estar al borde de una revolución médica, en el tema de la prevención precoz. Como para la mayoría de enfermedades precoces la detección precoz es la mejor (y a veces casi única) herramienta médica si esta quedase transferida, vía tecnología standard, relativamente barata, y, por supuesto, no sujeta a patentes, se abaratarían mucho los costes médicos. Si a esto añadiéramos una liberalización de patentes en el sector de medicamentos nos encontaríamos con la posibilidad de una sanidad mucho mas barata que la actual, mejor, y desde luego, sostenible por los gobiernos sin copagos y locuras similares. Y muchas de estas investigaciones tecnológicas son hoy día mas sencillas de hacer que hace medio siglo. Creo que, con las vías de cooperación adecuadas, podrían hacerse estas investigaciones al margen de las empresas.

Por supuesto yo soy partidario de que la investigación habría que pagarla…al investigador. Pero ahora los investigadores cobran una birria y todo el dinero de su trabajo va para las empresas, que cada vez son mas prescindibles. Y, además, ralentizan el avance científico de mala manera. creo que hay motivos más que de sobra para que se empiecen a poner en marcha cuanto antes líneas de investigación bajo licencias “technology commons y “science commons”. Vale, el grueso de la población seguirá sin valorar adecuadamente la labor del investigador, pero tal como está el patio el ratio de beneficio personal (cantidad de recursos tecnológicos útiles a los que pueda acceder con su sueldo) del investigador será mas alto trabajando bajo este sistema que trabajando para las empresas. Y además queda mas guay y más solidario. Y, recordemos, que el altruismo esta demostrado (mediante teoría de juegos) es la postura mas eficiente a nivel egoísta en bastantes situaciones :-).

Neutrinos de OPERA ultralumínicos: nuevos resultados favorables y una teoría personal.

noviembre 16, 2011

Como anticipé en la entrada anterior estaba realizándose una repetición del experimento de OPERA usando pulsos mas cortos, del orden de dos nanosegundos. Usando este tipo de pulsos se evita una de las fuentes de error mas comúnmente alegadas, que haya un error estadístico en el ajuste de las medidas a la duración de pulsos largos. También anticipe que se esperaba tener resultados rápidamente, y ya hay rumores más o menos fiables al respecto.

Nos lo cuenta lubos en su entrada: OPERA: neutrinos FTL even at 2 ns spacing. Los resultados oficiales parece ser que ese anuncia en dos días, pero si hemos de creer el rumor (algo que en estas circunstancias casi podemos dar por hecho) el resultado se sigue manteniendo y, por consiguiente, seguimos teniendo neutrinos aparentemente mas rápidos que la luz.

Como advertía en la anterior entrada tenía motivos personales para creer que el resultado se iba a mantener ya que, según mi propia hipótesis, el resultado es real, aunque la velocidad hiperlumínica es aparente y se debe a un efecto relativista sutil que se pasa por alto. Aún no tengo del todo claros algunos puntos del desarrollo conceptual, pero los resultados que voy obteniendo están tan cercanos a los valores observados (en órdenes de magnitud) que creo que voy por buen camino.

Voy a dar un bosquejo del razonamiento. La idea es sencilla, los neutrinos viajan en un “universo menguante” debido a que la masa de la tierra contrae el universo en sus inmediaciones.

Esto puede parecer chocante si uno piensa en el campo gravitatorio terrestre en términos de una métrica de Scharschild. Según esta el efecto del campo gravitatorio hace cosas cómo alterar la velocidad de los relojes, de relevancia en el GPS, desviar ligeramente la trayectoria de los neutrinos respecto a la línea recta, en cantidades absolutamente despreciables y cosas así.

El truco está en ver las cosas desde el punto de vista de los neutrinos. Estos avanzan por un medio material que , más o menos, en las inmediaciones de la trayectoria, es homogéneo e isótropo. Esas dos palabras automáticamente remiten a una métrica FRW y a modelos cosmológicos. El lector sin conocimientos previos de cosmología, per que sepa relatividad general, puede visitar la entrada de wikipedia sobre el tema: Friedmann–Lemaître–Robertson–Walker metric.

Para usar el formalismo FRW al presente caso debemos revisar algunos conceptos y adaptarlos. Lo primero es admitir que podemos aproximar el espacio local de los neutrinos por un universo uniforme e isótropo. Si asumimos que la tierra que atraviesan tiene variaciones mínimas de densidad esto es así. El campo gravitatorio radial correspondiente a una métrica de Schwarschilld (o el análogo con materia, la solución de Tollman-Oppenhemier) son irrelevantes ya que, como argumenté, no desvían a los neutrinos de una trayectoria recta.

Entonce tenemos las ecuaciones de FRW:



Estas son unas ecuaciones diferenciales ordinarias para componentes de una métrica, tal cuál se explica en la wiki. El factor a es el “radio 4 dimensional”, rho es la densidad del medio, ka es la curvatura del universo y Sigma la constante cosmológica. El significado del resto de términos viene explicado en la wiki y menciono estos porque son los que necesito reinterpretar.

Para empezar tenemos que tratar a, el radio 4 dimensional, y como pensar en un universo en expansión (o contracción) adaptado a nuestro caso. La idea de la cosmologia es que el universo se está expandiendo como si fuese una esfera en 4-dimensiones de radio a. Obviamente el interior de la tierra no es un universo y nvamos a tener que pensar en términos locales. La clave es fijarse en un factor local, el ritmo de expansión del universo, es decir \dot{a}/a . También podemos olvidarnos de la curvatura ya que en el trayecto tan corto que cubren los neutrinos no juega ningún papel, y, por el mismo motivo, de la constante cosmológica. Eso nos deja con que:

1. (\dot{a}/a)^2= 8\pi G/3 . \rho

En cosmologia la densidad es la masa partida por el volumen, y por tanto, dado que el volumen varía la densidad también lo hace. Por eso las ecuaciones de FRW son un sistema de dos ecuaciones diferenciales. En nuestro caso las cosas cambian. Dado que la densidad crítica del universo es mucho menor que la densidad de la tierra podemos asumir sin problemas que, localmente, el universo se está contrayendo (aunque globalmente se este expandiendo9. Eso haría que la tierra disminuyese de tamaño si la materia de la tierra fuese como la que se considera en cosmologia, un fluido, posiblemente con presión. Pero la tierra es sólida y mantiene su forma incluso aunque el universo este encogiendo. Aún así, para simplificar, yo asumo que la idea del tensor energía momento del fluido nos vale. Simplemente asumo que no tengo que preocuparme de la presión y el único factor a tener en cuenta es la densidad. He buscado algo sobre tensores energía momento relativistas de medios continuos, pero no he hallado nada, así que confío en que mi simplificación valga. En última instancia la idea es buscar algo razonable que nos permita hacer cálculos. Si los resultados salen erróneos nos olvidamos, y si salen más o menos bien ya los analizamos a fondo.

Bien, entonces basta sustituir en la ecuación 1 los valores. Nos da para \dot{a}/a un valor de 5.5437 x 10^-5. Esto es, superficialmente, interesante ya que el factor de violación de la velocidad de la luz de los neutrinos(v-c)/c también es del mismo orden, en concreto es 2.48x 10^-5. Si ambas cantidades fuesen adimensionales esta coincidencia sería mas significativa, pero no es el caso. Aun así no estamos muy lejos. Si usamos infnitésimos tenemos que \dot {a} /a = (\frac{\Delta a/\Delta t)}/a . Vamos a usar esta aproximación de infinitésimos para ver como precisar la comparación.

Recordemos que los neutrinos recorren un trayecto, d=731.278 metros. Si fuesen a la velocidad de la luz tardarían un tiempo t=d/c en recorrer ese trayecto. Ese t es el que va a jugar el papel de \Delta t. A la diferencia entre el tiempo que tarda la luz en recorrer el trayecto y la que tardan los neutrinos la denomino \delta t.

Ahora voy a hacer otra simplifiación. Voy a considerar que los neutrinos no recorren el total de los kilómetros vistos desde el exterior (los que mide el GPS) sino que como el universo se está encogiendo en realidad recorren una distancia menor, que es la disntancia inicial entre ambos puntos, menos la cantidad que se ha encogido el universo. Este es un punto sutil ya que en realidad, aunque el universo se está encogiendo la tierra no lo hace y los puntos, por fuera, siguen a la misma distancia. El caso es similar al “Warp drive” de alcubieere: Alcubierre drive.

La idea de warp drive es la siguiente. Quiero ir del punto a al b, separados por una distancia, en métrica plana, d. Y quiero ir “mas rápido que la luz”, pero sin violar la relatividad. El truco es hacer que la métrica delante de nosotros “encoja” y detrás “se estire”, de tal forma que, en todo momento, la distancia total siga siendo d. Si hacemos eso nosotros nos vamos siempre moviendo a una velocidad inferior a c, pero tenemos que recorrer, en nuestra métrica local, una distancia d'<d, y, por consiguiente, tardamos menos.

Aquí no voy a usar todos los detalles del modelo Alcubierre (con su correspondiente adaptación9 y me voy a limitar a una aproximación muy grosera. Simplemente me voy a preocupar si el resultado de recorrer la distancia original "encogida" por nuestro universo menguante nos da un orden de magnitud adecuado.
Sustituyendo en las expreiones anteriores tengo:

\delta t= \Delta a /c= 5.5437 . 10^{-5}. \Delta t=5.5437 . 10^{-5}. a.d/c^2 .

Si se hacen las cuentas (y no me he equivocado en algún lado, y no me he saltado ninguna constante de esas que los autores- en concreto Collins, Martins y Squires cuyo libro "particle physics and cosmology" he usado de referencia- gustan de hacer iguales a 1 sin avisar) el resultado para el diferencial de tiempos es a.4.504 x10^-16.

Ahora viene un punto sobre el que aún no tengo clara la interpretación que debo dar. Este a es el radio del universo y, obviamente, quiero trabajar a nivel local y no debería aparecer. Debería estar todo en términos del cociente \dot {a} /a , pero no es el caso (ver P.S. 2). Si, así a lo bruto, sustituyo a por la distancia resulta un valor para el incremento del tiempo de 3.24 x10 ^-11 sgs= 3.24^10-2 ns. Teniendo en cuenta que el resultado experimental para ese tiempo es de 60.7 ns estoy tres órdenes de magnitud fuera del valor observado. Dada la cantidad de simplificaciones brutales, y el error conceptual pendiente de como interpretar a (o como librarme de él) creo que es un fallo corregible si se hacen las cosas con más cuidado. Más importante, creo que la idea en si misma es conceptualmente elegante. Básicamente estoy teniendo en cuenta algo que la RG nos dice que debe ocurrir (que el universo encoja) y viendo si ese ritmo de encogimiento, irrelevante para casi cualquier otro propósito, tiene un orden de magnitud medianamente similar a lo que observamos. Y, pese a la brutalidad de las aproximaciones, y a que hay algún detalle conceptual no muy claro, resulta que es así. Si estuviese en una cátedra no presentaría los cálculos en una fase de concepción tan pedreste cómo lo he hecho aquí. Pero, claro, si me pagasen habría tenido mucho mas tiempo, y motivación, para ponerme con las cuentas y hacerlas con toda propiedad, y las habría tenido listas hace semanas.

Siendo como son las cosas queda así tal cuál. Si a alguien le apetece comentar, indicando errores, criticando la aproximación (para bien o para mal) y, incluso, si le apetece usar esta base y hacer bien las cuentas y si haciéndolo bien salen los valores del experimento y publica un artículo que le de fama, por mi no hay problema, tanto si me menciona en las referencias como si no. A mi lo que me interesa es ver si esta idea resuelve el problema planteado y no me importa demasiado si los detalles los hago yo o los termina otra persona por mí. Obviamente, asumo que lo mas probable es que este totalmente equivocado y que algún investigador profesional dará con la respuesta correcta. Aún así, aún así, tal vez tenga razón, y o bien yo mismo, u otra persona, rehará bien las cuentas y se explique el resultado, soñar es gratis ;-).

P.S. he escrito el código latex de memoria y veo que hay algún errorcillo. Ahora no tengo tiempo, pero ya lo corregiré. De todos modos aún con los errores creo que la idea puede seguirse.
P.S. 2. Meditando sobre el asunto creo que dado que el ritmo de expansión del universo en un modelos cosmológico depende del radio del mismo en un momento dado en realidad si deben depender los resultados de a, y no sólo del cociente. Si admito eso debería buscarse alguna propuesta “natural” en algún sentido para ese valor (que, obviamente no es el radio cosmológico), ni tampoco creo que deba ser el valor de la distancia entre el CERN y el observatorio. En principio, según se me ocurre ahora, debería ser algún tipo de magnitud relacionada con alguna distancia respecto al centro de la tierra a partir de la cuál debamos olvidar esta aproximación y volver al ritmo general de expansión del universo. Obviamente mientras este valor de A tenga un valor arbitrario puede elegirse cualquier valor del mismo, en particular el que sirve para obtener el valor exacto del experimento. Lógicamente eso hace que la teoría no tenga ningún valor predictivo hasta que no se resuelve este asunto. Intuitivamente pienso que si el radio debemos fijarlo por algún tipo de condición de contorno respecto al punto en cuál el universo recupera su comportamiento promedio tal vez podría ser razonable un valor en un rango de valores próximo al que se necesitaría para obtener el resultado experimental, pero puede que eso sea “whisiful thinking”, o “buenos deseos”, en castellano paladín xD.

Los neutrinos de OPERA, sumario de lo acaecido hasta ahora.

noviembre 6, 2011

Llevo un tiempo sin poner una entrada sobre física en el blog y creo que ya es hora de volver a ello. En la última entrada sobre física hablaba sobre el ya célebre experimento OPERA y su resultado que parece indicar que los neutrinos son mas veloces que la luz.

Como no podía ser de otro modo el tema ha sido discutido a fondo en muchos blogs y ha habido numerosas teorías de todo tipo al respecto. Unas han intentado explicar el fenómeno en términos de efectos de física conocida que pueden haber afectado al experimento inadvertidamente. Otros han intentado apuntar a defectos en el análisis estadístico.Otra línea ha sido encontrar incompatibilidades teóricas que invalidarían casi en principio la posibilidad de que el resultado fuese cierto. En esa línea de ataque ha surgido el que probablemente es el artículo mas destacado de los que han tratado el tema: New Constraints on Neutrino Velocities.

En ese artículo argumentan, y calculan, que los neutrinos deberían, a través de un proceso a un loop, radiar pares electrón-positrón perdiendo en el proceso energía cinética, y por consiguiente velocidad. De hecho la perdida sería tan intensa que si partieran a una velocidad mayor que la luz nunca podrían llegar al detector de OPERA con la energía observada. A raíz de esa idea se hizo un nuevo experimento, el ICARUS, que reforzaba el argumento, como nos cuenta Migui: ICARUS, el experimento “gemelo” de OPERA descarta los neutrinos superlumínicos. Realmente ese argumento de Cohen-Glasgow, siendo interesante, no da la respuesta definitiva al asunto, tal como explica, por ejemplo, Francis: Lo siento, ICARUS no refuta a OPERA en relación a los neutrinos superlumínicos.

Mas recientemente otro experimento, NOMAD ha perseguido experimentalmente la misma línea de ataque, tal cuál nos cuenta Tomasso Dorigo: A Bound On Neutrino Speeds From Nomad.

Entre medias tenemos otro artículo teórico que da una vuelta de tuerca más al argumento de Cohen-Glasow:
On the generality of the Cohen and Glashow constraints on the neutrino velocity como nos cuentan en el blog de cuentos cuánticos (ue voy a añadir a la sección de enlaces cuando termine de escribir la entrada): Sí, otra vez los neutrinos… Cohen-Glashow y su generalidad..

Bien, esa línea de ataque definitivamente no es del todo general. Es mas interesante intentar ver si se puede repetir, en mejores condiciones, el experimento original. Se dieron pasos para ello, pero inicialmente parecía que deberían pasar meses (puede que hasta un año o incluso más) antes de tener resultados. Sin embargo, como nos cuenta Matt Strassler: A Few Tidbits from Nagoya, including OPERA news el resultado es tan importante que han conseguido convencer a los responsables del experimento OPERA de que abandonen por un breve espacio de tiempo su línea principal de investigación (medir oscilaciones neutrínicas) y se dediquen en exclusiva a intentar reproducir los resultados. Esto significa que pueden detectar pulsos mucho mas cortos de neutrinos. Haciendo eso pueden eliminar uno de los factores que más les han criticado (pero sin argumentos definitivos), el estadístico. Según Matt podríamos tener los nuevos resultados en una o dos semanas, lo cuál sería estupendo, claro está.

Que el tema sigue captando atención está claro. Por ejemplo la última entrada, al momento de escribir esta, del blog de Francis va sobre los neutrinos: Neutrinos superlumínicos en las III jornadas CPAN.

Muy revelador es el comentario con el que cierra su entrada.

A título privado comenté la noticia de los neutrinos superlumínicos con bastante gente y observé que la mayoría no le da la menor importancia, como si asumieran que hay un error sistemático en el experimento y que no merece la pena preocuparse más por dicho resultado. Cada uno trabaja al 200% en sus propios problemas y no tiene tiempo de preocuparse por noticias mediatizadas por otras colaboraciones. La verdad, me sorprendió bastante este tipo de respuesta.

Vale, es muy posible que sea así. Sin embargo mi opinión personal es diferente. Por un lado los neutrinos, que en principio son la partícula mas anodina del modelo standard, han dado varias sorpresas. De un lado están sus oscilaciones que implican que deben tener masa. Si esta es positiva (y real) debe ser muy pequeña y eso es “antinatural” para lo cuál se creó el “mecanismo del balancín” que la explicaría en términos de una masa con un origen mas “natural” del orden de la energía de unificación SU(5). Ahí hay que jugar con spinores de Majorana y y Dirac y no me voy a molestar en explicarlo. Por otro lado tenemos que en teoría de cuerdas (y en otros modelos fenomenológicos genéricos) hay escenarios dónde aparecen neutrinos estériles (que sólo interaccionan gravitacionalmente. Y hay alguna anomalía más con los neutrinos que ahora no recuerdo, y no me interesa buscar. Más aún, hay una coincidencia entre su masa mas probable y la constante cosmológica que es ciertamente intrigante. Con tal historial a las espaldas no sorprendería que ya fuesen un paso mas allá y nos salieran “superlumínicos”, o al menos casi. Hay, desde luego, muchos artículos que proponen modelos con diversos medios para hacer los neutrinos superlumínicos, basándose en nueva física (dimensiones extra sobre todo) pero no voy a recapitular aquí todos los que han salido, que la lista sería muy larga.

A nivel personal, en ratos libres, he estado persiguiendo una idea, a ver hasta dónde me podía llevar. Según esa idea el resultado sería real, pero no implicaría que los neutrinos fuesen superlumínicos. A diferencia de teorías con dimensiones extra intento explicarlo mediante un efecto de relatividad general relativamente convencional (nada de agujeros de gusano xD). Este efecto no estaría relacionado, como ha sugerido otra gente, con efectos de RG en la sincronización GPS sino que sería mas “genuino”, es decir, que realmente afectaría al trayecto de los neutrinos y no a la sincronización de los relojes que se usan para medir la velocidad. Una vez conjeturada la idea me llevó un tiempecillo ver como plasmarla en ecuaciones (o mas bien, como adaptar ecuaciones ya existentes al caso particular, alejado del propósito inicial de esas ecuaciones). Una vez hecho eso el problema quedaba reducido a dos partes, una relativamente sencilla, que debía dar los órdenes de magnitud, y otra algo mas complicada (con la que no me he metido aún) que debería dar la parte del ajuste fino. Hice algunos cálculos de la parte fácil, pero luego me di cuenta de que tenía algún error en las aproximaciones usadas y debo repetirlos. Intuitivamente, visto lo que me salió la última vez y en función de como creo que debo rehacer los cálculos, creo que deberían estar cerca del orden de magnitud apropiado, pero hasta que no los rehaga no puedo afirmar nada. Luego, si el orden de magnitud es correcto deberé refinarlo, con la parte difícil, y luego asegurarme de que la adaptación que hago tiene sentido (si los resultados salen sería un buen argumento a favor de que la aproximación es buena xD).

Por cierto, los cálculos no son terriblemente difíciles, en particular sí se comparan con lo que se hace en teoría de cuerdas. De no estar liado con un motón de cosas (por ejemplo el cálculo numérico que comentaba en la entrada anterior) podría haberlos hecho en una semana, como mucho. Pero es lo que hay. Y, además, posiblemente la idea este equivocada. Eso sí, sigue siendo entretenido poder dedicarse a estas cosas, aunque no sea a tiempo completo ;-).

P.S. Y mientras los neutrinos causan sensación el LHC, a la chita callando, ha empezado a dar sus primeros tenues signos de o que podría ser nueva física. A ver si tengo tiempo en breve y recapitulo un poco de los dos nuevos resultados “disidentes”.