Posts Tagged ‘psicohistoria’

¿Realmente los alemanes son buenos en ciencia?

marzo 8, 2013

La respuesta a la pregunta debería ser obviamente afirmativa. ¿Por que plantearla entonces? El motivo es muy sencillo, ese engendro conocido cómo escuela austriaca de economía. Resulta muy extraño que en un país más o menos civilizado se opte por darle carta blanca a las majaderías acientíficas de esa gente. En la época en que se empezó a pergreñar esa abominación intelectual los alemanes del momento lo trataron correspondía, con desprecio. ¿Que ha pasado para que ahora se les de crédito. Por supuesto parte de la respuesta proviene de otros factores (por ejemplo, el diseño antidemocrático de la unión (de empresaurios) europea. Pero aquí voy a ocuparme del aspecto que reza el título, la parte científica.

Negar que Alemania ha sido grande en ciencia es imposible. En matemáticas tenemos así, a bote pronto, a Gaus y a Riemman. Pero desde luego hay más, Jacobi, hilbert, Klein, Weierrstras, Bessel, etc. Podéis ver un listado general en la wiki, uno de los del siglo XIX y otro de los del siglo XX.

En física teórica tenemos a Einstein, a Planck (por esa época hablar de física teórica es un poco aventurado, pero bueno), a Sommerfeld, a Heisenberg, a Schröedinger (mec, no, ese es austricao, pero seguro que por el nombre mucha gente piensa que es alemán. Su formación la hizo en Austria principalmente pero su época mas productiva la realizó en universidades Alemanas) y, en general, la universidad de Gottinga que fué una de las cunas (sino la cuna de la física cuántica.

Y bueno, si seguimos por la rama de la relatividad general tenemos a Karl Schwasrschil, el autor de la famosa solución de las ecuaciones de Einstein estáticas con simetría radial que llevaría al descubrimiento de los agujeros negros y luego otro nombre muy sonoro, la soución de Reissener-Nordstrom para agujeros negros cargados (Reissner era alemán, nordstron sin embargo era finlandés) y luego la solución de Kerr-Newman para un agujero negro rotatorios que, ah, no, estos no son alemanes, Kerr es neozelandés y Newman es americano, pero vaya, el nombre podría dar el pego así que por eso lo aclaro.

Bien, queda claro, en el siglo XIX y en la primera mitadl del XX en matemática había muchos y muy buenos matemáticos, y a finales del XIX y principios (hasta la 2ª guerra mundial) del siglo XX tenían a muchos de los mejores físicos teóricos. Hasta aquí más o menos lo más conocido y lo que da fama a los alemanes como científicos. Pero vamos a intentar ir un paso mas allá en el análisis.

Leyendo un libro de divulgación sobre la conjetura de poincaré me enteré de cosas muy curiosas sobre la historia de las matemáticas. Cosas cómo que por ejemplo los USA habían alcanzado su máximo número de matemáticos en los 70 y desde entonces han ido cayendo y que en Alemania sólo empezó a haber matemática (y sospecho que física) en serio a raíz de que Inglaterra empezase a ser la primera potencia del mundo, empujada por la revolución que supuso la ciencia de Newton y, secundariamente, la revolución industrial. Puede verse la poca relevancia matemática de los alemanes en el siglo XVII consultando el listado de matemáticos alemanes de ese siglo. Realmente conocidos están Gauss, que es más del XIX que del XVIII, Leibniz y si acaso Goldbach.

A esa nueva ciencia se habían ido sumando otros países, cómo por ejemplo Francia, o Suiza y Holanda, y les iba muy bien. Los alemanes, viendo que se quedaban atrás, terminaron por optar por invertir en ese área y lograron que un ser tan singular cómo Gauss se quedase en tierras bávaras en vez de irse a una universidad Suiza (para lo cuál tuvieron que pagarle muy bien). Bien, ese idílio de Alemania con la matemática y la física se prolongó hasta que llegaron los nazis al poder y apostaron por una ciencia “práctica” (que enseguida se vió que no valía un pimiento) y la mayoría de los grandes físicos, con Einstein a la cabeza, huyeron del país.

¿Que fué de la física en Alemania después de los Nazis? Bien, Alemania durante la postguerra tuvo serios problemas, aunque económicamente se recupero más o menos bien- y relativamente rápido- a raíz del plan Marshall. Ahora lo que es en física teórica nunca se recuperaron. Siendo físico teórico debo decir que no recuerdo ahora mismo (y he estado pensando en ello un rato) ningún nombre de teórico alemán que haya hecho alguna contribución importante desde la 2ª guerra mundial. Ahora mismo, en teoría de cuerdas, me suenan dos nombres, Lüest y Theisen, autores de uno de los primeros libros sobre teoría de cuerdas que está escrito e a raíz de un curso en una universidad alemana lo cuál junto a la sonoridad de los nombres, me lleva a pensar que los autores son alemanes. Luest, aparte de ese libro, me resulta conocido por sus trabajos en la construcción de modelos fenomenológicos a partir de D-branas, en particular sus artículos “the LHC string hunter Iy II” que, cómo el resto de modelos fenomenológicos basados en cuerdas han sido vapuleados por el LHC (que, por ahora, no ha cazado nada, usando la terminología de los artículos).

Si dejamos la teoría de cuerdas y aceptamos a día de hoy a la LQG cómo una alternativa válida en gravitación cuántica (algo que mucha gente discutiría enérgicamente) podriamos señalar dos nombres, Martin Bojowald, que trabaja en loop quantum cosmology y en asymptotic safe gravity.

Y luego tenemos a Sabine Hossenfander que es famosa por su blog, back-reaction, y tal vez pueda decirse que es relativamente buena en fenomenología de la gravitación cuántica. Y ya, no soy capaz de recordar ni un sólo nombre de físico teórico alemán relevante.

Puede parecer algo el indicar estos nombres. Pero, sinceramente, si ese es el nivel de la física teórica alemana no está mejor que la Española. Podria señalar nombres cómo Luis Ibañez, importante fenomenólogo de cuerdas, por ejemplo, los modelos de compactificación LARGE, de los que es creador junto al también muy reconocido J.C. Quevedo , Luis Alvarez-Gaumé, autor español cuyo nombre aparece en cualquier libro de teoría de cuerdas por un trabajo que hizo en colaboración con Edward Witten sobre anomalías en teoría de cuerdas, Enrique Alvarez que posiblemente sean mejores que los físicos Alemanes mencionados (aunque ya sabemos que las comparaciones son odiosas).

Pero vale, podría ser que me fallase la memoria o algo a´si. Vamos pues a consultar la lista de premios nobel de física. Observamos que entre el 1932, año en que le dan el nobel a Heisenberg y el 54, en el que se lo dan a un tal Bothe (de cuya existencia me acabo de enterar y que el tema por el que le dieron el nobel me resulta absolutamente desconocido) no hay ningún Alemán. Osea, que en 32 años no hay ni un sólo premio noble Alemán y el que rompe la sequía es de una talla infinitamente menor que Heisenberg. Pero- vale, estaban recuperándose de la guerra y de la fuga de sus grandes teóricos. Sigamos, el siguiente premiado llega 7 años después, en el 1961, Mößbauer. No es un precisamente teórico pero al menos su trabajo es relativamente conocido. Podríamos pensar que ahora, una vez recuperados económicamente, y tras juntar dos nobel en 7 años, volverían a la gran época. Pero no, el siguiente nobel se hace esperar hasta el 1985 ¡24 años sin un nobel cuando ya sí son de nuevo una potencia económica!. El galardonado es un tal Klaus von Klitzing por el efecto Hall cuántico. dado que el tema por el que fué galardonado lleva el nombre de otro podemos sospechar que no fué el que mas aporto al tema. Si entramos a leer los detalles vemos que en realidad lo que hizo fué estudiar cómo varía a saltos la corriente en conductores en determinadas circunstancias. Soy teórico y no físico del estado sólido, pero aún así puede afirmar que su trabajo no tiene ni de lejos la relevancia de temas de ese área 8estado sólido/materia condensada) cómo los trabajos de Landau, el descubrimiento de los transistores de estado sólido por parte de Cooper o la teoría BCS (Bardeen-Cooper, Schaefer) de la wsuperconductividad.

Ya, mas recientes, tenemos en el 87 a Johannes Georg Bednorz galardonado por el descubrimiento de la superconductividad en materiales cerámicos, que hizo abrigar la esperanza de tener superconductores a temperatura ambiente. Dado que incluso hoy no tenemos una teoría medianamente fundamental (y ni siquiera si tenemos una teoría digna del nombre, pero vamos, no es mi campo de estudio así que ni afirmo ni niego) está claro que es un descubrimiento experimental en un tema experimental. Es decir. 0% teórico. Para no ir caso por caso decir que desde entonces han tenido algún nobel más, pero todos en temas de física del estado sólido u otros temas aplicados, cómo optronica. Es decir que desde la huida de físicos teóricos durante el nazismo nunca han vuelto a tener un nobel en ese área. Y hasta hace relativamente poco los dos nobel intermedios que tuvieron no se puede decir que hayan sido de los mas prestigiosos precisamente.

Bien, vamos con el otro gran apartado de la ciencia de élite, las matemáticas. En concreto vamos al premio mas prestigioso de las matemáticas, la medalla fields y sus ganadores. Aqí el trabajo es muy sencillo. Desde que se instaura el premio, en el año 1936, ¡sólo un matemático alemán ha obtenido el galardón!. En concreto se trata de Gerd Faltings que obtuvo el premio por demostrar una conjetura de geometría algebraica, la conjetura de Mordell (o conjetura de Morder-weyl que es lo que le oigo decir siempre a un amigo mío, doctorado en teoría de números y geometría algebraica). Desde luego el bagaje en la medalla fields de los matemáticos alemanes es absolutamente lamentable. Mas patético resulta si lo comparamos con otro gran país Europeo cómo Francia que tiene 11 medallas fields.

Bien, esta claro que las medallas fields dejan a la altura del betún a Alemania. Vamos a ver si por algún otro lado levantan algo la cabeza. Veamos de nuevo la lista de matemáticos alemanes del siglo XX.

Tenemos algunos nombres ilustres algunos y cuanto menos destacados otros. EStán Cantor, Hilbert, Klein, Dedekind, Frobenius, Hartogs, Hólder, Klein, Kutta, Maric, Minkowsky, Neumann y Noether. Si miramos sus biografias observamos una pauta común. Son gente nacia en el XIX o principios del XX y que mueren antes de mediados de siglo. Los otros nombres yo no los conozco de nada. Tal vez sea porque sus contribuciones son muy recientes o porque no son terriblemente relevantes (o ambas cosas si hemos de juzgar por su no aparición en las medallas field).

Resumiendo. Alemania llegó algo mas tarde que otros países a la ciencia moderna (la que vino a raíz de Newton) pero cuando lo hizo obtuvo grandes resultados con matemáticos y físicos de primer nivel. Su época dorada puede situarse entre mediados del XIX y la segunda guerra mundial Después de eso en física teórica nunca volvieron a tener un nivel digno de comentar y sólo en ramas mas aplicadas de la física han remontado un poco cabeza, en especial a partir de los 80. En matemáticas la época de gloria también va en la misma época, pero con una diferencia, tras la diáspora de científicos de primera fila después del nazismo nunca han vuelto a ser nada en matemáticas.

Y ahí estamos, ahora en Alemania no hay físicos teóricos ni matemáticos especialmente dignos de mención. Con ese panorama tan patético se entiende un poco mejor que hayan podido caer en manos de los trastornados de la economía austriaca. O a lo mejor es al revés y su aquiescencia con la descerebrada economía austriaca y su anarcopapialismo les ha llevado a la indigencia científica en la que están actualmente.

Si nos vamos a la tecnología…nos alargaríamos mucho, y tampoco es el terreno que mas me entusiasme. Pero vamos, no todo es malo en la Alemania reciente, hicieron algo realmente bueno, traer el wing tsun de china y darle una excelente difusión en Europa. Y bueno, tienen buena música electrónica (sería interesante ver que paso con su música clásica, que así de primeras me parece que también tuvo un gran bajón después del nazismo del que no se llegó a recuperar).

¿Algo más digno de destacar de la Alemania actual? yo diría que no :P.

Y para cerrar un dato muy revelador. El instituto científico Alemán mas prestigioso es el Max Planck. Pues bien, el director del mismo es un Español, Ignacio Cirac, que está en las quinielas de los nobel año sí y año también.

El FMI empieza preocuparse del peak oil. La solución: eficiencia energética.

noviembre 13, 2012

El FMI ya empieza a dudar que el crecimiento sea posible Oil and the World Economy: Some Possible Futures . Espectaculares los resultados de combinar escenarios negativos y muy poco alentadores los más optimistas.

El FMI empieza a tomarse en serio el peak oil. Ya era hora. Soluciones energéticas hay algunas de “apaño”, que dependen de algunas innovaciones que no está claro si están ya disponibles o no (básicamente un hilo de nanocarbono que permita poner en órbita material a bajo coste, en especial espejos que focalicen energía solar y que el TRE del procedimiento sea alto), la energía de fusión (sobre la cuál soy muy escéptico) o innovaciones que puedan surgir de física de partículas/cuerdas.

Pero dónde si hay muchísimo margen es en la eficiencia energética, En algunos casos la tecnologia ya está aquí (tablets/smathphenes que podrán sustituir a un ordenador gastando entre uno y dos órdenes de magnitud menos de energía). Las TV actuales gastan bastante menos que las de rayos catódicos.

En otros terrenos, cómo los automóviles, habrá que cambiar un poco el paradigma y pasarse de los coches actuales, que son muy pesados, a vehículos a mitad camino entre el coche y la moto que puedan cubrir eficientemente el transporte urbano de una o dos personas con velocidad y seguridad razonables. Con eso, motores híbridos, y nuevos materiales también se puede ahorrar un orden de magnitud (10 veces menos) en términos de energía. Refinando la idea, se debería optar (ya mismo, no conviene esperar) por crear arquitecturas modulares. Es decir, unidades autónomas monoplaza que pudieran acoplarse entre sí para obtener biplazas, cuatriplazas, etc. Incluso debería haber módulos independientes para mercancías.Una vez he pensado en ello he hecho una búsqueda. Me ha salido esto, que, la verdad, es un poco un engendro y no es lo que yo tengo en mente. Pero al menos se ve que algo se está haciendo en ese aspecto. http://www.deautomoviles.com.ar/articulos/futuro/modular-solar-2030.html

Volviendo al hogar, hay otros temas en los que se puede ahorrar muchísimo, La calefacción actual intenta calentar toda la casa, lo cuál es innecesario. A día de hoy no cuesta nada un diseño de sensores que indiquen cuando hay gente en una habitación. Obviamente podría procederse a calentar sólo esa habitación. Y si alguien planea ir a otra debería poder desde cualquier rincón de la casa indicarlo para que se caliente esa habitación antes de que llegue.

Incluso eso sigue siendo ineficiente. En realidad no es totalmente necesario que la habitación entera se caliente. Lo suyo es calentar a la persona. Un radiador personal es una solución, pero eso ya existe. Lo suyo es proceder a calentar a la persona. Las mantas eléctricas, y, en general, la ropa activa, son ideales para eso. Hoy día van con batería y una batería dura una noche (sí se usan para dormir). Pero pueden usarse para estar en un sofá, o, sí fuese necesario, adaptarse a una bata (bata eléctrica). Con eso no se pasaría frío ni en los días mas fríos y podría ahorrarse, pués otro orden de magnitud (o más) en energía).Y no son nada caras, la verdad. Se puede ver un catálogo orientativo de una página on-line aquí

En general creo que sí se racionalizan bien las cosas en casi todos los aspectos se puede ahorrar un orden de magnitud (o más) en energía). Eso nos lleva a unos niveles de consumo que podrían alargar el petróleo disponible mucho tiempo (mientras se va acomodando a las energías alternativas). Será un cambio de paradigma, pero, si nos quitamos de encima a los anarcopaitalistas, ultraliberales, y demás zumbados puede pasarse de una manera suave a un sistema con una calidad de vida igual (y mejorando) al actual, pero compatible con usos decrecientes de energía.

En otros terrenos harán falta cambios mas drásticos, y, desde luego, mucha investigación. Pero, insisto, se pueden hacer muchas cosas. Por ejemplo, un tema dónde se ha insistido mucho es en el de los abonos nitrogenados y el de los insecticidas en agricultura, dónde el petróleo es clave. Pues bien, hablé en su momento con un ingeniero agrónomo sobre el tema y me comento que, en realidad, el problema no es grave. En su momento si hubo una revolución agraria basada en esos ingredientes. Pero hoy día hay tecnologías alternativas que permiten similares ritmos de producción sin usarlos. De hecho en algunos aspectos son mas eficientes porque no agotan tanto los suelos y, desde luego, son menos contaminantes. Vamos, que según él (y me dio links de estudios que lo demostraban realizados por instituciones serias) lo que sucede es que a las petroleras le sigue interesando mantener el mito de que la economía tradicional es demasiado ineficiente y cara. Y, vale sí, pero lo que usa esa gente que rechaza los abonos nitrogenados y los insecticidas tradicionales no es agricultura tradicional sino técnicas modernas, relativamente recientes. No me queda claro el otro aspecto, el de la maquinaria pesada en agricultura, pero eso me preocupa menos. Se puede sacar mucha energía del carbón (queda bastante) y hay vectores energéticos de sobra para trasladar esa energía a los vehículos actuales sin grandes revoluciones.

En definitiva, que, cómo siempre, esta gente de la economía empieza a preocuparse de problemas cuando hay otra gente que ya lleva muchos años resolviendo :P.

Sentencia judicial vergonzosa: Sismólogos Italianos encarcelados por no predecir terremoto

octubre 23, 2012

La noticia ha sido publicada en algunos blogs de habla inglesa, cómo el de Lubos Motl, o, más relevante al ser él mismo Italiano, el de Tomasso Dorigo.

Los hechos son los siguientes, en el 2009, tras unos pequeños temblores, se produjo en la localidad Italiana de L´ aquila un temblor más potente que causó varias víctimas y cuantiosos daños materiales (cómo suele ocurrir con cualquier terremoto medianamente importante). El caso es que había un Giacomo Giulliani que afirmaba que, basñandose en emisiones de gas radom podía predecir con certeza los terremotos y, en particular, afirmaba que se iba a producir ese antes de que sucediese. Eso sí, también había predicho otros en el pasado que no se habían producido.

El caso es que los sismólogos consultados oficialmente, usando las técnicas oficialmente reconocidas asignaron una probabiidad muy baja a que se produjera un gran terremoto. Son expertos competentes y aplicaron escrupulosamente todos los métodos oficialmente reconocidos que tenían a su disposición. Además el consenso de la comunidad ccientífica es que a día de hoy no puede predecirse con exactitud un terremoto y que es muy dificil que pueda llegar a hacerse en el futuro (salvo, si acaso en circunstancias muy concretas, si lo que he visto en algunos documentales es cierto).

En definitiva, que estos sismólogos procedieron de forma intachable en cuanto a su quehacer científico. Pues bien, pese a eso han sido condenados a 6 años de carcel y a pagar una multa que equivale a unos 50 años desu sueldo. Sueldo que, cuando salgan de prisión, no podrá prevenir de un cargo público pués han sido inhabilitados para ese tipo de cargos.

Ni que decir tiene que esa decisión es una insensatez total y absoluta y que, para la comunidad científica cuanto menos, deja a Italia a la altura de una república bananera. Ya, antes del juicio, se habían recogido muchas firmas de la comuniad científica protestando porque pudieran ni siquiera ser imputados. Tras la condena es de suponer que el escándalo va a ser mayúsculo. Para empezar ya mismo la revista Nature, con todo su prestigio, se está ocupando del tema para posicionarse en contra. Confío en que habrá recursos y que al final esta gente será absuelta, y, de hecho, yo esperaría que se les pagase un dinero cómo compensación por el absurdo por el que se les está haciendo pasar.

Por cierto, voy a aprovechar esta entrada para sacar a colación un hecho en cierto modo similar, en el contexto económico. Me estoy refiriendo a la loca, loca, loca escuela austriaca de economía. Esa escuela surgió a finales del siglo XIX. El fundador de la misma decidió que la economía no se prestaba ni a la matematizaión, ni al método científico. Incluso niega que la historia (buscar hechos históricos similares a los que sean pertinentes al que se este estudiando) sea útil o aconsejable. Obviamente eso es un disparate absoluto. Los economistas Alemanes de la época (recordemos que en esa época Alemania era una potencia intelectual, con grandes físicos y matemáticos – no cómo ahora- y, es de suponer, unos economistas más o menos en consonancia) enseguida les calaron y rapidamente les relegaron a un más que merecido olvido.

Por desgracia hay algo en lo que la gente de la escuela austriaca son buenos, embaucar. Y en la última etapa de la guerra fría, durante los gobiernos de Reagan en los USA y la Tatcher en reino unido, consiguieron hacerse valer, por aquello de que son anticomunistas (y antisocialistas, en el sentido del socialismo de la Europa occidental) acérrimos. Aparte de a los gobernantes, durante un tiempo, también atrajeron la simpatía de la escuela de chicago, por aquello de que ambos apuestas por un ultraliberaismo. Eso sí, la escuela de Chicago apuesta por las matemáticas y rapidamente se fueron desentendiendo de ellos. Bueno, el caso es que esta gente, cómo cabe esperar de su estúpido modo de proceder, son un desatre y dejaron a USA e Inglaterra en muy mala situación económica.

Uno podría pensar que con tan estupido planteamiento y tales fracasos habrían caido en el olvido. Pero no, de algún modo han conseguido hacerse oír en la UE y, en particular, en gobierno de la Merkel. Esto último es particularmente chocante. Tal vez pueda entenderse que algún político con estudios de letras (o direcamente, sin estudios) pueda ser facilmente embaucado por esta gente. Pero la Merkel tiene un doctorado en física (aunque sea en temas de física aplicada) y e incomprensible que alguien de ciencias pueda leer los planteamientos de esta gente y no horroizarse.

Que predican exactamente esta gente (es decir, sus planteamientos de cómo debe ser la economía) son irrelevantes. Cómo carecen de un método válido da igual lo que digan, si te gusta o no (y desde luego a mi no me gusta, y hay gente, cómo chemazdamundi, que se ha dedicado a demostrar en su blog que lo que afirman es falso).

En conclusión, que hay que desenmascarar a estos magufos de la economía que están poniendo el tinglado ideológico que sirve de excusa para cargarse la Europa del bienestar. Son tan absolutamente absurdos cómo la sentencia de éste tribunal Italiano y sería bueno que toda la comunida científca se uniese para ponerlos en su sitio ¿el manicomio? y que dejaran de arruinar Europa y la propia ciencia.

Sinceramente, esta sentencia judicial y la escuela austriaca de economía son síntomas claros de que la sociedad en general no tiene ni un ápice de caracter científico.

“Science and technology commons”: protegiendo la ciencia del liberalismo

noviembre 24, 2011

Desde mucho antes de que se llegase a la situación actual de crisis de modelos sociopolíticos (que no económica) he dedicado mucho tiempo a analizar y estudiar el papel de la ciencia en la sociedad. En España, históricamente, ha habido un gran desprecio por la ciencia entre las clases políticas, los empresarios y el común de la gente. Teniendo en cuenta que en última instancia la ciencia es el único soporte real de todos los avances de calidad de vida (pese a los esfuerzos de las torpes teorías económicas por evitarlo) ciertamente es chocante.

Tampoco es que histórica y geográficamente España sea el único caso (ni siquiera el peor) de desprecio por la ciencia. Un ejemplo muy curioso es China. Durante muchos siglos China (y no sólo China, pero no voy a analizar todo a la vez) ha estado muy por delante de Europa en tecnología y ciencia. Cuando Gutemberg “inventó” la imprenta en China había, desde siglos atrás, millones de libros impresos. El acero colado (obtenido por fundición, y mucho más útil que el forjado) en Europa se introdujo en siglo XIX. En China era conocido desde hace…si, siglos. Y no digamos ya de los usos de la pólvora. Aún así la tecnología China tenía una naturaleza práctica y puramente empírica y pudo ser fácilmente adelantada cuando Newton (y otros, pero para mi la pieza clave es con diferencia Sir Isaac) crearon la moderna ciencia occidental. Lo curioso es que aunque, en general, aquí se percibe el avance científico como algo positivo (aunque no se respete adecuadamente a los que lo crean) en China, durante algunas épocas, no era así. Por ejemplo, en algunos momentos de la dinastía Ming se promulgaron leyes del estilo “todo aquel que idee un medio mejor o mas eficaz de realizar a cabo alguna teoría determinada será castigado por ello con pena de muerte”. Supongo que de no haber tenido esa ley, inspirada supongo en el confucionismo, probablemente la ciencia moderna habría surgido en China y el mundo sería muy diferente al actual.

Sea como sea el papel de la ciencia en la sociedad hay un factor de esa relación que es uno de los motivos por el que me interesa tanto la ciencia: la ciencia proporciona independencia de la sociedad. Cómo a poco que uno haya estudiado algo de historia se sabe que las sociedades cambian de forma imprevisible y no necesariamente a mejor cuantas mas herramientas se tengan para poder amortiguar los efectos de esos cambios más seguridad para el individuo. En realidad dado el poco interés por promover la ciencia que ha habido siempre en España la situación para los científicos era ya desde hace tiempo tan mala cómo podría esperarse y los cambios actuales en esta crisis no afectan eso demasiado. Por supuesto, cómo digo, la ciencia tiene un valor intrínseco y no necesita demasiado del resto de la sociedad para proporcionar beneficios a quienes la conocen. Digamos que aunque el modelo empresarial en España no fomente el I+D, y el gobierno no apoye apenas la ciencia pura hay muchos medios para que con un buen conocimiento de la porción suficiente de ciencia se pueda vivir bastante bien, buscándose la vida, sin necesidad de apoyos y que a uno le quede un tiempo razonable para investigar en lo que le plazca. Eso sí, que se pueda hacer no significa que sea lo ideal y que no deba hacerse lo posible por cambiarlo.

Tras estas reflexiones introductorias voy al núcleo del post de hoy. Todos estamos oyendo actualmente que va a haber recortes en sanidad, pérdidas de coberturas médicas, etc, etc. Y tenemos como referencia el tercer mundo en materia de salud (también conocido cómo estados unidos :P) dónde la gente en paro no tiene cobertura alguna y la gente de clase media, e incluso clase media-alta, tiene seguros médicos que les cubren las enfermedades leves, cuyos tratamientos podrían pagarse ellos mismos sin el seguro médico, pero no las enfermedades graves que no pueden pagarse y generalmente cuando contraen una de esas enfermedades terminan muriendo cuando, arruinados, dejan de poder pagar el tratamiento (o directamente mueren enseguida por no poder pagarse la operación oportuna). A modo de ejemplo ilustrativo par ala entrada he intentado buscar el precio de una radiografía en los USA cuando no se tiene seguro médico. Al amigo google no le ha hecho ninguna gracia mi búsqueda y no me daba ningún resultado pertinente. He procedido a cambiar de motor de búsqueda y me he ido a altavista (que me ha redirigido a yahoo, me acabo de enterar de que ya no existe altavista xD). Me ha mejorado algo los resultados, pero aún no he encontrado lo que buscaba. Aún asi dí con una página con precios de varias pruebas médicas (el precio que habría que pagar por ellas en una clinica privada, sin seguro médico) según el SNS, sistema nacional de salud: Una radiografía vale 20 euros y una ecografía, 65. Diversas variantes de la búsqueda, en google y yahoo, no me han dado el resultado deseado así tengo que poner los datos de memoria. Una hermana de una amiga tuvo que hacerse una radiografía en USA, estando de vacaciones. Si mal no recuerdo le costo unos 300 €, osea, más de 10 veces el precio de la misma prueba en España. Evidentemente como en una clínica privada, y sin seguro médico, pagas el importe total de la prueba está claro que el coste real (técnico) de la misma es no superior a 20 € y que el exorbitado precio de la misma prueba en USA responde a otros factores.

Bien ¿que factores pueden ser esos? Uno será la falta de libre mercado seguramente. Y otro, probablemente, la guerra de patentes. El tema de las patentes en la ciencia y la tecnología moderna es un tema candente, sobre el que se ha llamado la atención varias veces, incluso antes de la crisis económica. Con la legislación actual de patentes estamos al borde de un colapso en el avance tecnológico. Es un problema ubícuo que se da en varias ramas de la tecnología. Uno de los sectores dónde el asunto es mas dañino es en la industria médica/farmaceútica. Un buen análisis de la historia de las patentes en ese sector, y las consecuencias, las podéis leer aquí: Producción y protección de tecnologías libres, una alternativa a las patentes En ese post, además, se discuten varios aspectos legales sobre las dificultades jurídicas de establecer un sistema de tecnología libre de patentes (incluso cuando los investigadores trabajen por libre y tengan deseo expreso de que su trabajo no este sujeto a esas patentes). También nos da un dato interesante, que puede fijar un orden de magnitud de lo que puede estar significando el sistema de patentes. La penicilina, que no tenía patentes, paso de un precio de 3995 $ la libra (medida de peso, no moneda británica xD) en 1945 a 282 $ en 1950. es decir, un factor 20 de descenso de precio (y eso descontando el efecto de la inflacción) debido a la competencia. Como quiera que las farmaceúticas vieron que la competencia no era buena y que los costes de producción de un medicamento eran lo bastante altos como para lograr una posición de oligopolio (situación e la que uno número pequeño de empresas tienen una posición de poder y pueden fijar los precios en valores mas altos de los que permitiría una situación de oferta-demanda pura) lograron formar un lobby que consiguió unas leyes draconinas de patentes que se aseguraron de que eso no volviese a pasar. Si me he de guiar por los dos ejemplos que he puesto antes sospecho que ahora mismo podríamos estar pagando (bien sea directamente, bien sea a través de los impuestos con los que los gobiernos forman la seguridad social y pagan a las empresas) por los productos médicos precios de entre 10 y 20 veces más de lo que dichos productos tendrían en un mercado competitivo. Digamos que con ese factor de sobreprecio hay margen de maniobra mas que suficiente para resolver el problema de la salud pública sin cargarle el mochuelo al contribuyente. Pero es peor, las farmaceúticas no están produciendo las mejores solucione posibles desde el punto de vista médico sino las mas rentables económicamente. Sé que esto puede sonar paranoico, a mi me sonaba paranoico no hace mucho. Los factores que me han llevado a creer la existencia de estos desmanes son, aparte de las consideraciones económicas sobre lo que es un oligopolio (que es algo que he aprendido recientemente) y como eso impide la competencia, testimonios de primera (o en algunos casos 2ª) persona de gente trabajando en esos sectores que me han comentado casos concretos. Por supuesto muchas teorías sobre las farmaceúticas que circulan siguen siendo claramente paranoias, pero está claro que hay que ser muy cuidadoso al respecto y no descartar ninguna hipótesis.

Otro sector dónde las patentes están yendo por el camino del escándalo es el tema de la tecnologia de móviles y tablets. Actualmente hay casos en marcha de denuncias de apple contra samsung porque el galaxy tab se parece demasiado ¡estéticamente! al IPad 2 y han conseguido bloquear en algunos países la distribucion de ese tablet. Apple tiene patentes por cosas tan ridículas cómo el el desbloqueo de pantalla mediante un deslizador (que, con muy buen criterio, la mayoría de desarrolladores se saltan a la torera y hay ese sistema de desbloqueo en todas las plataformas -android, Synbian, etc- posiblemente mas para fastidiar que porque sea especialmente interesante). Como anécdota decir que apple ha sido tan canalla de poner una denuncia por incumplimiento de patente a una pequeña compañía Valenciana por un tablet android. Al final perdió la batalla legal, pero ha paralizado el tablet durante más de un año y ahora mismo ese mismo tablet ya no es competitivo así que les ha fastidiado bien el negocio a la compañía.

En general todo el tema de la tecnología de móviles y tablets es un ejemplo de una práctica abusiva por parte de las compañías. Si, como se hizo con los PC’s en su momento se optase más por móviles y tabletas clónicas se liberaría el mercado y este avanzaría mas deprisa, y, mas importante, bajarían mucho los precios. Si uno consulta las páginas de 2ª mano puede ver que hay empresas que comercializan copias “chinas” (o no, que ensamblar un movil o un tablet no tiene nada de complicado y puede hacerlo cualquiera) de móviles famosos. Hay móviles con nombres con variantes múltiples e ingeniosas de los modelos mas conocidos (Samsung galaxy S, Iphone, xperia arc, etc). Realmente es muy divertido leer las características de dichos clónicos. Si el móvil original es “dual core” el clónico también. Pero eso sí, si el original tiene una velocidad de reloj de, digamos, 1.5 Ghz para los procesadores el clónico puede tranquilamente quedarse con 0.5 Ghz. Y en vez de llevar 1 GB de memoria puede quedarse en 250 MB. Y, por supuesto, con una versión de android inferior a la propia de la fecha (a lo mejor lleva una 2.º cuando lo típico es ir con un 2.3.2) y con posibilidades dudosas de actualización (y a saber si dejan el acceso al market). Pero, por supuesto son mucho mas baratos, y si uno busca alguna función concreta puede salirle a cuenta. Un ejemplo, el Samsung Galaxy note, que cuesta libre unos 600 € (si uno sabe dónde buscar puede que algo mas barato). Ciertamente es un supermóvil, con una pantalla capacitiva y un lapiz óptico que permite tomar notas manuscritas (o incluso dibujar) en una generosa superficie de 5.3 pulgadas. Con ese tamaño también resulta bastante cómodo leer pdf’s, djvu o libros en formato e-pub (en realidad para literatura, y con el reflow del sistema e-pub, o de algunos lectores de pdf una pantalla de 3.5 es suficiente, pero 5.3 es muuucho mejor). Ahora bien, si uno se conforma con un móvil android (versión no muy puntera) de 5 pulgadas
que no tenga lapiz óptico, y con menos resolución, puede encontrar un modelo clónico por unos 100 €. Y, me imagino, que si uno es hábil siempre puede “cocinar” una rom para el móvil clónico con la última versión que vaya saliendo de android (si el hardware puede moverla, al menos).

Por supuesto lo más interesante es que se vendieran los componente sueltos y uno pudiera montarse un móvil/tablet a su gusto, como e hace con los sobremesas. Y ponerle el sistema operativo que le apeteciera (o incluso un arranque dual). Y podría actualizarlo (al menos algunos aspectos) cuando quisiera. Y sería mucho mas barato. Ahora bien ¿incumpliría eso alguna patente? no me sorprendería?

Por supuesto no todo en el mundo son móviles y tablets y hay que desarrollar tecnologias libres de patente en muchos mas sectores. Por ejemplo, sería muy interesante que se investigasen en técnicas de diagnóstico nuevas, y libres de patente. En realidad estos dos casos no tiene porque ser disjuntos. Un móvil/tablet es un ordenador, y cada vez mas potente. Puede comunicarse con la web en casi cualquier lugar por GSM a precios módicos. Lleva GPS, lleva bluetooth, micro USB,etc. Total, que llevas un ordenador potente con muchas opciones de conexión. Se ha desarrollado muy poco la tecnología de periféricos para móviles, pero creo que es un sector que debería despegar.

Un ejemplo es el de las pulseras médicas. Ahora tenemos, por ejemplo, modelos como este: Pulsera informacion medica ICE‐KEY accidentes. Está pensada para uso de médicos profesionales, y está, creo yo, dirigida a hipondríacos, o, sencillamente, gente muy preocupada por su salud (incluso si no se están continuamente imaginando que están enfermos). Conozco gente que, ahora mismo, se están bajando aplicaciones para detectar su pulso, o calcular las calorías que comen, y las que gastan. Algunos de esos programas, usan “creativamente” las funciones del móvil y no son muy fiables. Por ejemplo, calculan el pulso poniendo el dedo en la cámara del móvil o el peso de los alimentos situándolos sobre la pantalla. Ni que decir tiene que el margen de error es bastante amplio. Quizás el cálculo de calorías sea algo mas acertado pues usa el GPS. Pero vamos, que no es muy fiable. Ahora bien, si se crease una pulsera dedicada, que midiese todas esas variables por medios hardware dedicados, y que se comunicase con el software del modo por bluetooth se podría tener un seguimiento de la salud de una persona muy continuo y fidedigno. Si se avanzase en ese campo imagino que se podrían llegar a crear pulseras que fuese controlando más y más variables: presión arterial, colesterol, ¿análisis completo de sangre?, ¿pruebas específicas de algún antígeno vírico?, ¿que más?. En realidad ya hay algo en marcha en esta linea, por ejemplo para Iphone, pero de momento es más un producto para fanboys que para el común de la población 😛

Móviles aparte hay otras opciones interesantes de combinar medicina e informática. Ya hace tiempo que se viene hablando de sensores de cámaras que capten espectros no visibles en la región del teraherzio. Eso permitiría técnicas diagnosticas baratas sustitutas (o al menos complementarias) de las radiografías, tomografías, etc. Si se acompañan de un software adecuado una persona podría realizarse exploraciones casi diarias en diversas zonas proclives de sufrir diversas enfermedades (cáncer, piedras de riñón, etc). No seria necesarios (aunque si conveniente, y no tan difícil) que la persona entendiera las imágenes, lo haría el software por ella. Cuando detectara un posible positivo iría al médico, para que se lo confirmase. Digamos que, creo yo, podríamos estar al borde de una revolución médica, en el tema de la prevención precoz. Como para la mayoría de enfermedades precoces la detección precoz es la mejor (y a veces casi única) herramienta médica si esta quedase transferida, vía tecnología standard, relativamente barata, y, por supuesto, no sujeta a patentes, se abaratarían mucho los costes médicos. Si a esto añadiéramos una liberalización de patentes en el sector de medicamentos nos encontaríamos con la posibilidad de una sanidad mucho mas barata que la actual, mejor, y desde luego, sostenible por los gobiernos sin copagos y locuras similares. Y muchas de estas investigaciones tecnológicas son hoy día mas sencillas de hacer que hace medio siglo. Creo que, con las vías de cooperación adecuadas, podrían hacerse estas investigaciones al margen de las empresas.

Por supuesto yo soy partidario de que la investigación habría que pagarla…al investigador. Pero ahora los investigadores cobran una birria y todo el dinero de su trabajo va para las empresas, que cada vez son mas prescindibles. Y, además, ralentizan el avance científico de mala manera. creo que hay motivos más que de sobra para que se empiecen a poner en marcha cuanto antes líneas de investigación bajo licencias “technology commons y “science commons”. Vale, el grueso de la población seguirá sin valorar adecuadamente la labor del investigador, pero tal como está el patio el ratio de beneficio personal (cantidad de recursos tecnológicos útiles a los que pueda acceder con su sueldo) del investigador será mas alto trabajando bajo este sistema que trabajando para las empresas. Y además queda mas guay y más solidario. Y, recordemos, que el altruismo esta demostrado (mediante teoría de juegos) es la postura mas eficiente a nivel egoísta en bastantes situaciones :-).

Carlos Romero: Economía de los recursos ambientales y naturales

octubre 10, 2011

Cómo la economía está de moda, y el mundo científico y académico es uno de los que más esta sufriendo el embite del liberalismo económico (investigadores precarios, plan de bolonía y otros dislates), estoy aprovechando para estudiar temas de economía que más o menos tienen un cierto interés, pero que en circunstancias normales tal vez nunca hubiese estudiado.

En concreto aquí voy a hablar sobre el libro al que hace referencia el título, aunque situándolo en su contexto correcto, el de la economía ecológica.. Esta economía ecológica estaría en la capa 1 de la clasificación que hice de los estratos que, en mi opinión, debería tener una teoría económica (ver Economía descentralizada estratificada I: estratificación del proceso económico). El caso es que el libro del que hablo trata de la ecología de los recursos ambientales y no de economía ecológica. Uno pensaría que deben ser la misma cosa, o al menos algo parecido, pero no es así. Sin embargo si uno mira el listado de capítulos donde hay temas como : recursos no renovables, recursos renovables (el caso de las pesquerías) o el turno forestal óptimo podría pensarse que está ante un libro que hace un análisis macroeconómico dónde se consideran los efectos de la existencia de una cantidad finita de recursos, que es el objetivo de la economía ecológica. Pero no, estamos ante un libro que usando técnicas muy cercanas a la microeconomía hace básicamente os cosas. Una, en los primeros capítulos es, tras un breve estudio al tratamiento de residuos usando el concepto de externalidades (y los enfoques de pigou y coase), hacer un análisis de la valoración económica de los recursos ambientales para los cuales no es sencillo dar un valor monetario. La otra es usar esas misms técnicas microeconómicas, adecuadamente adaptadas, para encontrar los óptimos de explotación. Digamos que un título mas adecuado para el libro podría ser: “Manual de explotación óptima de los recursos ambientales”.

El libro está escrito dentro de los cánones de la teoría económica actualmente considerada ortodoxa. De hecho está pensado como libro de texto para asignaturas de economía ambiental en facultades de economía. . Aquí e importante señalar que el libro es de 1997. En el momento de ser escrito señalaba que la economía ambiental jugaba un papel secundario en las facultades de economía y que no todas lo tenían en su programa; y cuando lo tenían era como asignatura opcional. Una ojeada al programa actual (en realidad programas ya que ahora conviven el programa en extinción de licenciatura y el actual de grado del asqueroso plan de bolonia ese) de la facultad económica en la U.A.M. muestran que sigue sin estar presente, ni siquiera como optativa. Por supuesto si no hay lugar para una asignatura de economía ambiental, escrita en el lenguaje matemático e ideológico canónico de la economía actual mucho menos para la economía ecológica.

Cómo puede deducirse de lo anterior este libro no es lo que buscaba (aunque el temario indicara lo contrario). Pero, pese a ello, tiene algunos aspectos interesantes (sino no escribiría un post al respecto). Curiosamente la parte que me ha parecido más interesante es la primera, la de valoración de recursos ambientales. Y no tanto por si misma, que también, sino porque algunas de las ideas pueden ser utilizadas en otro contexto, la capa 4 en mi estratificación de la economía.En particular es interesante porque ahí se analiza como darle un valor económico a temas que no tienen una valoración monetaria obvia. Y eso es justo lo que sucede en la actualidad con los bienes no rivales en que se han convertido los productos de los “autores”. A raíz de la entrada anterior, y en particular sobre ese tema, un economista al que tengo agregado al facebook, we vincenzo, me comentó que había un cierto movimiento en la economía ortodoxa para intentar modificar la teoría del valor con idea de extenderla a los bienes no rivales y los derechos de autor.

Ahí analiza deiversas estrategias de valoración. Una, el excedente del consumidor (una variación un tanto sutil del concepto de demanda), la valoración compensatoria y variación equivalente, la variación contingente, el método de las variables hedónicas y el método del coste del viaje.

Quizás el mas sencillo de entender es teste último. La idea es simplona. Para saber la valoración económica de un recurso ambiental (un lago, un bosque, etc) uno se fija en el dinero que la gente se gasta en desplazarse a ese bosque. Siendo economistas ortodoxos ahí consideran cosas cómo el coste de oportunidad es decir, el dinero que dejas de ganar en el tiempo que te lleva ir y venir al parque. Sí, esa gente asume que si no te vas de ocio usarías ese tiempo en ganar dinero. Y si lo usaras en otro tipo de ocio, pues lo mismo, el ocio, sea como sea, tiene el coste de oportunidad del tiempo equivalente que ganarías trabajando. Esa gente parece pensar que la gente lo único que quiere es ganar dinero. Realmente el análisis psicológico que está detrás de la modelización económica neoclásica es irrisorio. He visto que en la UAM hay una asignatura de psicoeconomía. No he tenido tiempo de ojear el temario (y ahora mismo la web de la UAM está caída), pero tengo curiosidad de ver que tipo de temas pueden considerar ahí. Por ejemplo hay un aspecto muy chocante: en los libros de psicología sobre psicópatas (no asesinos, también llamados sociópatas) se explica que esta gente tiene querencia a estar en empresas, política y la bolsa. El carácter de los psicópatas es justo el contrario del “homus económicus” de la economía neoclásica; de hecho ni siquiera los “animal spirits” keynesianos describen correctamente a los psicópatas. Sería interesante que alguien hiciese un análisis de los modelos neoclásicos sustituyendo los modelos con “homus económicus” con “psicpatae spirits”, a ver que sale.

Pero volvamos a la valoración de los recursos mediante el método del coste de viaje. Usando datos reales, obtenidos en entrevistas, sobre tiempos/distancias al parque, el precio del transporte, el dinero gastado en el parque y demás se puede establecer una curva de demanda para el recurso natural. Se podría hacer algo similar con los artistas (en particular músicos) y sus conciertos. En función del dinero que la gente gasta en las entradas y el tiempo de espera en colas se podría hacer un estudio de la demanda de un cierto artista. A partir de ahí se podría hacer una tabla y destinar un porcentaje de los impuestos a pagar a los artistas como compensación del dinero que dejan de obtener al carecer de ingresos por ventas de sus temas musicales. Por supuesto la idea última de esto es la misma que la de un recurso ambiental. Uno, en principio, quiere que haya parques, lagos, etc, libres de contaminación, bien sea porque quiere visitarlos de tanto en tanto, bien sea porque quiere que existan “porque está bien” (la economía ecológica en realidad afirma que sin un cierto porcentaje de recursos naturales no explotados la economía humana se hunde, por mucho que haya un teorema de economía neoclásica que diga que con suficiente capital y mano de obra esos recursos pueden ser arbitrariamente pequeños. Considero que ese debe ser el teorema mas nefasto de la historia humana y si tengo ganas le daré un tratamiento aparte). Bien, los artistas (autores en general) serían algo análogo a los recursos ambientales. Son necesarios, entretienen, crean cosas útiles, y en el modelo actual en que su obra se convierte en “bienes no rivales” (aká archivos compartibles libremente por internet) tienden a no cobrar nada. Esas técnicas de valoración serían una medida dentro de la economía ortodoxa para asignarles dinero público.

Sé que actualmente hay algunos modelos de la teoría del valor basados en teoría de juegos. En el libro no los tratan, pero posiblemente den otra buena opción para asignar valor objetivo a los autores para así proceder a pagarles adecuadamente. Otra opción es usar páginas de descarga gratuitas dónde se contabilicen descargas. Esto es problemático, las descargas no deberían estar repetidas desde una misma IP, para evitar que el propio autor se descarga miles de veces el propio archivo, aunque, por supuesto, siempre haría trampas. Por eso métodos complementarios de valoración, como este del “coste de viaje” estarían bien.

Otra posibilidad, creo yo, tanto para los recursos ambientales como para los derechos de autor, sería salir a bolsa. Así si alguien quiere que se invierta en preservar un recurso ambiental cualquiera (el amazonas) o un autor concreto (por ejemplo, aquel músico que te gusta, pero que no es supermegapopular y sabes que no vive de sus discos y conciertos) podrías comprar acciones del mismo y así le darías al parque (o al autor) financiación. Es la misma idea que con las empresas, pero aplicada a bienes “no productivos”. Lo entrecomillo porque, realmente, para mi es mas interesante que el amazonas no se deforeste o que según que autores sigan produciendo a buen ritmo (sin tener que tener un trabajo “convencional” aparte) que el que una empresa de “ponga aquí lo que quiera” crezca. Por supuesto la economía financiera se ha convertido en economía especulativa y esa opción de “sacar a bolsa” parques o artistas tiene mucho peligro en el contexto actual. Ahora bien, si se regula adecuadamente este sector financiero si podría llegar a ser una buena alternativa a estudiar (o no, aquí ya que opinen los expertos en economía ortodoxa, que ese sería su terreno).

Y antes de que los aficionados a la ciencia empiecen a rehuir de este blog anuncio que tengo intención de escribir un post sobre los famosos neutrinos de ópera que espero cubra aspectos aún no tratados en otros blogs. Eso sí, no me comprometo a ninguna fecha conrcreta :insértese icono de disimulo aquí:.

Como elegir un gobierno (y no morir en el intento)

octubre 3, 2011

Hay mucho debate social sobre la política actualmente. Entre otros asuntos se discute cómo debería gobernarse un país, y cómo habría de crearse un gobierno. La mayoría de propuestas que he visto son demasiado sencillas (por no decir simplonas) y claramente no las que propondría un psicohistoriador digo del cargo. Por ese motivo dejo por aquí una serie de opciones que podrían considerarse, bien por separado, o bien todas juntas, para elegir un sistema de gobierno elegido de manera un poco mas efectiva que las actuales.

Yo apostaría por un sistema de gobernantes permanentes durante una legislatura. Tener que someter cada decisión a un proceso de decisión de “democracia directa” me parece poco práctico y poco flexible para poder responder a posibles emergencias. Eso sí, articularía mecanismos de veto, de referendums e ILP’s (iniciativas legislativas populares) mas fluidos y efectivos que los actuales (creo que todos estamos de acuerdo que la ley Sinde no habría salido nunca si hubiese una legislación de vetos/referendums como dios manda, y que si las ILP funcionaran como deben a estas alturas ya estaría aprobada la dación en pago).

Bien, ahora vamos como articular el sistema de gobierno permanente y los mecanismos para crearlo en cada legislatura. Empiezo por la parte mas sencilla, la de votaciones de partidos.

Mi criterio al proponer el mecanismo es que se ajuste los mas posible al modo de pensar de una persona. Yo creo que la mayoría de los votantes no son 100% de un partido. De hecho sospecho que a alguna (bastante) gente le da un poco igual quien gobierne mientras no sea el partido X es decir, su opción política no es la de un voto positivo sino un voto negativo.

En vista de lo anterior yo añadiría al sistema electoral la opción del voto negativo. Así si alguien vota un positivo al PP y yo un negativo al PP se combinan en un voto nulo.

Pero, como dije al principio, la gente no suele ser 100%favorable a tal o cuál opción, tiene porcentajes. Por ese motivo yo lo que haría (dado que con las tecnologías actuales es una posibilidad perfectamente factible de llevar a la práctica, no como hace unos años) es adjudicarle a un votante un total de puntos (digamos 10, que así se simplifica mucho el cálculo). Esa persona podría repartir libremente esos puntos entre todas las opciones disponibles con la restricción que la suma del valor absoluto de sus opciones valiese 10.En beneficio de la gente que no está acostumbrada a los términos matemáticos pondré algunos ejemplos.

Lo mas sencillo, que todo el mundo creo entiende, es el voto positivo repartido. Digamos que alguien de izquierdas podría votar, digamos, un 6 a IU, un 3 a EQUO y un 1 al PSOE. La cuenta es fácil: 6+ 3 +1=10.

Alguien de derechas podría optar por algo del estilo 8 al PP y 2 a UpyD (con lo cuál se rompería la disciplina de voto único de la gente de derechas, que sería algo muy conveniente). Una vez más, trivialmente, 8 +2= 10

Pero ahí no acaba la diversión, las cosas se ponen entretenidas cuanto incluimos los votos (puntos) negativos.

Alguien al que le de más o menos la política pero que no quiera ver un partido facha al mando optaría seguramente por otorgar 10 puntos negativos, es decir: -10, al PP. (sospecho que esta es una opción que sería muy utilizada xD). Recuerdo, para los de letras, que el valor absoluto de un número x (representado por |x| )es simplemente el número en sí, sin tener en cuenta el signo negativo. Es decir, el valor absoluto de 10 (|10|) es 10, y el de -10 (|-10|) también es 10.

Bien, usando combinaciones de puntos positivos y negativos las estrategias electorales de un votante crecen, y así pueden, además, representar mucho mejor sus opiniones.

Así un votante de izquierdas podría, por ejemplo, votar un -5 al PP, un 3 a EQUO y un 2 a IU (|-5| + 3 + 2= 5 + 3 +2= 10).

La forma de traducir esos puntos a votos sería un punto aparte con el que jugar. Si ningún partido obtiene en total una cantidad negativa de puntos no habría cambios. En caso de partidos con un porcentaje total negativo hay dos estrategias posibles: una sería, directamente, descartarle, y usar los sistemas habituales solamente entre los partidos con puntos positivos. Otra opción es desplazar el cero hacía el valor del partido con puntos mas negativos. Es decir, ese partido con mas puntos negativos tendría 0 puntos. El resto de partidos tendrían n= v – m puntos (v es el número de puntos obtenidos en la votación y m es el valor mínimo obtenido por cualquier partido). Para ejemplificar esto, imaginemos que le partido “ultrafachas neoliberales antiinmigración” ha obtenido el máximo de votos negativos, que, pongamos, fuese -10.000. Al ser el mas negativamente votado tendría 0 puntos.

Entonces pongamos que el partido “unión de rojos radikales perroflautas en pro de la nacionalización de la banca” ha obtenido un total de -8.000 puntos. Con el desplazamiento del 0 electoral el número de puntos que obtendría a la hora de computar escaños sería n= -8000 – (-10000)=-8000 + 10000=2.000 puntos.

Bien, pues una vez tenemos computados el numero de puntos de cada partido tocará ver como eso se traduce en escaños. Ahí yo abogo por un sistema dividido en municipios, como el actual, pero que en cada municipio en vez de la ley d’hoont se aplicara alguna ley de reparto equitativo de escaños en funcion de los puntos (que no votos xD).

Bien, esa sería la primera parte, la de la parte electa del grupo gobernante. Pero no dejaría ahí la cosa.

Un problema de el sistema de partidos es que estos son muy susceptibles de estar apoyados por intereses financieros que condicionan su funcionamiento(se supone que la ley de financiación de partidos debería lidiar con eso pero me da la impresión de que falla) . Cierto es que también se deben a sus votantes y a sus ideas (o al menos esperamos que sea así xD). En todo caso tienen una estructura de acción y estrategia coordinada en modo de programas electorales. Eso, en principio, es positivo y necesario y compensa en parte sus posibles obligaciones pre-contraidas con grupos económicos.

Hay estudios matemáticos que demuestran que un buen modo de eliminar corrupción es optar por candidatos elegidos de manera aleatoria. De un lado no llegarían con compromisos previos (ya que en una base electoral amplia las probabilidades de ser elegidos son tan bajas que no es viable tener comprados a todos los elegibles antes de que salgan finalmente elegidos). Seguiría siendo posible que se corrompiesen durante la legislatura, pero el tiempo de exposición sería menor. Además, normalmente para obtener resultados es necesario corromper a un grupo, no a un sólo diputado.Al ir “por libre” los candidatos elegidos aleatoriamente no sería nada sencillo poder encontrar a un grupo de ellos los suficientemente grande para obtener el resultado requerido que pudieran ser comprados por un mismo grupo financiero de intereses.

En vista de estas últimas consideraciones optaría porque el grupo gobernante tuviera una composición mixta. De un lado un porcentaje de los diputados (entre 50 y 70 diría yo) pertenecerían a partidos y estarían elegidos por el procedimiento que expliqué al principio. El resto de diputados estarían elegidos de manera aleatoria. La base de “elegibles” a diputados podría configurarse de diversos modos. Lo mas sencillo sería que fuesen todos los españoles que dieran su aprobación a la posibilidad de ser elegibles y que cumplieran una serie de condiciones legales mínimas (básicamente, no haber cometido delitos o estar en investigación por casos de corrupción, vamos, cosas de sentido común). Posiblemente sería conveniente que se requiriesen algunas condiciones más: cuanto menos que tuviesen los estudios mínimos (yo, de hecho, exigiría cuanto menos tener estudios de secundaria terminados, pero supongo que eso ya es mas discutible).

Aparte de los diputados yo añadiría la condición de que en el propio gobierno (es decir, el conjunto de ministros) hubiera una composición mixta. Ahí optaría porque hubiera un gabinete ministerial standard, elegido como hasta ahora por el partido (o coalición de partidos) gobernante. Pero pediría que hubiese una duplicación de cargos. Aparte de esos ministros electos democraticamente pondría una contrapartida elegida de manera aleatoria, y ambos tendrían igual poder decisivo. Para optar al puesto de ministro ·aleatorio” exigiría a los candidatos condiciones muy restrictivas. Tendria que ser una persona que cumpliera requisitos académicos/empresariales adecuados para el puesto. Por ejemplo, un ministro de investigación y desarrollo debería ser un titulado superior en una carrera de ciencias (o una ingeniería). Tal vez incluso debería exigírsele tener una carrera investigadora. Por cierto, en todos los cargos, tanto electos como aleatorios, debería imperar la meritocracia y no las imposiciones paritarias. A mi eso de que haya un cupo obligatorio de personas de uno u otro sexo (como quiere hacer el PSOE) me parece una aberración, pero imagino que ahí ya no estará todo el mundo de acuerdo.En todo caso en la parte elegida aleatoriamente, asumiendo que la base es paritaria lo suyo es que los representantes tuvieran una composición paritaria (asumiendo que no hay resultados estadísticamente improbables que todo puede ser, claro xD).

En fin imagino que a muchos os parecerá que lo que propongo es tirando a complejo (yo creo que no lo es tanto, pero claro, estoy acostumbrado a tratar con cosas complejas). Pero, por otra parte, estamos hablando de elegir a un grupo de personas que van a elegir un país, lo cuál es una tarea compleja. Tal vez sea demasiado ingenuo pensar que la solución a un problema complejo deba ser necesariamente sencilla.

En todo caso se me ha preguntado mi opinión y esa esas son mis propuestas. Dado que hago muchas, que además son independientes unas de otras, siempre cabe la posibilidad de que cada cuál seleccione de entre todas las que mas le convenzan, de manera democrática, of course ;-).

Economía descentralizada estratificada I: estratificación del proceso económico

septiembre 15, 2011

Aparte de física y matemáticas siempre he tenido interés por aprender de manera sofisticada diversas áreas del conocimiento. Me gusta la biología, la ecología matemática, las artes marciales, la música, la literatura (de CF sobre todo), la historia, el deporte y vaya usted a saber que más.

Esto significa que he leído libros académicos, artículos de investigación y revistas especializadas/blogs sobre muchos de esos temas. Por ejemplo he leído muco sobre ecología matemática (incluso publiqué un artículo en una colaboración encaminada hacia una tesis doctoral que al final se quedó en nada ante la imposibilidad de conseguir una beca). También he leído mucho sobre musicología (teoría de la armonía formas musicales, contrapunto, orquestación, composición). También tengo un buen nivel en varias artes marciales (incluso soy instructor en una de ellas).

Y, aunque no me gusta especialmente, tengo muy buen nivel en informática. Programo en la mayoría de lenguajes comerciales de diverso pelaje y propósitos, y, en general, conozco buena parte de la informática comercial más habitual.

Digo esto para ilustrar que he estado expuesto a conocimientos de muy diverso pelaje, y que creo que puedo evaluar con una cierta perspectiva sus diversos méritos. Basándome en eso debo decir que una de las ramas del conocimiento humano de un nivel mas lamentable que conozco en la actualidad es la economía. Mis contactos con ella han sido discontinuos y normalmente por circunstancias ajenas a mi voluntad. Una forma de contacto ha sido la enseñanza. He dado clases (particulares) a alumnos de diversas asignaturas de matemáticas propias de economistas. Esto incluye desde las muy habituales álgebra lineal y cálculo, a la también habitual estadística (estadística descriptiva y teoría del muestreo básicamente). Aparte he dado clases de asignaturas algo más esotéricas. Por ejemplo he enseñado topología (que por algún motivo está, o estuvo, en el programa académico de macroeconomía de la complutense), teoría de juegos y de la decisión (agrupada bajo un nombre que no recuerdo que se enseñan en una universidad que no recuerdo). También he estudiado en la carrera asignaturas con un claro “toque económico” como son investigación operativa o matemáticas financieras. También he estudiado sucesos estócásticos (cadenas de markov, ecuaciones estocásticas, etc) y, aunque no sé yo si se usa en economía, tengo una buena base en sistemas dinámicos/teoria del caos. Digamos que esa base matemática me deja en una posición en la que puedo leer sin dificultad la mayoría de textos de economía, y, además, sabiendo cuál es la matemática disponible puedo inducir que modelos pueden formarse a partir de ella.

Propiamente de economía, hasta hace poco, me había leído a leer cosas sueltas. Un libro general sobre teoría de la economía, algunos modelos de econofísica, el libro de fractales y finanzas de mandelbrot, los apuntes de una asignatura de economía en ciencias ambientales que cogí como asignatura de libre configuración y algún artículo suelto o tal o cuál capítulo de este o aquel libro.

Ahora, desde que tenemos encima el jaleo este de la crisis económica, y en especial desde el revuelo que se ha formado con el 15 M he profunidizado más en economía. Aparte de leer más en blogs y prensa he estado mirando libros de macroeconomía, microeconomía y econometría. De hecho, ahora que quedo mas libre de carga académica (este curso he tenido mucha) supongo que profundizaré sobre esos temas.

La conclusión de todo esto es reforzar la opinión que siempre he tenido de la economía, es una chapuza que en muchos aspectos roza en la pseudociencia. Y, además es terriblemente rígida y sometida a intereses alejados de la ciencia. Resulta curioso que un matemático tan prestigioso como Mandelbroit haya tenido tantas dificultades para que sus ideas influyan el academicismo imperante. Y no es sólo cosa de ahora o del modelo capitalista. Me resulta curioso ver como en la Rusia de Stalin un economista obtuvo unos resultados matemáticos (sin gran validez, todo sea dicho) que daban como resultado ciclos económicos, independientes de la planificación estatal. Como eso iba en contra de la filosofía del régimen le recompensaron con un destierro a Siberia. Ciertamente en la Rusia de Stalin eso era algo habitual para científicos de diversas áreas, así que no es algo muy extraordinario. Pero sirva de ejemplo de la mayor importancia que se da a la ideología sobre los hechos.

Si alguien quiere tener una idea de lo pobre que es la economía, en comparación con otras áreas del conocimiento, creo que debería leer, por ejemmplo algún libro de historia de la econometría. Para alguien con una mentalidad científica resulta escandaloso que hasta principios del siglo XX casi no empezaron a hacerse modelos matemáticos de la economía. De hecho, no es hasta los 40, más o menos, que empieza a haber un mínimo de sofisticación matemática de los mismos. De esa época es la investigación operativa/programación lineal, que permite calcular valores óptimos, de gran utilidad para la economía estadounidense (y también para sus ejércitos), los primeros modelos macroeconómicos o las primeras técnicas econométricas medio sofisticadas (en realidad bastante sofisticadas, hay que reconocer que la estadística ha crecido impulsada por impulso de los economistas, siendo muchos de ellos a su vez expertos enestadistica). Mas sorprendente es que incluso en los 50 haya grandes economistas que defiendan una economía sin matemáticas. Y hoy día es común ver muchos licenciado en economía que defiendan que no es necesaria la matemática, y que, después de todo, esta no sirve de nada.

Con todos estos antecedentes no es sorprendente que estemos en una crisis extraña y, según dicen, profunda, como la actual. Estoy leyendo, entre otras muchas cosas, el libro “la crisis de la macroeconomía” de Norberto E Garcia, que defiende un enfoque Keynesiano. Ciertamente me falta mucho que aprender (lo que no sé es si quiero aprenderlo xD), pero creo que poco a poco voy concretando mis propias ideas de como debería ser un sistema económico ajustado a estos tiempos. Y voy a intentar explicar un poco las “lineas maestras del mismo”.

Lo primero que creo que debe hacerse es estratíficar la economía. Hoy día se habla de dos economías, la economía productiva (o economía real) y la economía financiera. Me parece correcto, y tampoco creo que sea cuestión de reinventar la rueda. Admito que son dos estratos a tener en cuenta. Pero a esos yo les añadiría dos mas. En la base de todo pondría un estrato de economía de recursos. En este estrato se prestaría atención al “pequeño detalle” de que el mundo y sus recursos no son infinitos, y que no tiene sentido hablar de “crecimiento infinito” y cosas así. De hecho uno de los puntos sería definir el crecimiento económico en este nivel (del que derivan los demás). En este nivel la ecología (la seria, no la de los ecologistas) sería clave. Un poquito de historia nos puede dar claves para entender que tipo de cosas trataría, y como las enfocaría. La transición del cazador-recolector al agricultor-ganadero es clave y base de modelo. El cazador-recolector recogía unos pocos frutos y unos pocos recursos animales (carne sobre todo) de su entorno y el resto se lo repartían todas las demás especies. En la misma superficie el agricultor-ganadero cultiva plantas de uso exclusivo para la sociedad humana. También introduce unos animales cuyos recursos van a parar también a la sociedad humana. Es decir, sustituye un ecosistema que sustenta a una gran diversidad de especies a otro que sustenta en última instancia a humanos. Posiblemente el nivel total de producción de biomasa de los ecosistemas naturales sea mayor que el de los ecosistemas humanos, pero el porcentaje de los mismos que va a parar a los humanos es mucho mayor. En ese sentido el crecimiento es el desvío de recursos naturales del uso compartido al uso centrado en humanos. Por supuesto la segunda forma de crecimiento es aumentar el área de ocupación de los ecosistemas humanos. En general este es el tipo de definición de crecimiento económico que gusta a los ecologistas. Y, a mi, en general, me parece un buen punto de partida para definir el crecimiento en esa capa (o estrato).

Otro ejemplo histórico, mucho mas reciente, es muy interesante para ver la relación entre el estrato de recursos y el estrato de economía productiva. En los modelos macroeconómicos se proponen teorías matemáticas para explicar el crecimiento. Se analizan cosas como la función de producción (por ejemplo la de Cobb-Douglas) que relacionan el producto con una serie de factores, llamados insumos, como serían tecnología, capital y trabajo, que quedarian relacionados mediante la fórmula: . Los modelos de crecimiento en si mismos siguen pautas similares. Uno arquetítpico es el modelo de Robert Solow . Ahí el crecimiento se entiende como el crecimiento del PIB de un país (en ese modelo concreto se desprecian importaciones o exportaciones). Ese PIB (básicamente la producción de productos elaborados) está relacionado con la renta nacional y, por tanto, con la renta per cápita. Claramente no dice nada explícito del bienestar del promedio del individuo, ya que no habla de la dsitribución de la riqueza. Tampoco se para a analizar de dónde salen los elementos que aparecen en el PIB. Estos saldrían del estrato de la economía de recursos, pero en estos modelos se asume que hay una infinidad de recursos disponibles para ser elaborados. Esta suposición era una suposición razonable en la época en que se creó el modelo. Y, en especial en un país como USA en que se paso de los cazadores-recolectores (indoamericanos) a los agricultores cuando nació el país (hace unos pocos siglos) y la transición a la época industrial se terminó de fraguar casi, casi en la 2ª guerra mundial. Es decir, era un país en la que la expansión de los ecosistema humanos estaba a mitad de camino cuando se crearon los modelos. En Europa o Asia ya las cosas cambian mucho. En todo caso ni siquiera en los USA están libres de la dependencia en la capa de recursos. En la década de los 70 hubo una crisis económica cuando se produjo el peak de la producción de petroleo en USA. Los modelos al estilo Solow, que más o menos, funcionaban, no pudieron predecir esa crisis y fueron abandonados. Obviamente es absurdo culpar a esos modelos por no predecir algo que no aparece reflejado en ninguna de sus variables. El petróleo, y el resto de recursos, simplemente son invisibles en esos modelos. LA justificación última de los economistas a esas omisiones es asumir que el ingenio humano siempre va a ser capaz de extraer más y más de una misma zona (en ese sentido estaría representado por la inversión en tecnología y el avance de esta). Sin duda eso es irracional. La naturaleza ha tenido eones para ensayar tácticas de mejorar la producción. Y, pese a esa larguísima práctica es incapaz de extraer biomasa de dónde no hay recursos. En el ártico se produce menos biomasa que las selvas tropicales porque no hay sol. En los desiertos casi no se produce biomasa porque no hay agua. En definitiva, está bien que haya modelos de crecimiento que se ocupen sólo de la capa productiva. Pero debe hacerse un mayor esfuerzo en apoyar estos en la capa de recursos.

La siguiente capa es la de la economía financiera. Esta capa se ocupa de la financiación de los agentes de la economía productiva (las empresas y estados). Actualmente es el mayor cáncer de la economía ya que ha perdido su carácter original para convertirse en una economía especulativa que mediante maniobras de “mangonería financiera” está fomentando una redistribución de la riqueza muy poco equitativa. Vale que haya modelos como el de Pareto que muestren que “siempre” (es decir, al menos desde finales del siglo XIX) ha habido una polarización de la riqueza en la que el 20% de la población posee el 80% del capital. La teoría de redes puede más o menos probar que algo así surge de forma espontánea ya que si se tiene un modelo dinámico de redes en este los nodos mas conectados tienden a conectarse aún más. En la economía estas conexiones se van a traducir en riqueza y en “los ricos se van a hacer mas ricos”. En realidad no es terriblemente malo que haya gente muy rica y otra menos rica. Es gente rica puede invertir y crear empresas y etc. El problema es que ahora vamos hacia un desequilibrio aún mayor. La legislación debería velar porque esto no se produjera. Pero al estar muy concentrada la riqueza parece estar teniendo poder para influir en los legisladores. Y con la economía especulativa los ricos no buscan invertir en la capa productiva para obtener mas dinero sino que directamente sacan dinero endeudando al resto.

Ya he explicado tres capas. Ahora quiero introducir otra, que cada vez es más importante en la economía actual. Hace referencia a lo que en la jerga económica se denominan “bienes no rivales”. Un bien no rival es aquel que puede ser reproducido de manera indefnida a coste despreciable. Un ejemplo de ello son las ideas. Una plasmación mas fácil de entender de bien no rival es un mp3. Si yo copio en mi disco duro un mp3 eso no significa la destrucción del mp3 del disco duro de la persona que me lo pasó. Un bien rival, obviamente, es aquel que se destruye en su consumo. Si yo me como un pastel de un vecino ese vecino se queda sin él.

En cierto modo esa capa siempre ha existido, y ha sido importante. Casi todos los contenidos culturales en
última instancia son bienes no rivales. Si yo creo una nueva técnica de pintura, o de cerámica, o de composición musical, o una nueva tecnología, y otra persona la aprende eso no significa que yo la pierda. Claro, sí, si robo un cuadro de Picasso este pasa a ser mío y deja de ser de otros. Pero la técnica pictórica en si misma puede reproducirse indefnidiamente.

El problema con la capa de bienes no rivales es que la informática ha hecho crecer de modo exponencial. Peor aún, ha provocado una migración de bienes rivales, base de muchos sectores de la economía productiva, a bienes no rivales. Es un gran problema para los autores, como ha hecho notar la SGAE, pero también es un problema para el resto de la sociedad Con más y más bienes migrando de la economía productiva a la economía de bienes no rivales la producción de esta economía esta inevitablemente destinada a contraerse. Si una persona típica antes compraba discos, libros, comics, videos, iba al cine, etc, y ahora lo tiene gratis en casa no hay motivo para que los compre. De hecho esto es un problema relativo. El PIB que mida la economía productiva verá que este mengua. Pero eso es bastante engañoso. En realidad hoy día se produce muchísima más música que nunca. Y también se consume. El problema es que esa música la produce gente en su casa, con un ordenador, la distribuye por Internet y la consumen en su casa muchas otras personas. Y todo ese proceso es invisible para los baremos de medida de la economía productiva. Como quiera que esas actividades requieren tiempo de atención humana todo ese periodo de producción y consumo de bienes no rivales se traduce en una disminución de producción y consumo de bienes rivales, y, por consiguiente, en caída del PIB visible. Por ejemplo, esta entrada. Me ha costado algo mas de media hora escribirla. Y según las estadísticas del blog podría llegar a tener varios cientos de lectores en una semana. Pues todo ese tiempo de producción y consumo no cuenta en las medidas de la economía productiva al uso. Es necesario que se articule un PIB que incluya también la producción y consumo de esos bienes no rivales. Posiblemente usando ese PIB se observe que la aparente recesión de la última época en realidad es un crecimiento mayor que el de ninguna época anterior. Y, por supuesto, una vez sepan medir ese crecimiento de la capa de bienes no rivales debe articularse un medio de retribuir ese crecimiento dentro de la capa de economía productiva (para que los músicos-autores en general- no se mueran de hambre y tal xD).

Bien, eso es la parte de estratificación. Como me he alargado mucho dejo para otra ocasión las propuestas de como establecer una economía no centralizada y como esas propuestas deberían corregir los actuales problemas en las dos capas mas visibles para la economía ortodoxa (la productiva y la financiera).

La precariedad académica y su influencia en la teoría de cuerdas

julio 4, 2011

Han concluido las charlas de strings 2011. Aún no he visto muchos de los vídeos. Por un lado debido al desorden de la página web de la universidad. por otro debido a que se me han estropeado a la vez los altavoces externos y los cascos (los buenos) a los que suelo conectar el portatil (que es dónde suelo escuchar las conferencias) y el altavoz que trae incorporado es de una calidad lamentable.

Pero, lo más importante de todo, en general muchas de las conferencias me parecen demasiado cercanas a tecnicismos descafeinados, no me entusiasman demasiado. Ahora voy a aprovechar el trabajo de la mula francis, que ha clasificado coherentemente las conferencias para intentar ver algunas de las pocas que parece que se salvan.

Debo decir que este año ha habido, en mi opinión, en teoría de cuerdas, y en física de altas energías en general, temas bastante mas interesantes de los que se han visto en esas conferencias. Por un lado están los resultados de Strominger vinculando soluciones en relatividad general a soluciones en hidrodinámica. Luego están el trabajo de Quevedo y otros sobre un modelo de cuerdas que permite que la materia oscura tenga energía en el rango de energías del sub electrón voltio. He estado mirando bastante sobre ese tema (revisando algún artículo que había propuesto esa idea, en escenarios mucho mas simples) y en general mucho sobre los detalles de ruptura de supersimetría y supergravedad así como materia oscura en general, así que imagino que ya comentaré largo y tendido sobre el particular.

También hecho en falta alguna discusión sobre los resultados del tevatrón y su explicación en términos de un bosón leptofóbico. Es cierto que al final parece que se ha optado por que el detector CDF ha quedado desacreditado y se desestima el bum Wjj y la asimetría delante-atrás. Aún así creo que hubiese estado bien que alguien comentara en detalle los itrínguilis de ese experimento y se discutiese un poco. por cierto, ahora el D0, el otro observatorio del tevatrón, ha sacado un resultado a 3.9 sigmas, confirmando un resultado anterior a 3.1 sigmas sobre posible nueva física: D0: 4 sigma like-sign dimuon anomaly.

Pero aparte de comentar sobre las strings 2011 querría comentar un detalle general sobre los conferenciantes. Si uno mira la lista de nombres de esta conferencia y de las de años anteriores verá que hay una serie de nombre muy bien conocidos que se van repitiendo. La mayoría de esos nombres son de físicos que llevan trabajando en teoría de cuerdas casi desde sus inicios. Esa gente suelen llevar las charlas mas “físicas”, las mas interesantes (también hay casos en que dan charlas técnicas, pero con un contenido físico jugoso). Y luego hay un grupo de gente (que si uno indaga descubre que son todos bastante jóvenes en el momento de la conferencia) que suelen dar charlas mas técnicas pero un tanto formales y un tanto vacías. Esa gente suelen desaparecer de una conferencia para otra.

Eso me recuerda que allá por la 2ª revolución de la teoría de cuerdas (aparición de las D-branas, las dualidades, el cálculo de la entropia de agujeros negros), a mediados de los 90, apareció un artículo en investigación y ciencia que se quejaba de que quienes habían hecho esa revolución eran mayoritariamente la gente que había hecho la primera revolución en los 80 (cuando se demostró que las cuerdas estaban libres de anomalías y que eran una teoría prometedora de gravedad cuántica y unificación de física de partículas, en particular con la cuerda heterótica). En esa 2ª revolución los únicos nombres un poco novedosos fueron Polchinsky (descubridor de las D-branas) y algo mas tarde Maldacena (y su correspondencia ADS/CFT tan exitosa como posiblemente sobrevalorada). Como mucho podría mencionar desde entonces a gente como Nima Arkhani-Hamed y Lisa Randal entre el grupo de físicos relativamente jóvenes que se han hecho un hueco (tal vez Lubos, si sus opiniones políticas y sus modos agresivos no le hubieran llevado a salir de Harward se hubiese hecho un hueco).

Y ahí estamos, que la 3ª revolución en teoría de cuerdas no ha llegado (aunque el trabajo acumulado en fenomenologia es una revolución silenciosa y creo que no se está apreciando correctamente los impresionantes logros en ese terreno) y la mayoría de nombres que hacen algo mínimamente jugosos llevan entre 30 y 40 años trabajando en el tema. Uno podría pensar que lo que sucede es que los físicos prometedores más jóvenes prefieren trabajar en otras líneas de investigación mas interesantes. Pero mucho me temo que no es así. Lo que hay es una serie de gente no especialmente prometedora que trabaja en temas igualmente no demasiado prometedores. Y, además, incluso en esas corrientes alternativas (¿alguien ha dicho LQG? xD) se da un fenómeno similar: Gente que lleva en ello muchos años y un grupo de gente ocasional.

Podría pensarse que las nuevas generaciones de físicos son inútiles y que no pueden reemplazar a sus mayores. Pero eso contradice lo que observo. Yo veo gente bastante prometedora, con mucho conocimiento (para su edad) que hacen su doctorado, dónde tal como está de sofisticación la teoría de cuerdas sólo se puede aspirar a “hacer cuentas” guiado por un tutor mas experimentado, un post doc, dónde empiezan a apuntar maneras, y luego más o menos desaparecen porque no encuentran plaza fija y o bien abandonan la investigación o bien se ven relegados a posiciones en universidades de tercera linea dónde es casi imposible trabajar en temas de vanguardia.

En definitiva, que hay un cierto estancamiento, que en mi opinión se debe a que el sistema educativo falla. De un lado tenemos que la propia inercia de la investigación fuerza a que cada vez se trabaje con teorías mas sofisticadas que, salvo muy honrosas excepciones, no permiten que hasta después del post doc (es decir, a una edad típica de unos 30 años) se este en condiciones de empezar a aportar algo novedoso. Por otro lado tenemos que a esa edad la mayor parte de gente que ha llegado tiene que abandonar la investigación(o al menos la investigación de vanguardia). Para como la nueva tendencia es a licenciaturas mas cortas, partiendo de una base en secundaria dónde cada vez se sabe menos. Tal como están las cosas alguien que haga un master de física teórica de la UAM tras terminar su grado en el plan de bolonia va a saber aproximadamente lo mismo que un licenciado en la especialidad (ahora inexistente) en física teórica del plan anterior al actual. Y, eso sí, tendrá dos años más. Le quedan por delante dos años de doctorado dónde deberá aprender lo que antes se aprendía en los cursos de doctorado. Cuando termine su doctorado estará al nivel de un estudiante de 2º año de doctorado de hace unos años. Ya en el post doc tendrá oportunidad de llegar a un nivel decente (pero no demasiado) y luego muy probablmente estará unos años deambulando o directamente se irá fura del mundo académico.

Con esa perspectiva la situación apunta a que se avecina un receso científico. Las nuevas generaciones, en promedio, no sólo no van a aportar avances notorios sino que posiblemente ni siquiera van a llegar al nivel que tenían las anteriores. Es decir que, de facto la coas apunta a que puede terminarse el progreso. Si la situación se empeorase podría darse fácilmente el caso de que no se formara un número suficiente de cientificos que llegaran a un nivel de conocimiento que permitiese no ya innovar sino mantener vivos los conocimientos necesarios para que sigan funcionando correctamente algunos servicios científicos básicos. Y eso sería un problema muy serio. Pero tal vez este exagerando, ojalá.

Los luditas, la desindutrialización y la sociedad post-industrial

julio 2, 2011

Cualquier economista ortodoxo que haya leído la entrada anterior seguramente haya pensado en que mi afirmación sobre un cambio a una sociedad post-industrial y la preocupación sobre la influencia en el trabajo no tiene sentido y se habrá sonreído recordando que ese tema quedó zanjado como algo conocido como “la paradoja de los luditas”. Bien, tengo muchos motivos, cada vez más, para pensar que la economía ortodoxa, especialmente tal como se promociona en los medios de comunicación “especializados” es una pseudociencia barata a la par que peligrosa. Voy a intentar explicar algo acerca de esto de los luditas, la influencia de la desindustrialización en el mercado de trabajo actual y las singularidades, que son muchas, de las impresoras 3 D, que, entre otras cosas, pueden llegar a ser casi, casi máquinas de von Neuman.

La historia del ludismo puede leerse en la wikipedia. Resumiendo, es un movimiento obrero surgido en la Inglaterra victoriana y abanderado por Ned Ludd (de ahí el nombre), que se oponían a la introducción de telares y demás maquinaria porque rebajaban las condiciones de vida de los obreros y generaban despidos. Actualmente hay un movimiento neoludita centrado en el peligro que suponen la informática y, en especial, la inteligencia artificial. Posiblemente los aficionados a la ciencia ficción, y en especial a la serie DUNE prefeeran hablar de movimiento butleriano (por aquello de la jihad butleriana y la adopción por la especie humana de la decisión de no construir máquinas mas inteligentes que el hombre en ese universo ).

Bien, el planteamiento es muy autoevidente, si para hacer el trabajo que antes requería 100 hombres con la automatización me bastan 10 entonces me sobran 90. Me quedaré con los 10 que más produzcan (es decir, que trabajen mas horas por menos dinero -quien quiera ver una definición mas técnica y con mas consideraciones de lo que se entiende por productividad que lea aquí -) y despediré al resto.

Sin embargo la economía ortodoxa arguye que este punto de vista es demasiado ingenuo y lo despachan con lo que mencioné antes, la paradoja (o la falacia) de los luditas: Luddite fallacy. Las argumentaciones varían un poco según a quien se escuche, pero básicamente son dos. Una de ellas es que se asume que el empresario va a seguir fabricando el mismo número de productos, lo cuál no es del todo razonable. Al fin y al cabo al empresario le interesa producir más. Es decir, que vamos a tener, digamos, que esos 100 hombres antes hacían 1000 productos. Ahora lo que va a pasar es que esos mismos hombres van a hacer 10.000 productos, pero que se seguirá necesitando esos mismos hombres. Por supuesto eso requiere que haya demanda para esos productos. En los mundos de yupi de la economía ortodoxa dónde hay crecimiento infinito, y toda la demanda que se cree será consumida (un consumido es un agente con deseo infinito de consumir) puede. En el mundo real obviamente eso no pasa. Digamos que en los inicios de la revolución industrial dónde Inglaterra era una potencia comercial que se expandía a través de sus compañías por todo el mundo la primera parte (crecimiento infinito) podría ser una buena aproximación, hoy no, aunque no entraré en detalles de lo que sería una definición sensata de crecimiento económico, que me aleja del tema central. El impulso al consumismo desmedido inherente a la filosofía neoliberal en economía intenta hacerse cargo de la segunda parte, obviamente sin demasiado éxito.

La siguiente línea de refutación contra el temor de los luditas es diferente, e imagino que viene al rescate de los fallos de la anterior. Consiste en afirmar que incluso si un sector concreto pierde trabajadores por culpa de la automatización esa pérdida quedará compensada por el surgimiento de otra industria, la que fabrique las máquinas y la encargada de su reparación que absorberán los trabajadores perdidos en un sector concreto. Por supuesto ahí ya surge un problema, que pasar de un sector a otro requiere un reciclaje laboral, y no necesariamente sencillo. Además en la mayoría de legislaciones laborales el cambio de trabajo significa una perdida de derechos laborales por antigüedad y demás. Pero dejemos de lado eso, vamos al centro del argumento, y hagámoslo con algo de mates, aunque sean muy simplonas, que para eso esto es un blog de ciencia ;).

Asumamos que cada máquina fabricada al ponerse a funcionar va a despedir d trabajadores por unidad de tiempo. Y asumamos que la empresa que fabrica las máquinas requiere m trabajadores por máquina fabricada en la unidad de tiempo. Si m<d obviamente tenemos que la empresa de fabricación no creará tantos puestos netos de trabajo como destruye la máquina fabricada. Añadamos la reparación. Si se estropea una fracción e (e siempre será menos que 1) de máquinas en la unidad de tiempo y por cada máquina estropeada hay r reparadores tendremos que el total de puestos creador por máquina sería m + e.r y el total de puestos destruidos seguirá siendo d. Obviamente si m + e.r<d tendremos destrucción neta de empleo. Por supuesto este modelo es muy sencillo y correspondería a una situación estacionaria a largo plazo. Por cierto, nótese que en el largo plazo el factor m de fabricantes de máquinas y el r de reparadores debería disminuir porque por leyes de escala se supone que al aumentar el número de máquinas fabricadas el número de fabricantes por máquina disminuirá. De hecho también debería disminuir e, el porcentaje de máquinas que fallan, pero todo el mundo habrá oído hablar a estas horas de la obsolescencia programada.Eso se traduce en que la empresa que compra máquinas deba comprar máquinas mas frecuentemente. Eso sí, esas máquinas serán mas eficientes el porcentaje de despidos que podrá hacer esa emplea será mayor. Total, que las matemáticas, asumiendo este modelo tan simple, dicen que no es siempre cierto que el sector de fabricación y el de reparación pueda compensar los despidos, dependerá de la eficiencia de la máquina. Además, tarde o temprano (mas bien temprano) en el proceso de fabricación de la máquina entrará a su vez la automatización con lo cuál la tendencia es obvia, disminución de empleo.

Pero esto anterior ha sido un modelo muy burdo, y ni siquiera he puesto datos de algún proceso concreto de algún tipo de máquina. Además, en principio no es malo que se automatice. Se supone que la sociedad una vez tenga provisión sobrada de una serie de bienes y quede población ociosa puede dedicar esa población a producir otro tipo de bienes así que debería darse salida a los desempleados. Esto podría ser cierto mientras haya recursos de materias primas y energía para producir una cantidad creciente de productos y la gente disponga de dinero y espacio de almacenamiento crecientes para hacerse con ellos. Obviamente eso choca una vez más con que el mundo es limitado.

Vamos ahora con los datos, puede uno probar a leer la evolución del desempleo en la economía reciente de la cuna del neoliberalismo, los USA en: crecimiento del desempleo (jobless growth). Como puede verse las expectativas de crecimiento de empleo son nulas, y el hecho de tocar los contratos de trabajo es tirando a irrelevante, los factores implicados son otros. Recomiendo también leer otras entradas relacionadas: Desindustrialización y los libros la luz está en el tunel, el fín del trabajo.

Por cierto, supongo que muchos habrán oído mencionar en tertulias de economía aquello de que “para crear trabajo hace falta crecer un 3%”. Bien, esa afirmación esta basada en la ley de okun. Uno pensaría que esa es una ley basada en principios sólidos y de probada validez en cualquier entorno. Obviamente, como casi todo en economía, no es así. Es una ley semiempírica. Eso viene a decir que está basada en una serie de observaciones de unos países muy concretos, en unas épocas y circunstancias muy concretas, y en una serie de supuestos que justifican un modelo matemático muy sencillo. Obviamente la validez de la ley en un país distinto (y en circunstancias distintas) a los observados es más que cuestionable. Pero es que, además, los factores que se meten en la ley para calcular el ritmo de crecimiento de empleo, de los que surge el famoso 3% son absolutamente empíricos. Afirmar que en un país dado el valor es el mismo que en otro imagino que sólo podría justificarse con algún tipo de razonamiento “cater paribus” (todos los demás factores iguales) y mucho me temo que eso es, una vez más, vivir en yupilandia. De todos modos si alguien quiere leer un análisis más profundo de la ley de okun puede probar con How Useful is Okun’s Law?.

Bien, he hablado mucho de la relación entre automatización y empleo, y he comentado que íbamos hacia una sociedad post-industrial. El concepto no es mío y hay una “definición formal” que podéis leer en wikipedia: Post-industrial-society . Básicamente todo viene a ser el paso de una sociedad que produce bienes a una sociedad que produce ideas. Eso es genial, especialmente si tenemos en cuenta que las primeras industrias que han sido atacadas por la informática han sido las que generan contenido intelectual (música, cine, editoriales). Hoy es casi utópico plantearse vivir de la música, el cine o escribir libros ya que lo que produzcas va a ser pirateado y estar disponible gratis.

Lo curioso es que ya se estaba hablando de la sociedad post-industrial antes de las impresoras 3D. Pero es que estas van a acelerar el proceso de una manera impresionante. Podríamos llegar a una sociedad casi totalmente post-industrial en una década. Ya comenté en la entrada previa muchas de las características de esas impresoras. Pero olvidé uno muy importante. Algunas son casi máquinas de von Neumann. Esto viene a significar que uno puede usar una impresora 3 D para imprimir otra impresora 3 D (al menos la mayor parte de ella). Con esto tenemos que ni siquiera los fabricantes de impresoras van a tener un negocio particularmente bollante (excepto por el hecho de sacar cada vez modelos más sofisticados). En la entrada anterior no recalqué todo lo que se puede “imprimir” con un chisme de esos, pero basta con usar la imaginación. ¿bolígrafos? (lo único que habría que hacer es comprar la tinta a parte), ¿lamparas? (la bombilla se compraría aparte) ¿persianas? ¿marcos de ventanas? ¿monturas de gafas? (o, tal vez si sacaran alguna que manejase vidrio incluso las gafas), ¿lentillas?. En principio casi cualquier objeto cotidiano es susceptible de ser reemplazado en parte o en su totalidad por algo que salga de una impresora 3D.

Y, ya para terminar, algo muy preocupante. Seguramente se podría usar una impresora 3D para imprimir armas de fuego. Los diseños no podrían ser iguales a las armas actuales porque los factores de resistencia de los materiales no serían los mismos, pero seguro que alguien inventa el modo. Dado que conseguir los elementos químicos para el propelente no debe ser muy complicado eso abriría la posibilidad de que casi cualquiera pudiese imprimirse en su casa un número ilimitado de armas de fuego, lo cuál es muy inquietante. Mas inquietante aún si tenemos en cuenta que podrá imprimir el modelo que le plazca, y que podrá haber casi un número ilimitado de modelos. Así mismo podrá destruir el arma una vez usada (al fin y al cabo podrá construir otra en el futuro, cuando le plazca). Imagino que eso será un serio problema para la gente de los CSI a la hora de identificar las “armas homicidas” implicadas en un crimen.

En definitiva, dejo una serie de argumentos que apuntan que de aquí a una década el mundo podría ser muy diferente al que conocemos. Pero como dijo un famoso físico (o matemático, tal vez fuese el propio Von Neumann, no estoy seguro) predecir es algo muy complicado, en especial si se trata de predecir el futuro. El tiempo dirá cuanto me equivoco ;-).

Impresoras 3D, la revolución del DIY y el fín de la industria tradicional

julio 2, 2011

Hace poco alguien envió una entrada de este blog a menáme. Leyendo los comentarios que pusieron allí vi que a alguien recalcaba lo peculiar de hablar de teoria de cuerdas, el tevatrón y el LHC en un blog con DIY (do it yourself) en el título.

Bien, aclaro que el DIY lo puse en el título un poco engañado. En un momento dado en un foro alguien mencionaba que en España, dado lo calamitoso de las políticas educativas, el único modo de tener una cierta garantía de poder dedicarse con continuidad a la ciencia era el hacérselo uno mismo (do it yourself). Es decir, diseñar tu modo de vida para poder tener bastante tiempo libre para poder dedicarte a investigar por tu cuenta, sin contar en ningún momento en que te puedan pagar por investigar ya que con la política veleta de las administraciones uno no puede depender de sus subvenciones que un día están y al otro no. Ese es el sentido del DIY de esta web.

Pero claro, como dije, me engañaron un poquito. Resulta que el DIY es un término que por lo visto se acuño en la música punk, allá a finales de los 70, como respuesta al rock sinfónico/progresivo en el que los músicos empezaban a tener todos una formación clásica (y una cierta solvencia como instrumentistas) y usaban los por entonces emergentes, y carísimos, sintetizadores. Frente a eso los punks reivindicaban una música sencilla, que no requiriese haber estudiado música (sic) y con instrumentos baratos (aceptamos barco). Mas adelante esa idea, con esa mismas siglas, del DIY se extendió a otros sectores sociales. Y, por supuesto, de siempre ha habido el típico “manitas” que le gusta hacerse el sólito todas las obras de casa y que también es un DIY.

Ciertamente en el apartado musical yo no creo demasiado en la filosofía punk. Aunque excepcionalmente alguien sin formación musical pero con un cierto talento pueda hacer temas sencillos de una cierta valía la música va mucho más allá de eso. la filosofía punk no permite formar músicos capaces de crear una sinfonía para una gran orquesta. Si no aprende de lo que han hecho otros antes de él la mayor parte del tiempo va a estar reinventando la rueda (o su equivalente musical, el canón de pachelbel xD) :

Y, desde luego, en ciencia si no tienes una formación de primera no vas a poder hacer gran cosa. Vamos, que nadie piense que estoy defendiendo que cualquiera que lea cuatro libros de divulgación deba ser considerado en pie de igualdad con un catedrático de física teórica, seamos serios.

Vale, aclarado ese punto vamos con lo de las impresoras 3D. Todavía no son muy conocidas fuera de ámbitos muy reducidos. Mi primer encuentro con ellas surgió en documentales sobre dinosaurios (los veo todos, soy dinoadicto incurable). En la investigación paleontológica esa impresoras son muy útiles. Mediante técnicas de RMN se puede obtener un modelo 3D informatizado de un fósil (incluyendo detalles sobre el interior del mismo). Luego ese modelo informatizado se “imprime” en una impresora 3 D creando una réplica exacta del fósil en algún material adecuado y se le puede someter a pruebas de todo tipo que nadie se atrevería hacer con el fósil original.

El proceso de “imprirmir 3D” consiste en que un láser industrial (o algún tipo de material cortante) vaya seccionando un material uniforme dirigido por el patrón informático almacenado en el ordenador. El material puede ser algún tipo de escayola, de plástico, madera, tela, etc, dependiendo de lo que se pretenda “imprimir”. Obviamente esas impresoras que se ven en esos documentales son muy caras y están disponibles en lugares muy concretos (universidades y grandes laboratorios).

La siguiente noticia que tuve de ese tipo de impresoras es un modelo comercial que para su publicidad han ofrecido la posibilidad de crear bikinis a partir de una tela ligeramente especializada. A raíz de eso me puse a indagar y el panorama para la próxima década es, más o menos el siguiente. Se van a ir implantando poco a poco este tipo de impresoras. Ciertamente son caras y al principio poca gente podrá tener una en casa. Pero si podrá haber empresas que las compren y las dediquen a uso público (más o menos como e su momento se popularizaron las tiendas de repografía).

Lo interesante es usar un poco la imaginación y hacerse una idea de que tipos de cosas esperar de ellas. Uno va a poder “imprimir” ropa. Y no sólo bikinis, cualquier tipo de ropa. Y con “ropa” incluyo el calzado. Al pasar directamente de la materia prima al producto elaborado, saltándose todos los intermediarios, los precios del producto final serán mucho mas baratos. Otro aspecto es que el procedimiento permite crear productos inviables con las técnicas actuales. La calidad, pues supongo que mejor en algunos aspectos y peor en otros. Pero al fin y al cabo el mp3 es inferior en calidad al CD o DVD, y los ha reemplazado casi por completo.

Entonces ¿está amenazada sólo la industria textil y de calzado? No, claro que no. Se pueden imprimir también muebles, esculturas, etc, etc.

De hecho, ayer, leí que habían sacado una “tinta” que en realidad son paneles solares. Obviamente no basta con imprimir con esa tinta en un DINA 4 para tener un panel solar, hace falta bastante más. Pero ciertamente facilita que uno pueda imprimir en la impresora 3D el soporte y luego, sobre ese soporte, imprimir con tinta los paneles. De ese modo podría tener un panel solar a medida.

Imagino que todo el mundo tendrá claro que los primeros modelos crearán productos algo toscos. Vale, es lo suyo, pero tal vez viendo estos vídeos alguien se sorprenda de lo que ya es posible hoy día:

Oh, yeah, sí, la industria del sakteboard también está amenazada por las impresoras 3D ;).

En definitiva, como dije en una entrada anterior respecto a los derechos de autor el avance tecnológico va poco a poco (o mas bien, muy rápidamente) a poner a muchos sectores industriales en el mismo punto en el que están ahora la industria musical, cinematográfica y editorial. Hablo de la industria textil, calzado, mobiliario, material deportivo, objetos decorativos, etc. Y puedo estar quedándome corto. ¿podría imprimirse un coche pieza a pieza? (salvo tal vez algunas piezas criticas que se comprasen aparte). Eso dejaría “sólo” el pequeño problema de luego tener que montarlo. Pero imagino que lo que si podría hacerse es “imprimir” un montón de piezas de la carrocería. Eso haría que la industria de reparaciones cambiara drásticamente.

En definitiva, que de aquí a una década el sector industrial tal como lo conocemos puede haber dejado prácticamente de existir. Vamos hacia el mundo post-industrial. Eso requerirá una revisión absoluta del mercado de trabajo, porque, sencillamente, la mayoría de los trabajos actuales básicamente serán prescindibles. A ver como manejan eso los sectores politicos. Bueno, no sé como lo harán, sólo sé que sea como sea lo harán mal ;-).