Archive for 20 julio 2011

Corrientes de cambio de sabor observadas en el CDF a 5.4 sigmas de significación

julio 20, 2011

Con el detector CDF del tevatrón estamos ante un típico caso del efecto “que viene el lobo”.

Lo digo porque, como se publico en este blog, hace unas semanas había lanzado a bombo y platillo un resultado dónde afirmaba haber visto a 4.1 sigmas un “Wjj bump”, indicativo casi inequívoco de nueva física. Ese dato se sumaba a otro, el anuncio a 3.2 sigmas de una anomalía “backward -forward” de cierto tipo de eventos en colisiones protón-antiprotón. Todas esas observaciones quedaron refutadas por el otro observatorio del tevatrón, el D0.

Por ese motivo cualquier resultado proveniente del CDF se mira con escepticismo. Sólo eso puede explicar que Tomassso Dorigo haya anunciado en su blog el nuevo resultado del que hablo en esta entrada hace dos horas (al momento de escribir esta entrada) y aún no tenga ningún comentario en su blog.

El resultado en cuestión es el hallazgo de una corriente de cambio de sabor en un canal concreto: la desintegración de una partícula Lambda b barión (formada por un quark up, uno down y otro bottom) en un par muón/antimuón y otro barión mas sencillo. Este tipo de procesos son indicativos de nueva física más allá del modelo standard.

Las corrientes de cambio de sabor son, genéricamente, procesos en los que un quark de un sabor se transforma en otro quark de otro sabor. Recordemos que los quarks son los constituyentes de los protones y neutrones, así como de otras muchas partículas nucleares creadas en aceleradores por primera vez en los años 40 y 50. Esa retahíla de partículas fué organizada por Murray-Gellman como combinaciones de Quarks. Gellman dedujo sus resultados usando teoría de grupos en su famoso artículo “the eighfold way” en el que mostro que usando el grupo SU(3) podía hacer corresponder la mayoría de esas partículas observadas como representaciones varias del grupo SU(3). La representación fundamental de ese grupo, de dimensión 3, estaba dada por tres estados, los quarks, up, down y strange (u, d, s) y la conjugada de esa representación fundamental por los correspondientes antiquarks. Gellman introdujo la terminología de sabores para distinguir esos quarks. Es decir, que lo que distinguía un quark de otro era el “sabor”. En su trabajo inicial había, como he dicho, tres sabores. Posteriormente se añadieron otros tres sabores (otros tres quarks) el charm, el botton y el up. Realmente la teoría de grupos funciona bien para clasificar las partículas formadas por los tres primeros quarks. Debo decir que las simetrías de ese grupo SU(3) no eran exactas sino aproximadas. Había pequeñas diferencias de masa entre todos los bariones (resonancias, mesones, etc) que estaban en una representación dada. Pero era lo bastante insignificante para no ser significativa. Sin embargo los intentos de usar grupos mas grandes para incluir los nuevos quarks y clasificar las partículas mas pesadas fueron infructuosos.

Realmente, a día de hoy, la visión de esto de los sabores es en cierto modo ligeramente distinta. Lo que vemos son familias. En la primera familia, la más ligera, están los quarks up y down. En la siguiente familia los charm y strange. En la última, y más pesada, los up y bottom. Excepto por la masa las características de los quarks correspondiente son iguales. Correspondientes a las familias de quarks están las familias leptónicas dónde tenemos los leptones (partículas que no interaccionan por la fuerza nuclear fuerte y en consecuencia no forman parte de los núcleos) con sus correspondientes neutrinos. En concreto tenemos electrón y neutrino electrónico, muón y neutrino muónico y tauón y neutrino tauónico.

En el modelo standard de partículas, el famoso SU(3)xSU(2)xU(1) no hay ningún proceso que a nivel de árbol transforme un quark de una familia en uno de otra (o en terminología de sabores, que cambie su sabor). Sólo en procesos que incluyen loops (es decir, que la partícula virtual mediadora de las interacciones entre partículas a su vez se transforme en un par partícula-antipartícula virtual a medio camino y luego vuelva a crearse la partícula mediadora original) puede suceder uno de esos procesos. Los procesos a un loop (o superiores) modifican muy poco las probabilidades y en el modelo standard la posibilidad de un evento de cambio de color es insignificante. Sin embargo en otros modelos de física más allá del modelo standard (modelos de unificación SU(5), modelos supersimétricos, modelos fenomenológicos inspirados en cuerdas) si tienden a salir ese tipo de procesos (debidos si mal no recuerdo a operadores de dimensión 5 o superior) y hay que jugar con los modelos, si se puede, para cancelar esos procesos. Un caso famoso es el de la unificación SU(5) original en la que esos procesos serían responsables de un ritmo de desintegración del protón mayor de lo que se observó tras la publicación del modelo y que llevó a la refutación del mismo y a la necesidad de crear variantes del original.

Y ahí está la clave de ese artículo. Que en uno de los canales dónde es razonable buscar un proceso de cambio de color en un quark han encontrado que el número de eventos encontrados, 24, es mucho mayor de lo que predice el modelo standard en procesos a un loop. Es decir, que han encontrado una evidencia estadisticamente abrumadora de un nuevo tipo de física del tipo que uno razonablemente podría esperarse hallar.

El problema, como dije, es la credibilidad del CDF. Sino a estas horas mucha gente estaría celebrando con Champán el gran hallazgo. Pero tal como están las cosas imagino que toca esperar a ver si D0 ve algo similar. No sé los detalles del LHC, pero imagino que también debería ser capaz de observar algo similar. En definitiva, otra vez a esperar. De momento, si alguien quiere profundizar, puee leerse el artículo en arxiv: Observation of the Baryonic Flavor-Changing Neutral Current Decay Lambda_b to Lambda mu+ mu- y también estar atento a la charla en directo dónde anunciarán a bombo y platillo el descubrimiento: Fermilab Live Video Streams

Para quienes gusten de los dibujitos dejo el gráfico que se corresponde al hallazgo:

Por cierto, hablando del LHC. Hoy ha empezado la reunión EPS 2011. Podéis ver pdfs de algunas de las charlas que se van a dar aquí: Europhysics Conference on High-Energy Physics 2011. En esas charlas se anunciará el análisis de los datos obtenidos por el LHC hasta ahora (algunas charlas analizan hasta 1.2 fentobans inversos. Es posible que en alguna de esas charlas se puedan anunciar descubrimientos importantes ya que la cantidad de datos reunidos es lo bastante importante como para que las expectativas sean favorables. Obviamente seguiré con atención esas charlas y si tengo ocasión dejaré recado de lo más importante que se anuncie ;).

La precariedad académica y su influencia en la teoría de cuerdas

julio 4, 2011

Han concluido las charlas de strings 2011. Aún no he visto muchos de los vídeos. Por un lado debido al desorden de la página web de la universidad. por otro debido a que se me han estropeado a la vez los altavoces externos y los cascos (los buenos) a los que suelo conectar el portatil (que es dónde suelo escuchar las conferencias) y el altavoz que trae incorporado es de una calidad lamentable.

Pero, lo más importante de todo, en general muchas de las conferencias me parecen demasiado cercanas a tecnicismos descafeinados, no me entusiasman demasiado. Ahora voy a aprovechar el trabajo de la mula francis, que ha clasificado coherentemente las conferencias para intentar ver algunas de las pocas que parece que se salvan.

Debo decir que este año ha habido, en mi opinión, en teoría de cuerdas, y en física de altas energías en general, temas bastante mas interesantes de los que se han visto en esas conferencias. Por un lado están los resultados de Strominger vinculando soluciones en relatividad general a soluciones en hidrodinámica. Luego están el trabajo de Quevedo y otros sobre un modelo de cuerdas que permite que la materia oscura tenga energía en el rango de energías del sub electrón voltio. He estado mirando bastante sobre ese tema (revisando algún artículo que había propuesto esa idea, en escenarios mucho mas simples) y en general mucho sobre los detalles de ruptura de supersimetría y supergravedad así como materia oscura en general, así que imagino que ya comentaré largo y tendido sobre el particular.

También hecho en falta alguna discusión sobre los resultados del tevatrón y su explicación en términos de un bosón leptofóbico. Es cierto que al final parece que se ha optado por que el detector CDF ha quedado desacreditado y se desestima el bum Wjj y la asimetría delante-atrás. Aún así creo que hubiese estado bien que alguien comentara en detalle los itrínguilis de ese experimento y se discutiese un poco. por cierto, ahora el D0, el otro observatorio del tevatrón, ha sacado un resultado a 3.9 sigmas, confirmando un resultado anterior a 3.1 sigmas sobre posible nueva física: D0: 4 sigma like-sign dimuon anomaly.

Pero aparte de comentar sobre las strings 2011 querría comentar un detalle general sobre los conferenciantes. Si uno mira la lista de nombres de esta conferencia y de las de años anteriores verá que hay una serie de nombre muy bien conocidos que se van repitiendo. La mayoría de esos nombres son de físicos que llevan trabajando en teoría de cuerdas casi desde sus inicios. Esa gente suelen llevar las charlas mas “físicas”, las mas interesantes (también hay casos en que dan charlas técnicas, pero con un contenido físico jugoso). Y luego hay un grupo de gente (que si uno indaga descubre que son todos bastante jóvenes en el momento de la conferencia) que suelen dar charlas mas técnicas pero un tanto formales y un tanto vacías. Esa gente suelen desaparecer de una conferencia para otra.

Eso me recuerda que allá por la 2ª revolución de la teoría de cuerdas (aparición de las D-branas, las dualidades, el cálculo de la entropia de agujeros negros), a mediados de los 90, apareció un artículo en investigación y ciencia que se quejaba de que quienes habían hecho esa revolución eran mayoritariamente la gente que había hecho la primera revolución en los 80 (cuando se demostró que las cuerdas estaban libres de anomalías y que eran una teoría prometedora de gravedad cuántica y unificación de física de partículas, en particular con la cuerda heterótica). En esa 2ª revolución los únicos nombres un poco novedosos fueron Polchinsky (descubridor de las D-branas) y algo mas tarde Maldacena (y su correspondencia ADS/CFT tan exitosa como posiblemente sobrevalorada). Como mucho podría mencionar desde entonces a gente como Nima Arkhani-Hamed y Lisa Randal entre el grupo de físicos relativamente jóvenes que se han hecho un hueco (tal vez Lubos, si sus opiniones políticas y sus modos agresivos no le hubieran llevado a salir de Harward se hubiese hecho un hueco).

Y ahí estamos, que la 3ª revolución en teoría de cuerdas no ha llegado (aunque el trabajo acumulado en fenomenologia es una revolución silenciosa y creo que no se está apreciando correctamente los impresionantes logros en ese terreno) y la mayoría de nombres que hacen algo mínimamente jugosos llevan entre 30 y 40 años trabajando en el tema. Uno podría pensar que lo que sucede es que los físicos prometedores más jóvenes prefieren trabajar en otras líneas de investigación mas interesantes. Pero mucho me temo que no es así. Lo que hay es una serie de gente no especialmente prometedora que trabaja en temas igualmente no demasiado prometedores. Y, además, incluso en esas corrientes alternativas (¿alguien ha dicho LQG? xD) se da un fenómeno similar: Gente que lleva en ello muchos años y un grupo de gente ocasional.

Podría pensarse que las nuevas generaciones de físicos son inútiles y que no pueden reemplazar a sus mayores. Pero eso contradice lo que observo. Yo veo gente bastante prometedora, con mucho conocimiento (para su edad) que hacen su doctorado, dónde tal como está de sofisticación la teoría de cuerdas sólo se puede aspirar a “hacer cuentas” guiado por un tutor mas experimentado, un post doc, dónde empiezan a apuntar maneras, y luego más o menos desaparecen porque no encuentran plaza fija y o bien abandonan la investigación o bien se ven relegados a posiciones en universidades de tercera linea dónde es casi imposible trabajar en temas de vanguardia.

En definitiva, que hay un cierto estancamiento, que en mi opinión se debe a que el sistema educativo falla. De un lado tenemos que la propia inercia de la investigación fuerza a que cada vez se trabaje con teorías mas sofisticadas que, salvo muy honrosas excepciones, no permiten que hasta después del post doc (es decir, a una edad típica de unos 30 años) se este en condiciones de empezar a aportar algo novedoso. Por otro lado tenemos que a esa edad la mayor parte de gente que ha llegado tiene que abandonar la investigación(o al menos la investigación de vanguardia). Para como la nueva tendencia es a licenciaturas mas cortas, partiendo de una base en secundaria dónde cada vez se sabe menos. Tal como están las cosas alguien que haga un master de física teórica de la UAM tras terminar su grado en el plan de bolonia va a saber aproximadamente lo mismo que un licenciado en la especialidad (ahora inexistente) en física teórica del plan anterior al actual. Y, eso sí, tendrá dos años más. Le quedan por delante dos años de doctorado dónde deberá aprender lo que antes se aprendía en los cursos de doctorado. Cuando termine su doctorado estará al nivel de un estudiante de 2º año de doctorado de hace unos años. Ya en el post doc tendrá oportunidad de llegar a un nivel decente (pero no demasiado) y luego muy probablmente estará unos años deambulando o directamente se irá fura del mundo académico.

Con esa perspectiva la situación apunta a que se avecina un receso científico. Las nuevas generaciones, en promedio, no sólo no van a aportar avances notorios sino que posiblemente ni siquiera van a llegar al nivel que tenían las anteriores. Es decir que, de facto la coas apunta a que puede terminarse el progreso. Si la situación se empeorase podría darse fácilmente el caso de que no se formara un número suficiente de cientificos que llegaran a un nivel de conocimiento que permitiese no ya innovar sino mantener vivos los conocimientos necesarios para que sigan funcionando correctamente algunos servicios científicos básicos. Y eso sería un problema muy serio. Pero tal vez este exagerando, ojalá.

Los luditas, la desindutrialización y la sociedad post-industrial

julio 2, 2011

Cualquier economista ortodoxo que haya leído la entrada anterior seguramente haya pensado en que mi afirmación sobre un cambio a una sociedad post-industrial y la preocupación sobre la influencia en el trabajo no tiene sentido y se habrá sonreído recordando que ese tema quedó zanjado como algo conocido como “la paradoja de los luditas”. Bien, tengo muchos motivos, cada vez más, para pensar que la economía ortodoxa, especialmente tal como se promociona en los medios de comunicación “especializados” es una pseudociencia barata a la par que peligrosa. Voy a intentar explicar algo acerca de esto de los luditas, la influencia de la desindustrialización en el mercado de trabajo actual y las singularidades, que son muchas, de las impresoras 3 D, que, entre otras cosas, pueden llegar a ser casi, casi máquinas de von Neuman.

La historia del ludismo puede leerse en la wikipedia. Resumiendo, es un movimiento obrero surgido en la Inglaterra victoriana y abanderado por Ned Ludd (de ahí el nombre), que se oponían a la introducción de telares y demás maquinaria porque rebajaban las condiciones de vida de los obreros y generaban despidos. Actualmente hay un movimiento neoludita centrado en el peligro que suponen la informática y, en especial, la inteligencia artificial. Posiblemente los aficionados a la ciencia ficción, y en especial a la serie DUNE prefeeran hablar de movimiento butleriano (por aquello de la jihad butleriana y la adopción por la especie humana de la decisión de no construir máquinas mas inteligentes que el hombre en ese universo ).

Bien, el planteamiento es muy autoevidente, si para hacer el trabajo que antes requería 100 hombres con la automatización me bastan 10 entonces me sobran 90. Me quedaré con los 10 que más produzcan (es decir, que trabajen mas horas por menos dinero -quien quiera ver una definición mas técnica y con mas consideraciones de lo que se entiende por productividad que lea aquí -) y despediré al resto.

Sin embargo la economía ortodoxa arguye que este punto de vista es demasiado ingenuo y lo despachan con lo que mencioné antes, la paradoja (o la falacia) de los luditas: Luddite fallacy. Las argumentaciones varían un poco según a quien se escuche, pero básicamente son dos. Una de ellas es que se asume que el empresario va a seguir fabricando el mismo número de productos, lo cuál no es del todo razonable. Al fin y al cabo al empresario le interesa producir más. Es decir, que vamos a tener, digamos, que esos 100 hombres antes hacían 1000 productos. Ahora lo que va a pasar es que esos mismos hombres van a hacer 10.000 productos, pero que se seguirá necesitando esos mismos hombres. Por supuesto eso requiere que haya demanda para esos productos. En los mundos de yupi de la economía ortodoxa dónde hay crecimiento infinito, y toda la demanda que se cree será consumida (un consumido es un agente con deseo infinito de consumir) puede. En el mundo real obviamente eso no pasa. Digamos que en los inicios de la revolución industrial dónde Inglaterra era una potencia comercial que se expandía a través de sus compañías por todo el mundo la primera parte (crecimiento infinito) podría ser una buena aproximación, hoy no, aunque no entraré en detalles de lo que sería una definición sensata de crecimiento económico, que me aleja del tema central. El impulso al consumismo desmedido inherente a la filosofía neoliberal en economía intenta hacerse cargo de la segunda parte, obviamente sin demasiado éxito.

La siguiente línea de refutación contra el temor de los luditas es diferente, e imagino que viene al rescate de los fallos de la anterior. Consiste en afirmar que incluso si un sector concreto pierde trabajadores por culpa de la automatización esa pérdida quedará compensada por el surgimiento de otra industria, la que fabrique las máquinas y la encargada de su reparación que absorberán los trabajadores perdidos en un sector concreto. Por supuesto ahí ya surge un problema, que pasar de un sector a otro requiere un reciclaje laboral, y no necesariamente sencillo. Además en la mayoría de legislaciones laborales el cambio de trabajo significa una perdida de derechos laborales por antigüedad y demás. Pero dejemos de lado eso, vamos al centro del argumento, y hagámoslo con algo de mates, aunque sean muy simplonas, que para eso esto es un blog de ciencia ;).

Asumamos que cada máquina fabricada al ponerse a funcionar va a despedir d trabajadores por unidad de tiempo. Y asumamos que la empresa que fabrica las máquinas requiere m trabajadores por máquina fabricada en la unidad de tiempo. Si m<d obviamente tenemos que la empresa de fabricación no creará tantos puestos netos de trabajo como destruye la máquina fabricada. Añadamos la reparación. Si se estropea una fracción e (e siempre será menos que 1) de máquinas en la unidad de tiempo y por cada máquina estropeada hay r reparadores tendremos que el total de puestos creador por máquina sería m + e.r y el total de puestos destruidos seguirá siendo d. Obviamente si m + e.r<d tendremos destrucción neta de empleo. Por supuesto este modelo es muy sencillo y correspondería a una situación estacionaria a largo plazo. Por cierto, nótese que en el largo plazo el factor m de fabricantes de máquinas y el r de reparadores debería disminuir porque por leyes de escala se supone que al aumentar el número de máquinas fabricadas el número de fabricantes por máquina disminuirá. De hecho también debería disminuir e, el porcentaje de máquinas que fallan, pero todo el mundo habrá oído hablar a estas horas de la obsolescencia programada.Eso se traduce en que la empresa que compra máquinas deba comprar máquinas mas frecuentemente. Eso sí, esas máquinas serán mas eficientes el porcentaje de despidos que podrá hacer esa emplea será mayor. Total, que las matemáticas, asumiendo este modelo tan simple, dicen que no es siempre cierto que el sector de fabricación y el de reparación pueda compensar los despidos, dependerá de la eficiencia de la máquina. Además, tarde o temprano (mas bien temprano) en el proceso de fabricación de la máquina entrará a su vez la automatización con lo cuál la tendencia es obvia, disminución de empleo.

Pero esto anterior ha sido un modelo muy burdo, y ni siquiera he puesto datos de algún proceso concreto de algún tipo de máquina. Además, en principio no es malo que se automatice. Se supone que la sociedad una vez tenga provisión sobrada de una serie de bienes y quede población ociosa puede dedicar esa población a producir otro tipo de bienes así que debería darse salida a los desempleados. Esto podría ser cierto mientras haya recursos de materias primas y energía para producir una cantidad creciente de productos y la gente disponga de dinero y espacio de almacenamiento crecientes para hacerse con ellos. Obviamente eso choca una vez más con que el mundo es limitado.

Vamos ahora con los datos, puede uno probar a leer la evolución del desempleo en la economía reciente de la cuna del neoliberalismo, los USA en: crecimiento del desempleo (jobless growth). Como puede verse las expectativas de crecimiento de empleo son nulas, y el hecho de tocar los contratos de trabajo es tirando a irrelevante, los factores implicados son otros. Recomiendo también leer otras entradas relacionadas: Desindustrialización y los libros la luz está en el tunel, el fín del trabajo.

Por cierto, supongo que muchos habrán oído mencionar en tertulias de economía aquello de que “para crear trabajo hace falta crecer un 3%”. Bien, esa afirmación esta basada en la ley de okun. Uno pensaría que esa es una ley basada en principios sólidos y de probada validez en cualquier entorno. Obviamente, como casi todo en economía, no es así. Es una ley semiempírica. Eso viene a decir que está basada en una serie de observaciones de unos países muy concretos, en unas épocas y circunstancias muy concretas, y en una serie de supuestos que justifican un modelo matemático muy sencillo. Obviamente la validez de la ley en un país distinto (y en circunstancias distintas) a los observados es más que cuestionable. Pero es que, además, los factores que se meten en la ley para calcular el ritmo de crecimiento de empleo, de los que surge el famoso 3% son absolutamente empíricos. Afirmar que en un país dado el valor es el mismo que en otro imagino que sólo podría justificarse con algún tipo de razonamiento “cater paribus” (todos los demás factores iguales) y mucho me temo que eso es, una vez más, vivir en yupilandia. De todos modos si alguien quiere leer un análisis más profundo de la ley de okun puede probar con How Useful is Okun’s Law?.

Bien, he hablado mucho de la relación entre automatización y empleo, y he comentado que íbamos hacia una sociedad post-industrial. El concepto no es mío y hay una “definición formal” que podéis leer en wikipedia: Post-industrial-society . Básicamente todo viene a ser el paso de una sociedad que produce bienes a una sociedad que produce ideas. Eso es genial, especialmente si tenemos en cuenta que las primeras industrias que han sido atacadas por la informática han sido las que generan contenido intelectual (música, cine, editoriales). Hoy es casi utópico plantearse vivir de la música, el cine o escribir libros ya que lo que produzcas va a ser pirateado y estar disponible gratis.

Lo curioso es que ya se estaba hablando de la sociedad post-industrial antes de las impresoras 3D. Pero es que estas van a acelerar el proceso de una manera impresionante. Podríamos llegar a una sociedad casi totalmente post-industrial en una década. Ya comenté en la entrada previa muchas de las características de esas impresoras. Pero olvidé uno muy importante. Algunas son casi máquinas de von Neumann. Esto viene a significar que uno puede usar una impresora 3 D para imprimir otra impresora 3 D (al menos la mayor parte de ella). Con esto tenemos que ni siquiera los fabricantes de impresoras van a tener un negocio particularmente bollante (excepto por el hecho de sacar cada vez modelos más sofisticados). En la entrada anterior no recalqué todo lo que se puede “imprimir” con un chisme de esos, pero basta con usar la imaginación. ¿bolígrafos? (lo único que habría que hacer es comprar la tinta a parte), ¿lamparas? (la bombilla se compraría aparte) ¿persianas? ¿marcos de ventanas? ¿monturas de gafas? (o, tal vez si sacaran alguna que manejase vidrio incluso las gafas), ¿lentillas?. En principio casi cualquier objeto cotidiano es susceptible de ser reemplazado en parte o en su totalidad por algo que salga de una impresora 3D.

Y, ya para terminar, algo muy preocupante. Seguramente se podría usar una impresora 3D para imprimir armas de fuego. Los diseños no podrían ser iguales a las armas actuales porque los factores de resistencia de los materiales no serían los mismos, pero seguro que alguien inventa el modo. Dado que conseguir los elementos químicos para el propelente no debe ser muy complicado eso abriría la posibilidad de que casi cualquiera pudiese imprimirse en su casa un número ilimitado de armas de fuego, lo cuál es muy inquietante. Mas inquietante aún si tenemos en cuenta que podrá imprimir el modelo que le plazca, y que podrá haber casi un número ilimitado de modelos. Así mismo podrá destruir el arma una vez usada (al fin y al cabo podrá construir otra en el futuro, cuando le plazca). Imagino que eso será un serio problema para la gente de los CSI a la hora de identificar las “armas homicidas” implicadas en un crimen.

En definitiva, dejo una serie de argumentos que apuntan que de aquí a una década el mundo podría ser muy diferente al que conocemos. Pero como dijo un famoso físico (o matemático, tal vez fuese el propio Von Neumann, no estoy seguro) predecir es algo muy complicado, en especial si se trata de predecir el futuro. El tiempo dirá cuanto me equivoco ;-).

Impresoras 3D, la revolución del DIY y el fín de la industria tradicional

julio 2, 2011

Hace poco alguien envió una entrada de este blog a menáme. Leyendo los comentarios que pusieron allí vi que a alguien recalcaba lo peculiar de hablar de teoria de cuerdas, el tevatrón y el LHC en un blog con DIY (do it yourself) en el título.

Bien, aclaro que el DIY lo puse en el título un poco engañado. En un momento dado en un foro alguien mencionaba que en España, dado lo calamitoso de las políticas educativas, el único modo de tener una cierta garantía de poder dedicarse con continuidad a la ciencia era el hacérselo uno mismo (do it yourself). Es decir, diseñar tu modo de vida para poder tener bastante tiempo libre para poder dedicarte a investigar por tu cuenta, sin contar en ningún momento en que te puedan pagar por investigar ya que con la política veleta de las administraciones uno no puede depender de sus subvenciones que un día están y al otro no. Ese es el sentido del DIY de esta web.

Pero claro, como dije, me engañaron un poquito. Resulta que el DIY es un término que por lo visto se acuño en la música punk, allá a finales de los 70, como respuesta al rock sinfónico/progresivo en el que los músicos empezaban a tener todos una formación clásica (y una cierta solvencia como instrumentistas) y usaban los por entonces emergentes, y carísimos, sintetizadores. Frente a eso los punks reivindicaban una música sencilla, que no requiriese haber estudiado música (sic) y con instrumentos baratos (aceptamos barco). Mas adelante esa idea, con esa mismas siglas, del DIY se extendió a otros sectores sociales. Y, por supuesto, de siempre ha habido el típico “manitas” que le gusta hacerse el sólito todas las obras de casa y que también es un DIY.

Ciertamente en el apartado musical yo no creo demasiado en la filosofía punk. Aunque excepcionalmente alguien sin formación musical pero con un cierto talento pueda hacer temas sencillos de una cierta valía la música va mucho más allá de eso. la filosofía punk no permite formar músicos capaces de crear una sinfonía para una gran orquesta. Si no aprende de lo que han hecho otros antes de él la mayor parte del tiempo va a estar reinventando la rueda (o su equivalente musical, el canón de pachelbel xD) :

Y, desde luego, en ciencia si no tienes una formación de primera no vas a poder hacer gran cosa. Vamos, que nadie piense que estoy defendiendo que cualquiera que lea cuatro libros de divulgación deba ser considerado en pie de igualdad con un catedrático de física teórica, seamos serios.

Vale, aclarado ese punto vamos con lo de las impresoras 3D. Todavía no son muy conocidas fuera de ámbitos muy reducidos. Mi primer encuentro con ellas surgió en documentales sobre dinosaurios (los veo todos, soy dinoadicto incurable). En la investigación paleontológica esa impresoras son muy útiles. Mediante técnicas de RMN se puede obtener un modelo 3D informatizado de un fósil (incluyendo detalles sobre el interior del mismo). Luego ese modelo informatizado se “imprime” en una impresora 3 D creando una réplica exacta del fósil en algún material adecuado y se le puede someter a pruebas de todo tipo que nadie se atrevería hacer con el fósil original.

El proceso de “imprirmir 3D” consiste en que un láser industrial (o algún tipo de material cortante) vaya seccionando un material uniforme dirigido por el patrón informático almacenado en el ordenador. El material puede ser algún tipo de escayola, de plástico, madera, tela, etc, dependiendo de lo que se pretenda “imprimir”. Obviamente esas impresoras que se ven en esos documentales son muy caras y están disponibles en lugares muy concretos (universidades y grandes laboratorios).

La siguiente noticia que tuve de ese tipo de impresoras es un modelo comercial que para su publicidad han ofrecido la posibilidad de crear bikinis a partir de una tela ligeramente especializada. A raíz de eso me puse a indagar y el panorama para la próxima década es, más o menos el siguiente. Se van a ir implantando poco a poco este tipo de impresoras. Ciertamente son caras y al principio poca gente podrá tener una en casa. Pero si podrá haber empresas que las compren y las dediquen a uso público (más o menos como e su momento se popularizaron las tiendas de repografía).

Lo interesante es usar un poco la imaginación y hacerse una idea de que tipos de cosas esperar de ellas. Uno va a poder “imprimir” ropa. Y no sólo bikinis, cualquier tipo de ropa. Y con “ropa” incluyo el calzado. Al pasar directamente de la materia prima al producto elaborado, saltándose todos los intermediarios, los precios del producto final serán mucho mas baratos. Otro aspecto es que el procedimiento permite crear productos inviables con las técnicas actuales. La calidad, pues supongo que mejor en algunos aspectos y peor en otros. Pero al fin y al cabo el mp3 es inferior en calidad al CD o DVD, y los ha reemplazado casi por completo.

Entonces ¿está amenazada sólo la industria textil y de calzado? No, claro que no. Se pueden imprimir también muebles, esculturas, etc, etc.

De hecho, ayer, leí que habían sacado una “tinta” que en realidad son paneles solares. Obviamente no basta con imprimir con esa tinta en un DINA 4 para tener un panel solar, hace falta bastante más. Pero ciertamente facilita que uno pueda imprimir en la impresora 3D el soporte y luego, sobre ese soporte, imprimir con tinta los paneles. De ese modo podría tener un panel solar a medida.

Imagino que todo el mundo tendrá claro que los primeros modelos crearán productos algo toscos. Vale, es lo suyo, pero tal vez viendo estos vídeos alguien se sorprenda de lo que ya es posible hoy día:

Oh, yeah, sí, la industria del sakteboard también está amenazada por las impresoras 3D ;).

En definitiva, como dije en una entrada anterior respecto a los derechos de autor el avance tecnológico va poco a poco (o mas bien, muy rápidamente) a poner a muchos sectores industriales en el mismo punto en el que están ahora la industria musical, cinematográfica y editorial. Hablo de la industria textil, calzado, mobiliario, material deportivo, objetos decorativos, etc. Y puedo estar quedándome corto. ¿podría imprimirse un coche pieza a pieza? (salvo tal vez algunas piezas criticas que se comprasen aparte). Eso dejaría “sólo” el pequeño problema de luego tener que montarlo. Pero imagino que lo que si podría hacerse es “imprimir” un montón de piezas de la carrocería. Eso haría que la industria de reparaciones cambiara drásticamente.

En definitiva, que de aquí a una década el sector industrial tal como lo conocemos puede haber dejado prácticamente de existir. Vamos hacia el mundo post-industrial. Eso requerirá una revisión absoluta del mercado de trabajo, porque, sencillamente, la mayoría de los trabajos actuales básicamente serán prescindibles. A ver como manejan eso los sectores politicos. Bueno, no sé como lo harán, sólo sé que sea como sea lo harán mal ;-).