Plásticos con alta capacidad de reciclaje

Vivimos en un mundo de plástico. Tanto es así, que ya se empiezan a ver «rocas» formadas por agregados de microplásticos(1), además de las famosas islas de plástico en el medio de los océanos(2). Pero su uso es muy necesario, por lo que hay que encontrar estrategias que permitan su reutilización y reciclado.

El problema es que, precisamente debido a su estabilidad química y mecánica, no se degradan de ninguna manera, por lo que tirarlos y esperar no es una opción muy inteligente, aunque sea la que se emplea de manera mayoritaria. Pero incluso su reciclaje es difícil. Para reciclar y reutilizar un material, hay dos formas de hacerlo: medios químicos y medios físicos. Para los plásticos, hasta ahora sólo se podían usar medios físicos, porque por su propia estabilidad química era muy difícil lograr reciclar una parte importante del material. Pero esta forma de reciclaje no deja un material de la misma calidad, y suele tener un rendimiento muy malo.

Hasta ahora, que ha salido un artículo muy reciente donde se desarrolla un plástico que se puede reciclar mediante métodos químicos y obtener buenos rendimientos. Comienzan el artículo diciendo que emplean unos polímeros de poliéster y policarbonato, plásticos caros y de uso muy generalizado, como modelos de que su método puede funcionar bien. También explican que el método que emplearon para producir estos plásticos, a los que llaman PC-18, les permitió tener unos polímeros con capacidades mecánicas similares a las de los plásticos industriales, comenzando desde polímeros comerciales obtenidos mediante reciclado y síntesis de grasas y aceites vegetales. Uno de los resultados esperados que observaron es que las temperaturas de cristalización(3) de su nuevo plástico PC-18 es algo más baja que la de los plásticos actuales, pero que no tiene ninguna influencia en su uso industrial.

En la siguiente sección exploran la posibilidad de usar estos plásticos tanto en máquinas modelo de sistemas de extrusión comercial como para filamentos de máquinas de impresión aditiva o impresoras 3D. Como muestra la siguiente figura, los resultados son excelentes. En ella vemos unas muestras que se someten a ensayos de tensión(4), y su comportamiento es el de un plástico de buena calidad, rompiéndose tras una elongación grande.

Resultados de ensayos de elongación junto con el aspecto de las probetas. figura 2.e del artículo citado.

Comprobaron además que podía imprimir en varias superficies de cristal y otros plásticos, cosa que plásticos actuales no pueden hacer tan fácilmente, porque necesitan superficies especiales. Esto sería una ventaja extra de este tipo de plásticos.

Luego tratan el tema del reciclado de este nuevo tipo de polímero en ciclos cerrados(5). Y dado el tipo de plástico que lograron hacer, tienen resultados espectaculares. Logran reciclado químico del material con efectividades muy altas y usando el disolvente metanol. De hecho, pueden incluso reciclar ese plástico con colorantes y mezclado con otros plásticos, como indica la figura siguiente:

En esa pequeña probeta de la izquierda hay diversos plásticos, incluido en nuevo PC-18, se les añade el metanol(MeOH) y se obteine el monómero del PC-18. De la figura 4.b del artículo citado.

El líquido que se observa en la figura del medio está llena del metanol y de los monómeros del PC-18, pero como el material del plástico se evapora mucho antes que el metanol, por simple destilación logran después cristalizar el monómero con una pureza superior al 99% que presentan en la fotografía de la derecha.

En las siguientes secciones del artículo explican que han presentado en el artículo un método que permite tener plásticos que pueden reciclarse de manera indefinida con condiciones muy útiles, una temperatura muy baja de 120º C y el uso de metanol, un producto químico no demasiado peligroso. Continúa después explicando los métodos empleados para producir su plástico, que no es demasiado interesante. Ahora bien, sí que es mucho más interesante terminar este artículo explicitando un poco cómo lo logran. Lo que han hecho es hacer monómeros que tengan cadenas más cortas, que por lo tanto son más fáciles de «cortar».

El artículo se publicó en la revista Nature en febrero de 2021: Nature, vol. 590: Closed-loop recycling of polyethylene-like materials.

(1) Este artículo describe su presencia en las islas Azores: Plasticrust.

(2) La más fácil de medir el a que está situada en el medio del Pacífico, y es la que se suele considerar como tal. El artículo en español de la Wikipedia es muy decente: Wikipedia: Isla de basura.

(3) La temperatura de cristalización de un polímero es la temperatura a la que empieza a hacersa más blando y maleable. El artículo de la Wikipedia es español sobre la temperatura de vitrificación lo explica muy bien: Wiki:Temperatura de transición vítrea.

(4) Los ensayos de tensión consisten en someter a una muestra del material a estudiar con una forma estándar y tirar de sus extremos, para comprobar cuánta fuerza soporta.

(5) Reciclado en ciclos cerrados se refiere a la posibilidad de que el resuado del material pueda realizarse indefinidamente, como sucede por ejemplo con el aluminio o el cobre.

Nueva forma de tratar el Parkinson: generando nuevas células

El Parkinson es una enfermedad degenerativa en la que el paciente va perdiendo progresivamente control sobre su respuesta consciente muscular debido a pérdidas de neuronas en una zona fundamental, la llamada «substancia nigra».

Pues bien, un grupo de investigadores han logrado revertir la enfermedad en ratones empleados como modelos de la enfermedad mediante la regeneración de neuronas propias en los animales empleados en el experimento.

Comienzan el artículo comentando que la medicina regenerativa supone un cambio muy fuerte en el tratamiento de muchas enfermedades, que hasta ahora solo podían paliarse o retrasarse, pero que quizás puedan incluso revertirse si logramos activar el cuerpo para que se auto-repare de manera eficiente, como hace cuando no estamos enfermos.

Comentan que los métodos habituales de inducción de cambios neuronales son específicos para cada especie, pero que su grupo de investigación encontró unas proteínas, que en las neuronas se llaman nPTB y en general se denominan PTB, que inducen la diferenciación de neuronas. Además, es un ciclo de retroalimentación virtuoso porque una vez que esta proteína disminuye y comienza la producción de neuronas, su cantidad sigue disminuyendo.

Los investigadores emplearon esta proteína para generar neuronas en ratones modelo de la enfermedad desde los astrocitos(1) que sustentan al sistema nervioso, un logro que podría extenderse a seres humanos.

En la siguiente sección del artículo explican con gran detalle el sistema por el cual la reducción de esta proteína nPTB logra transformar los astrocitos en neuronas viables. También confirman su viabilidad tanto en células humanas como de ratones, por lo que están seguros que el uso de esta proteína es posible en personas. Además, explican que el uso de astrocitos como células precursoras tiene la enorme ventaja de su abundancia, plasticidad y posibilidad de cambio de número de manera natural.

En la siguiente sección muestran una confirmación del cambio de astrocitos en neuronas cuando se elimina la expresión de la proteína PTB. Como indica la figura de abajo, obtenida de muestras de tejido del cerebro de los animales, los resultados son muy claros: se han transformado casi todos los astrocitos en neuronas sin ningún problema. Además, son neuronas funcionales, puesto que determinados genes de las células que se activan en neuronas aparecieron en las muestras, mientras que los genes expresados(2) típicamente por los astrocitos dejaron de observarse.

Conversión de astrocitos en neuronas por la alteración de la proteína PTB en ratones observada in vitro (shPTB) que no se observa cuando el virus no silencia a PTB (shCtrl). La gráfica de la derecha señala el porcentaje de células que muestran el cambio. De la figura 2 del artículo citado.

Posteriormente, intentaron hacer lo mismo, pero en células de animales vivos. Utilizaron la misma técnica: el empleo de un virus para alterar el comportamiento de las células de la manera deseada. Y tuvieron éxito, como se indica en la figura de abajo, donde se observan la aparición de marcadores que muestran no sólo la aparición de neuronas, sino también su funcionamiento correcto.

En los paneles de arriba en fluorescencia verde se marcan las neuronas y en rojo las células que han sido infectadas por el virus. En las gráficas de abajo se observa como la expresión de los marcadores propios de neuronas a lo largo del tiempo aumenta, indicando claramente que el número de neuronas también. De la figura 2 del artículo citado.

Tras comprobar que podían generar neuronas viables en el interior del cerebro de los ratones, también observaron que su evolución en el tiempo, su maduración, era la correcta.

Estudiaron también la localización de las neuronas producidas y si se producían neuronas en lugares distintos de los que debían, comprobando que no, que realmente las neuronas se localizaban en las regiones correctas.

Posteriormente comprobaron el crecimiento de nuevas fibras en las neuronas producidas, para ver si todo era normal y las nuevas células se integraban en las «substancia nigra» que las rodeaba. Los resultados fueron muy positivos, puesto que se observó el crecimiento de las fibras y la integración de las neuronas dentro de este lugar anatómico.

Dado que hasta ahora habían logrado generar neuronas en ratones, su paso siguiente fue comprobar si podían regenerar neuronas perdidas en ratones modelos de enfermedad. Para ello, inyectaron primero en ratones sanos una sustancia que produce un daño similar al Párkinson en un aspecto fundamental: la destrucción neuronal que produce. Comprobaron que tras emplear su técnica, se produjo un aumento de neuronas en las zonas dañadas, que repararon parte del daño. Para asegurar que estas nuevas células producían dopamina(3), cuantificaron su producción antes y después de la aparición de estas nuevas células y pudieron observar su aumento. De hecho, pudieron observar también un aumento de la dopamina producida por las neuronas en su funcionamiento normal, lo que confirmaba que las nuevas células estaban cumpliendo su función.

Otra comprobación que realizaron fue observar si los ratones tratados recuperaron habilidades motoras, el objetivo fundamental de este tratamiento. Y los resultados fueron, de nuevo, muy positivos. Todos los ratones tratados mejoraron de manera clara como respuesta al tratamiento. Sin embargo, observaron que los ratones más mayores respondían peor a la misma. Atribuyeron este problema a su envejecimiento natural, que disminuye la plasticidad natural de las neuronas. Los autores comentan que de cara a un futuro tratamiento aplicable a seres humanos, este hecho podría ser un problema, dado que son justamente las personas más mayores las que más suelen tener esta enfermedad.

Las dos secciones siguientes antes de las conclusiones caracterizan las nuevas neuronas generadas y detalles técnicos sobre el método que no voy a reseñar.

En las conclusiones finales, explican que presentan un método para transformar astrocitos en neuronas de un solo paso basado en el programa de diferenciación neuronal que poseen los astrocitos pero que generalmente no expresan, «obligando» esa expresión mediante virus modificados para ello. Con este método son capaces de mostrar regeneración neuronal y restauración de funciones motoras en ratones modelo empleados generalmente para probar nuevos tratamientos de esta enfermedad.

Comentan que para poder aplicar esta estrategia en seres humanos, primero se tienen que solucionar dos obstáculos clave: la posible producción de neuronas en lugares no deseados, y el efecto adverso sobre la creación de neuronas debido a la mayor edad de alguno de los ratones.

Si se pueden llegar a eliminar parte de estos problemas, el potencial terapéutico de este sistema es impresionante. El tiempo dirá si se puede trasladar a seres humanos.

El artículo apareció en la revista Nature, en el volumen 582: Reversing a model of Parkinson’s disease with in situ converted nigral neurons.

(1)Los astrocitos son las células que forman parte del sistema de soporte y protección de todo el sistema nervioso central. El artículo de la Wikipedia sobre ellos es bastante comprensible: Wiki:Astrocitos.

(2) La expresión de los genes de una célula es la transcripción y traducción a proteínas para realizar la función de esa célula. Así, exceptuando las funciones comunes a todas las células, la expresión de los genes es individual para cada tipo de célula, permitiendo diferenciarlas en función de las proteínas que se observan a su alrededor. El artículo de la Wikipedia no es muy difícil de entender: Wiki:Expresión génica.

(3) La dopamina es el neurotransmisor que fundamentalmente se pierde por el daño cerebral debido al Parkinson. De hecho, varios tratamientos actuales consisten en la introducción de dopamina en el cuerpo con la intención de, al menos, ralentizar los peores síntomas de la enfermedad a través de la L-dopa.

La extinción de animales no es un proceso uniforme

Que la cantidad de especies, y el numero individual, de animales en el mundo está declinando parece ser un hecho incontestable. Pero la cuestión, importantísima tanto para la conservación de los animales como la nuestra propia, es si todos los animales, independientemente de tipo o forma decaen de la misma forma. Un reciente artículo publicado en Nature demuestra que no y que hay diferencias muy importantes según el tipo y especie de animal que observemos.

El artículo comienza con una afirmación obvia: se están produciendo cambios muy rápidos en todo el mundo en las poblaciones de animales salvajes. Generalmente, para poder estimar el número de especies que hay en la Tierra, se emplean números únicos, como el Living Planet Index(1). Este sistema tiene problemas estadísticos, que llevan a una imagen distorsionada de la realidad.

De hecho, como señala el artículo, el mayor problema es que incluso bases de datos serias no coinciden en sus resultados, con algunas indicando caídas muy serias del número de especies, el Living Planet Index indica una caída del 50% en el número de especies desde los años 70, mientras que otras bases de datos muestran una cierta estabilidad.

Los autores del artículo indican que un punto crucial es que usar un sólo número calculado como media geométrica(2) puede estar muy influenciado por lo extremos de los números que estemos usando. Como ilustración de la influencia de los extremos, enseñan el ejemplo de un ecosistema en el que una sola población declina un 99%. Incluso si el resto de poblaciones del mismo aumentan o se mantiene estables, la media geométrica indicará una caída del 50% en el total de especies, que claramente no es cierto. Por supuesto, este valor de la caída del 50% puede deberse también a una caída homogénea en el número de especies. Pero hay que distinguir entre ambas posibilidades, porque las dos conducen a la misma media.

Así, los autores del artículo plantean dos posibilidades: una que llaman «extinción catastrófica», donde todas las poblaciones reducen su número de una manera similar, o la «extinción agrupada»(3), donde grupos específicos de animales reducen su número de manera muy fuerte, mientras el resto de los animales apenas varían. Ambas formas de extinción de animales son malas y es importante evitarlas y luchar contra ellas, pero los métodos para evitarlas son completamente diferentes. Y dada la situación actual del mundo, es de vital importancia distinguir entre ellas. Los autores del artículo comprueban que los datos disponibles indican que el proceso actual de especies tiene lugar de manera agrupada.

Para señalar la importancia de las extinciones agrupadas en el proceso actual, en la figura siguiente excluye algunos grupos de animales, aquellos que han reducido su número más rápidamente, para calcular de nuevo el Living Planet Index. El resultado es que el conjunto de los animales se mantiene constante. Es decir, excepto por un grupo de especies muy concreto que reduce su número, el resto de los animales no se están extinguiendo: se está produciendo un fenómeno de extinción agrupada.

Evolución del Living Planet Index en el tiempo excluyendo las especies que más han disminuido. Fíjense que el máximo de poblaciones reducidas, 356, es aproximadamente un 2% del total de poblaciones muestreadas. (Figura 2 del artículo citado.)

El siguiente paso es comprobar si es verdad que la extinción se produce en grupos, comprobando diversos grupos de animales en en el mundo. Los datos obtenidos son muy claros, y están representados en una gráfica de una calidad extraordinaria, que en el texto original es su figura 3 y aquí he dividido en tres, según dónde vivan los animales.

Grupos de animales terrestres y su variación en el tiempo. Amarillo, sin variación significativa, naranja, con una reducción no significativa estadísticamente, azul, con un aumento del mismo tipo, verde, que han aumentado su número y rojo, disminución dramática. Los asteriscos rojo y azules indican disminuciones y aumentos extremos de grupos de animales, respectivamente.

Como se puede ver, para los animales que viven en tierra, hay disminuciones claras en varias regiones, pero muy preocupantes sólo en la región cercana a Australia y en las disminuciones agrupadas de mamíferos y reptiles en el continente americano.

Esta figura contiene la misma información que el anterior, pero para especies animales que viven cerca de los ríos (o dentro de ellos). El código de colores es el mismo que en la figura anterior.

Para especies anfibias, la situación es similar, estando la situación mucho peor en la región cercana a Australia, mientras que en el resto del planeta sólo algunos grupos de animales han disminuido mucho en los últimos años.

Aquí se observa la situación para los animales marinos en los océanos del mundo.

En la figura superior se indica que la situación en los océanos del mundo es algo paradójica: mientras los mamíferos acuáticos como ballenas y demás han aumentado su número(afortunadamente), gran cantidad de peces y aves tienen disminuciones muy fuertes de grupos específicos de sus componentes.

Al ver todos estos datos juntos, parece claro que la región del mundo donde deben hacerse más esfuerzos de conservación es la zona cercana a Australia, porque hay un riesgo más fuerte de pérdida total de la red trófica.

A modo de análisis final, el artículo comenta que han podido demostrar que la extinción actual se produce en grupos de animales, lo que es consistente con la llamada «degradación trófica»(4). Y es muy preocupante: dado que se observa una extinción agrupada en especies que seguramente sean llave en su ambiente, eso quiere decir que ese ecosistema es cada vez más frágil. Por otra parte, en su análisis han podido comprobar que se observan extinciones más grandes en el grupo de los animales de pequeño tamaño, que en principio es contraintuitivo. Además, excluyeron la influencia de cortos periodos de tiempo en la medida de la extinción de aquellos animales que disminuyeron de manera muy grande.

Como conclusiones, los autores del artículo se quedan con dos ideas. La primera es que sus resultados indican que hay una falta de uniformidad clara en las extinciones de animales. Es decir, hay especies que han aumentado su número, mientras otras han disminuido muy claramente. La otra es que habida cuenta de que determinadas especies han incluso aumentado su número, los esfuerzos de conservación y nuestras acciones funcionan claramente: podemos revertir el daño que hacemos, estamos a tiempo.

El artículo se publicó en la revista Nature, en el volumen 588: Nature, Vol 588

(1) Living Planet Index es una medida de la organización Adena que estima la abundancia de vertebrados en el mundo. Usa los vertebrados por ser uno de los grupos de animales más fáciles de ver y contar, que al estar generalmente en lo alto de las cadenas alimentarias, son muy dependientes de toda la red de animales. Declinan con facilidad si los más bajos desaparecen o tiene problemas. Su web es: Living Planet Index.

(2) La media geométrica es distinta de la media aritmética, más frecuente. La media aritmética es la suma de los números de los que se desea hacer la media, dividida por el total de números. La media geométrica es la raíz n-ésima del producto de los n números que queramos usar.En la Wikipedia en español: Wiki: Media geométrica.

(3) Las traducciones son mías. En el artículo original habla de «catastrophic decline» y de «clustered decline».

(4) La «degradación trófica» es la hipótesis de que una cadena trófica pierde posibilidades de regenerarse y funcionar bien cuando un grupo pequeño, pero muy importante, de sus miembros se extingue.

Orbis: Simulando los tiempos de viaje en el imperio romano.

Para los habitantes actuales del planeta resulta muy difícil de entender, pero hace 2.000 años viajar llevaba mucho tiempo. Y de hecho, la cercanía al mar acortaba sensiblemente los tiempos de viaje. Así, el imperio romano, bien conocido por sus calzadas públicas que conectaban todos los puntos del imperio, tenía unos tiempos de viaje que a nosotros nos parecen asombrosamente largos. El enlace del final de esta entrada lo muestra calculando el tiempo de viaje entre dos puntos cualesquiera del imperio. Es una página web de la universidad de Standford, que calcula tiempos medios de viaje en tiempos del imperio romano según distancia y costo, porque no es lo mismo ir andando que con montura. Esto último es más caro, pero también más rápido.

Jugueteando con el mapa, se puede ver dentro de la península ibérica que ir desde la actual Salamanca hasta la ciudad de Flavius Brigantum, situada en la actual provincia de la Coruña, llevaba 15 días, mientras que ir por mar desde Flavius Brigantum hasta Gades, la actual Cádiz, llevaba la mitad del tiempo, siete días. Se podía ir por mar. No es de extrañar que incluso hoy en día, sean las zonas cercanas a la costa las que mejor se pueden comunicar y las que están más pobladas.

En enlace a la aplicación web es: Orbis: The Standford Geoespatial Network Model of the Roman World.

La bicicleta puede salvar vidas del SIDA.

Un artículo reciente en la revisa «The Lancet» me llamó la atención por hacer caso de algo que en el mundo privilegiado damos por supuesto: el tener que viajar sin ser a pie para poder recibir atención médica es un problema añadido al tratamiento de varias enfermedades, entre ellas el SIDA.

Centrándose en el caso de Malaui(1), los autores del artículo han desarrollado un modelo que les permite afirmar que una acción tan poco relacionada, aparentemente, con la salud como proporcionar bicicletas a habitantes de zonas rurales puede aumentar de manera notable el porcentaje de población que el sistema nacional de salud es capaz de cubrir. Para comprobarlo, emplearon un modelo usando datos reales de fotografías de satélite y sistemas similares en el que estimaron el tiempo que le llevaba llegar al dispensario más próximo a la población del país.

Comienza la introducción diciendo que la agencia de las Naciones Unidas para el tratamiento del SIDA, UNAIDS, tiene el ambicioso objetivo de acabar con la epidemia descontrolada actual en el año 2030(2). Para ello, sistemas de salud ya bastante endebles deben ser capaces de llegar a más gente y en mejores condiciones. Hay esperanza en que este objetivo se pueda lograr: varios de los países que la agencia escogió como blanco principal para ayudar, han conseguido niveles de tratamiento de la población por encima del 70%, incluido Malaui.

La situación de este último país es asombrosa, cuando se le ponen números como hace el artículo: el 40% de su población vive debajo del umbral de la pobreza, tiene sólo 4 ciudades y en las zonas rurales, solo sobre el 2% de la población tiene un medio de transporte motorizado. De hecho, menos del 10% de las personas viviendo en el rural poseen una bicicleta. Así, en algunas zonas rurales, la ambulancia es una bibicleta.

Continúa el artículo describiendo la administración del sistema de salud y termina con otro dato: aproximadamente el 45% de la población vive a más de 5 km del centro de salud, del tipo que sea, más cercano. Por ello, en este artículo quisieron comprobar la influencia del tiempo de transporte hasta el centro de salud en la eficacia de los tratamientos.

Según comentan en la sección siguiente, que dedican a los métodos empleados, los datos geoespaciales fueron procesados con el programa AccesMod(3), de forma obtuvieron varios mapas.

Pero antes de hablar de tiempo de desplazamiento, observaron que la prevalencia del SIDA en el país es muy poco uniforme espacialmente, concentrándose en las zonas donde hay más población, algo lógico. La figura siguiente lo ilustra muy bien.

Porcentaje de población con SIDA en Malui. Las zonas con mayor porcentaje de población se corresponden con las cuatro ciudades y las costas de los lagos, las de mayor densidad de población.
De la figura 3.A del artículo citado.

Sabiendo cómo se distribuye el porcentaje de población enferma, con el programa antes mencionado construyeron un mapa de cuánto tiempo llevaría a una persona llegar al centro de salud según el medio de transporte, de tal forma que se alcanzaría el 90% de la población cubierta por el sistema de salud a menos de 90 minutos de viaje, sólo si se empleara la bicicleta, como demuestra la gráfica siguiente.

Porcentaje de población cubierta por el sistema de salud en Malaui en función del tiempo de viaje hasta el centro usando diversos sistemas de transporte. De la figura 4.D del artículo citado.

Como se puede observar, para que el 90% de la población pueda acudir en un tiempo razonable, sólo el uso combinado de bicicleta y andar puede garantizar que el tiempo empleado sea algo razonable. Unos 110 minutos de viaje quiere decir que ir y volver lleva unas 3,7 horas, es decir, una mañana. Se pretende conseguir ese mismo porcentaje de población andando, el tiempo de ida y vuelta se transforma en 4,3 horas. Parece poco, pero media hora más implica que la ida y vuelta no se pueda hacer en la mañana y sea necesario usar casi todo el día para el viaje. Y si tienes que trabajar cada día para comer, es posible que sea un lujo que no te puedes permitir. La diferencia es mucho más acusada si lo que se pretende es que el 70% de la población esté cubierta: entonces, la diferencia entre tener o no una bicicleta es el doble de tiempo.

Esta sección del artículo finaliza con las conclusiones obvias que se pueden extraer de esta figura: diciendo que si se pretende obtener un 90% de cobertura sanitaria, es necesario ofrecer bicicletas u otro medio de transporte alternativo a la población rural para que pueda desplazarse a los centros médicos para recibir tratamiento. Dado que la cobertura actual de porcentaje de población con tratamiento es del 70%, es obvio que conseguir el 20% restante necesitará, como mínimo, tener en cuenta el tiempo que lleva al enfermo llegar al centro de salud.

La sección final del artículo es un resumen de todo lo comentado aquí, con un acento en las implicaciones para las políticas públicas de Malaui, y países similares, que tiene el tener o no acceso relativamente rápido a centros de salud.

El artículo se publicó en la revista médica Lancet, en su volumen 8 y su acceso es público: Lancet, Vol.8, ISSUE 12, e1555-e1564, December 01, 2020.

(1) Malaui, «Malawi» en Inglés, es un país africano que está situado en el sureste del país. El artículo de la Wikipedia en español es muy completo: Wiki:Malaui

(2) De nuevo, le vivir en un país privilegiado no debe hacernos perder de vista que la situación de esta enfermedad en muchos países es muy mala, como este enlace con datos sobre la pandemia en el mundo recuerda: UNAIDS: Datos sobre le SIDA en el mundo.

(3) El programa AccessMod es cpaz de modelar el acceso de la población a atención médica. Su página web es: AccesssMod.

Influencia de la Luna y el Sol en el movimiento de las plantas.

Se supone que la influencia gravitatoria combinada del Sol y la Luna puede producir movimientos en la plantas, pero hasta ahora no se ha podido cuantificar ni entender el mecanismo subyacente, más allá de estimar que será un efecto de cambios en la gravedad de la superficie debido a la rotación de la Tierra. El artículo que comento precisamente demuestra, mediante datos obtenidos de experimentos previos realizados en la estación espacial y modelos analíticos, que la influencia de estos dos astros en el movimiento de las plantas se puede entender gracias a las inestabilidades de Rayleigh-Taylor debidas a cambios en la gravedad por al rotación en el sistema circulatorio de la planta.

Comienza la introducción del artículo diciendo que esta influencia gravitatoria sobre el movimiento de las planta está muy cuestionada, incluso hay quien la niega o considera que es sobre todo, un ritmo circadiano(1) esencialmente controlado por la luz u otro factor. Pero en este artículo demuestra la influencia del Sol y la Luna en los movimientos de las plantas, usando datos recabados del movimiento de plantas en la estación espacial como caso especial.

Para empezar, señala en la introducción que los movimientos de las plantas en la Tierra siguen un periodo de 24,8 horas, mientras que algunas plantas que se subieron a la estación espacial tenían un periodo de 45 minutos, cuando la rotación de la estación es de 90. Comentan que está demostrado que las modulaciones del campo gravitatorio de la Tierra debido a la acción del Sol y la Luna se ha demostrado que influye en el crecimiento de las plantas, y que puede llegar a ser percibido por otros seres vivos.

Para tratar de entender bien estos efectos, el autor del artículo desarrolló unos modelos simplificados del sistema circulatorio del las plantas, tubos microscópicos y de tamaño milimétrico, mesoscópicos, que contenían savia y un gas. En el artículo no lo especifica, pero tiene sentido que el gas sea aire atmosférico.

Para que la gravedad y la separación entre el líquido, la savia, y el gas pudiera tenerse en cuenta, estudió los tubos en horizontal y en vertical. Los tubos en horizontal serían equivalentes a las raíces de las plantas y los tubos en vertical, a los tallos.

Cuando los tubos están en horizontal, las raíces, debido al pequeño tamaño de los tubos empleados, la savia ocupa toda la superficie de los mismos, dejando el gas en el centro, de tal forma que hay una interfaz líquido-gas de simetría radial. En los tubos que hacen de tallos, debido a una ley denominada en el artículo como ley de Jurin(2) que relaciona la altura de un líquido por un tubo fino con su diámetro, se termina formando una interfaz líquido-gas en el punto de máxima altura de la savia.

Ambas interfaces líquido-gas se pueden estudiar como un caso especial de la inestabilidad de Rayleigh-Taylor, que el artículo afirma permite predecir, y demostrar con los datos experimentales de la estación espacial, la frecuencia de movimiento de las plantas, dado que el efecto más importante es el de la gravedad del Sol y la Luna a través de resonancias paramétricas asociadas con la variación de la gravedad.

Sigue el artículo con una sección que dedica a la estabilidad de las superficies líquido-gas en los tubos. Concretamente, plantea un modelo que permite definir las variaciones en la interfaz entre savia y gas para los tubos horizontales, despreciando los efectos a segundo orden y considerando que los dos fluidos son incompresibles y los efectos de la viscosidad despreciables. El resultado final es que las variaciones en esa interfaz líquido-gas tienen una frecuencia que se puede deducir de la ecuación que relaciona la diferencia de presiones entre líquidos y gas(3).

De esta ecuación se puede obtener una relación entre frecuencia de perturbaciones y magnitudes materiales del líquido y gas, densidad y viscosidad, que emplea en la sección siguiente para dar valores numéricos a las características de los fluidos, además de considerar qué fórmulas y modelos pueden emplearse según los tubos estén en horizontal o vertical en la Tierra o en al estación espacial.

En las dos secciones siguientes estudia las variaciones del valor de la gravedad en la Tierra y la estación espacial, dándole un valor numérico a la oscilación, que es pequeñísima, del orden de 1/ 8 000 000 en la Tierra.

En la sección siguiente comienza con una muy breve introducción a la ecuación de Mathieu, una ecuación diferencial que aparece con muchísima frecuencia en el estudio de la estabilidad de sistemas con cambios oscilatorios en algunas magnitudes. Luego, aplica las relaciones y formas anteriores a las resonancias que provoca la gravedad de la Luna y el Sol tanto en la Tierra como en la estación espacial en el valor de la frecuencia que aparecía en la ecuación de la diferencia de presiones de la interfaz. Así, logra demostrar que estas oscilaciones periódicas tienen las mismas frecuencias observadas en los movimientos de las plantas en los dos lugares, al comprobar como el periodo de las mismas coincide con el predicho según esta teoría de la inestabilidad de Rayleigh-Taylor, demostrando la influencia de la gravedad en los movimientos de las plantas.

Es enormemente curioso que los movimientos de las plantas tengan una relación tan estrecha con las oscilaciones tan pequeñas en la gravedad debidas a la Luna y el Sol, en función de la rotación terrestre. Mi corazoncito ciencaficcionero no puede por menos que notar que en otros planetas, con ciclos de rotación diferentes, estos movimientos de las plantas también serán muy distintos.

El artículo salió publicado en la revista Physics of Fluids, volumen 32: Phys. of Fluids. DOI:10.1063/5.0023717

(1) Ritmo circadiano: es el ritmo interno de las diversas variables que se midan en un ser vivo, desde composiciones químicas hasta periodos de actividad, asociadas a cambios externos. El enlace de la wikipedia en español es bastante ilustrativo: Wiki: Ritmo Circadiano

(2) James Jurin: Un médico londinense que efectuó estudios estadísticos muy importantes sobre la viruela, además de estudiar el efecto de la capilaridad en los líquidos. El artículo de la wikipedia en español es bastante bueno: Wiki: James Jurin

(3) No puedo poner bien la ecuación porque el sistema que empleo para escribir no tiene editor de ecuaciones. Malamente, la ecuación tiene la forma: d(p²)/dt^2 + w*p =0. Donde p es la diferencia de presiones y w la frecuencia.

Elecciones a Rector UCLM

Llevo desde el año 2007 entero como profesor, con diversas asignaturas, en la UCLM. Cada cuatro años nos tocan las elecciones a rector, más o menos. Este año, debido a la pandemia, se han retrasado. Pero en principio eran lo mismo: dos tipos, a veces sólo uno mínimamente razonable, entre los que había que escoger. Siempre lo he considerado una obligación más a la que atendía como tanta otras en la Universidad: gestionar facturas, subir las notas al sistema adecuado, etc.

Hasta estas elecciones. El asunto es que de los dos candidatos, hay uno que ha hecho algo que hace tiempo que no me pasaba: me ha ilusionado. Mucho. Concretamente, el candidato Julián Garde.

Vino hasta la escuela de Industriales de C. Real con el ánimo de pulsar las opiniones de los profesores y asistí a la reunión sin demasiada expectativas. Esperaba encontrarme una persona más, dispuesta a no molestar ni decir nada que pudiera evitar una elección que era bastante segura. A fin de cuentas, dado que el actual rector lleva dos mandatos, es razonable pensar que ganará casi cualquier oponente. No tenía que esforzarse nada, sólo no ser muy políticamente incorrecto. Y lo cierto es que desde el principio, presentó una pasión por intentar solucionar problemas que ve, además de tener una clara visión de la Universidad, muy distinta de la de casi cualquier otra persona que conozca. Y muchísima ilusión, muchas ganas de hacer de la UCLM una Universidad mejor, más integrada en la región y con mayor atractivo para los propios estudiantes de Castilla-la Mancha y capaz de generar empleo y personas capaces para la región.

Y me contagió toda esa ilusión. Tanto, que fue la primera vez que saliendo de una reunión con un candidato, no sólo sabía a quién iba a votar, sino que sabía que esta vez no iba a ser una obligación.

Lo cierto es que voy a votar por Julián Garde, y con muchísima ilusión. No es que el actual rector lo haya hecho tan mal. A fin de cuentas, Miguel Ángel Collado dirigió muy bien la Universidad en momentos de crisis económica muy complicados. Pero la pasión e ilusión que representan Julián, junto con el conjunto de refrescantes ideas que presenta sobre la UCLM hace que rompa una norma no escrita personal, la de no decir nada públicamente sobre los candidatos a rector, para decir que yo voy a votar a Julián Garde. Porque honestamente, creo que es algo más que el mejor candidato para la UCLM. Es un candidato que va a hacer que la Universidad salte hacia adelante, que le hace falta.

Para terminar, me gustaría decir que nadie me ha pedido/dicho que escriba este texto. Lo hago porque honestamente creo que es el mejor candidato para dirigir la UCLM.

Estabilidad climática de planetas orbitando sistemas de estrellas dobles

En la ciencia ficción es muy frecuente el uso de planetas que orbitan estrellas dobles, tanto en el cine, todo el mundo recuerda los dobles soles sobre Tatooine, como en las novelas. Por ejemplo, un caso extremo donde largas variaciones climáticas juegan un papel fundamental en la trama es la trilogía de Heliconia escrita por Brian W. Aldiss(1). Pero ¿hasta qué punto es esto posible?

En un reciente artículo en la revista «Journal of Geophysical Research: Planets», un grupo de investigadores decidieron encarar la cuestión. Comienzan en la introducción comentando que tanto por simulaciones sobre dinámicas planetarias y de estrellas, como por elementos observacionales, la cantidad de sistemas dobles es grande, son sistemas comunes en el Universo.

Sigue explicando que trabajos previos consideraron el clima y la habitabilidad de planetas orbitando este tipo de sistemas binarios, usando simulaciones 1-D y 3-D(2). De hecho, en las simulaciones de los sistemas binarios en 3-D realizadas para planetas similares a los sistemas estelares Kepler-47 y Kepler-35(3), que albergan respectivamente un planeta neptuniano y un mundo océano demostraron que ambos planetas poseen climas muy estables, con variaciones menores al 1% de la media en la temperatura. La razón es que tanto la cubierta de nubes del primero como la gran cantidad de agua del segundo compensan las altas variaciones en radiancia(4) que produce el sistema binario. El problema con estas simulaciones es que estos dos sistemas planetarios son poco representativos de las posibles variaciones en tipo y órbitas en los sistemas binarios.

Por eso los autores de este artículo se decidieron a comprobar qué pasa al maximizar y minimizar dos cantidades fundamentales para entender la variación climática en un planeta en la zona habitable de un sistema binario: el periodo y la magnitud de la radiancia de las estrellas y la inercia térmica del sistema acoplado atmósfera/superficie planetaria, respectivamente. Al maximizar el periodo y magnitud de la irradiancia hasta el límite de sistemas estables, estamos considerando todas las posibles cantidades de energía que el planeta reciba, y al minimizar la inercia térmica del acople atmósfera/superficie, le impedimos al planeta adaptarse con facilidad a los cambios en la energía irradiada que recibe de su sol.

Citando estudios muy recientes, de los años 2016 a 2019, realizados en sistemas binarios con variaciones pequeñas en la irradiancia estelar, la comparan con lo que es posible para un sistema estelar doble que sea estable. Por ello explican que en su investigación emplearon un planeta tipo tierra, recibiendo una irradiación solar similar a la que nosotros recibimos (1.360 W m⁻²) con una serie de pasos que ellos resumen así:

  1. Mediante cálculos analíticos examinaron todas órbitas estables alrededor de sistemas estelares binarios, identificando las que proveen mayor cambio en la incidencia de radiación sobre el planeta.
  2. Con un modelo en 3-D del clima del planeta, identificaron el impacto en el clima del mismo tanto en todo el planeta, como en las regiones que lo formaron y también a lo largo de las estaciones.

El resultado final observado es que en sistemas dinámicos estables, las masas continentales del plante presentan variaciones debido a la presencia de las dos estrellas, pero el clima global es resistente a situaciones catastróficas y la habitabilidad del planeta no se ve comprometida debido a la alta inercia térmica de las masas de agua, lo que impide una variación catastrófica del clima en el planeta.

En las sección siguiente de su trabajo, donde explican los métodos que emplearon, dicen que usaron cuatro tipos de estrellas, con masas que van de 0,15 hasta 1,0 masas solares. Pueden parecer pocas, pero el asunto es que imponer en sistemas estables de estrellas dobles la presencia de planetas orbitando alrededor limita mucho las posibilidades del tamaño de las estrellas, de tal manera que esto es una buena muestra representativa. Esos modelos de estrellas los emplearon con soluciones analíticas sobre la estabilidad de sistemas planetarios en órbita alrededor de estrellas dobles publicados recientemente por otro grupo de trabajo, en el que parte de los autores de esta trabajo estaban presentes.

Ese modelo de la dinámica del planeta lo acoplaron con modelos abiertos de simulación climática planetaria(5), para incorporar las variaciones en radiancia debidas a las variaciones orbitales calculadas de manera analítica con el modelo. Al comentar la física que incluyen en el modelo, dicen que usan un gemelo de la Tierra, y que no consideran los efectos de la radiación al alterar la composición atmosférica. Comentan que si bien la composición química de la atmósfera puede cambiar mucho por la radiación que reciba, sus efectos sobre el clima de la superficie son pequeños, luego para su estudio pueden eliminar esa variabilidad. Siguen después explicando que para poder simular el clima del planeta, emplearon la misma distribución de superficie emergida que la que posee nuestro planeta y un océano de sólo 50m de profundidad, que es suficiente para poder entender el clima a escalas geológicas, el objetivo del estudio.

Viendo la dinámica estelar, comprobaron que debido a que si las masas de las estrellas son muy distintas las órbitas de los planetas que rodean al sistema estelar se hacen muy excéntricas(6) y por lo tanto el planeta no puede girar de manera estable si es del tamaño de la Tierra, la máxima variación de flujo en un sistema binario estable es del 35%. Uniendo todos los parámetros que simularon, en la figura siguiente muestran las variaciones en irradiancia solar para doce casos representativos.

Variación de irradiancia de los sistemas estelares dobles a lo largo del tiempo para doce casos representativos. El caso 1 es un control con un solo sol, como nuestro planeta.Las líneas naranjas representan el flujo recibido por hora, mientras que la línea negra su valor medio cada 30 días. Las variaciones verticales en las líneas naranjas son los eclipses de una estrella sobre otra. Figura 4 del artículo citado.

Como es obvio desde la figura, el caso 7 presenta una variación máxima en la irradiación planetaria. Las fuertes variaciones diarias en la luz del caso 8 se corresponden con un sistema binario con dos estrellas muy juntas, que por lo tanto interfieren en la luz que emiten sobre el planeta. Los casos 2, 3 y 4 presentan estrellas iguales en masa, con el caso 4 marcando la máxima influencia de los eclipses estelares en la irradiancia sobre el planeta.

Como tenían también simulaciones del clima del planeta, pudieron representar la variación de la temperatura en el planeta, sus océanos y la tierra emergida. Los resultados para los mismos 12 casos tipos anteriores forman la siguiente figura:

Temperaturas en los planetas de los 12 casos anteriores. Las líneas rojas son los máximos locales en cualquier punto del planeta, las líneas verdes la media en la zona emergida y la línea en el medio la temperatura media en el océano. Las líneas negras son la media en 30 días y las de colores, como antes, marcan la variación horaria. Figura 5 del artículo citado.

Es notable que el océano apenas cambie su temperatura media, y que incluso en los caos más extremos de variación de irradiación, caso 12, la temperatura del océano se mantenga constante con variaciones del orden de 5 grados máximo. En las zonas emergidas no sucede esto y las variaciones de temperatura pueden ser muy grandes, hasta casi cuarenta grados de diferencia. Es notable que el caso 1, la simulación de un planeta como la Tierra, presenta también variaciones en en la máxima registrada de casi 40º, algo bastante cercano a la realidad.

Como ya habían dicho al principio, todos estos resultados implican que los planetas que se encuentren en zonas habitables(7) de sistemas estelares binarios no están condenados, sino que perfectamente pueden albergar vida. Después empiezan a especular sobre los efectos que las variación que observan tendría sobre la vida en ese planeta, incluyendo la posibilidad de desarrollar vida inteligente. Pero ya me parece que entra demasiado en el reino de la especulación y no lo voy a comentar.

El artículo completo se puede consultar, está abierto, en la dirección: JGR Planets, Vol 129 September 2020.

(1) El artículo de la wikipedia en español sobre la trilogía explica muy bien el argumento central: Wiki:Heliconia.

(2) Las simulaciones 1-D de sistemas tan masivos como planetas se basan en la idea de que es razonable estimar todo el planeta como un conjunto medio de sus características de estudio principales. Por ejemplo, para «simular» la Tierra, bastará con saber la cantidad media de agua, su densidad, la radiancia total emitida por el Sol, etc. Son modelos que pueden llegar a ser útiles en estudios a largo plazo, como este artículo.

(3) Las entradas en la Wikipedia en Español e Inglés lo aclaran más sobre estos sistemas lo aclaran más, pero el segundo planeta, el de Kepler-35, es una sospecha, puesto que no se ha podido localizar: Wiki:Kepler-35, Wiki:Kepler-47.

(4) La radiancia es la cantidad de radiación electromagnética emitida por un cuerpo. En el caso de sistemas estelares, es la cantidad de energía que las estrellas emiten al espacio y que puede llegar a los planetas que orbiten esas estrellas para calentarlos o no.

(5) En concreto, con el modelo ExoCAM alojado en github: Github:Storyofthewolf.

(6) La excentricidad de la órbita es la diferencia entre un círculo perfecto y la órbita real. La de la Tierra es de 0,017. Fuente: Wiki:Excentricidad orbital.

(7) Se define la zona habitable de un sistema estelar como la región alrededor de la estrella o estrellas donde debido al valor de la irradiancia estelar, los planetas pueden tener agua líquida en la superficie. El artículo de la wikipedia en Español está bien: Wiki:Zona de habitabilidad.

Fundación, por Isaac Asimov

Una pistola atómica es un buen arma, pero puede disparar en ambas direcciones

Salvor Hardin, primer alcalde de Términus

Con este libro quiero comenzar una nueva serie de artículos en los que hablo de algunos de los libros que, de alguna manera, han resultado fundamentales en mi vida.

Y para hacer eso, nada mejor que comenzar con el libro «Fundación», de Isaac Asimov. Es el primero de una serie bastante larga, con seis o siete libros de calidad irregular, decayendo bastante en los últimos. Pero este primero…

Narra la historia de un futuro imperio humano que se extiende por la galaxia y que está llegando a su fin debido a fuerzas históricas que impiden su desarrollo o supervivencia. Justo en esos momentos, una de las mentes más brillantes de todos los tiempos, un científico llamado Hary Seldon desarrolla una teoría mecanicista del devenir humano para grandes poblaciones(1) que llama psicohistoria(2). Es decir, logra predecir el comportamiento de grandes grupos de población a lo largo del tiempo, asignándoles diversas probabilidades a acontecimientos futuros. Y se da cuenta de que al imperio galáctico le quedan muy pocos años de vida, no más de treinta antes de derrumbarse. Después de su derrumbe, según sus ecuaciones, habría que esperar un tiempo de 10.000 años para que surja otro nuevo imperio, y pretende reducir este lapso de tiempo en un factor 10 con el establecimiento de una fundación dedicada a la recopilación del conocimiento humano en una gran enciclopedia electrónica(3). El desarrollo del libro es la historia de los primeros años de esta fundación, y como interacciona con los restos cada vez más moribundos y empequeñecidos del imperio galáctico. El libro está estructurado como un conjunto de relatos largos que suceden cada vez que se produce una «crisis Seldon», un conjunto de situaciones sociales, económicas y políticas cuya salida previó Hary Seldon con ayuda de sus ecuaciones. En cada uno de esos relatos, siguiendo la clásica estructura de planteamiento, nudo y desenlace, se presentan primero las condiciones sociales, políticas y económicas que generaron la crisis Seldon, después las personas que las resuelven y los cambios sociales que eso genera.

Aunque así dicho no suene tan interesante, la maestría de Asimov a la hora de plantear personajes, situaciones y aforismos, hace que su lectura sea absorbente, y que te enganche de una manera muy especial el devenir a lo largo de siglos de esta imaginaria galaxia llena de vida humana. Sin desvelar nada de la trama del libro, la inteligencia demostrada por gran parte de los personajes a la hora de enfrentarse a las tensiones sociales que les toca vivir es maravillosa. Escrita en el sencillo estilo tan característico de Asimov, el conjunto de ideas que contiene han inspirado y seguro que inspirarán a varias generaciones de científicos y tecnólogos, además de divertir a un montón de gente.

Después de leerlo, uno no puede evitar pensar en la posibilidad de descripción, más o menos determinista, de un gran conjunto de personas a lo largo del tiempo. No sólo me encantó el libro, sino que sus ideas me han dado incontables horas de pensamiento en torno a temas de historia, sociedad y economía que seguro no sería capaz de ver o pensar de otra manera.


(1) Si bien no existe nada parecido, Asimov dijo que se inspiró en las ideas fundamentales de la física estadística, donde la descripción de cada partícula individual no tiene sentido, sino la suma colectavi de sus movimientos para desarrollar la idea. De todas formas, hoy en día hay científicos estudiando cómo modelizar de manera general la historia humana. Tienen incluso una revista de investigación: Cliodynamics.

(2) No hay que confundirla con la rama de la psicología también llamada psicohistoria. Esta última pretende entender la historia humana desde una perspectiva de la psicología human individual, sin pretender en ningún momento realizar ningún tipo de predicción del futuro. El ariculo de la wikipedia sobre

(3) Si esta definición suena a la de la Wikipedia, eso es porque desde luego la idea tiene resonancias.

Capa de invisibilidad para ondas en el agua

Además de por su propio interés científico, hay razones extra para querer lograr que las ondas en el agua, las olas, desaparezcan en un determinado terreno, que es de lo que trata el artículo que comento aquí. Cuando se hacen puertos y estructuras del estilo, donde los barcos deben atracar, el oleaje que se forme es muy molesto, por eso se suelen poner barreras capaces de minimizar el mismo. Pero si hay olas muy grandes, pasan por encima de las barreras y por lo tanto, los barcos no pueden atracar y los que están atracados se mueven, con todos los riesgos de seguridad que eso conlleva.

Los autores del artículo comienzan en su introducción comentando la importancia de los océanos para la humanidad, dado que los empleamos como rutas de transporte y lugares de alimentación y recreo(1). Y dado que el mar es de todo menos tranquilo, la investigación sobre sistemas de control del oleaje es un campo muy activo de la hidrodinámica. Como comentaba en el párrafo anterior, métodos más habituales de control del oleaje logran su disipación o atenuación, pero no su eliminación. Por eso con los sistemas actuales podemos o bien disminuir la altura de las olas o bien la frecuencia con la que llegan cerca de los puertos, pero no eliminar por completo el oleaje.

Sin embargo, en el campo de ondas electromagnéticas, y gracias al uso de metamateriales(2), el lograr la atenuación de estas ondas en volúmenes muy concretos, o su paso sin perturbar las ondas en sí, ya se ha conseguido en diversas condiciones. Por supuesto, algo así sería muy ventajoso en estructuras humanas cercanas al mar, porque si las olas pasan a través de un volumen determinado sin que se note su presencia, no pueden afectarlo ni a los barcos que contiene. Según el artículo, los problemas principales de estos metamateriales para su aplicación a las ondas marinas son dos. El primero, que las estructuras que hay que hacer son muy complejas, lo que dificulta su replicación en puertos y demás. Además, generalmente su función de invisibilidad o paso de una onda sin verse afectada por ella sólo la cumplen para una longitud de onda, cunado las olas son ondas de muy amplio espectro. Con estos dos inconvenientes, no se podrían emplear las estructuras actuales para su uso con ondas en líquidos.

Comentan después los investigadores que el uso de metamateriales en gradientes planos soluciona algunos de estos problemas: son estructuras que se pueden replicar en el tamaño requerido, relativamente fáciles de montar y que tiene un ancho de banda grande, lo que permitiría que atenuaran un conjunto grande de oleajes. Su uso en óptica está restringido, en el sentido de que más que trasladar la onda sin alterarla, este tipo de gradientes eliminan la amplitud que entre, atenuando muy fuertemente la onda electromagnética. Pero es este el objetivo de los autores con la olas: eliminarlas en una región dada.

Así, los autores adaptaron la tecnología de metamateriales con un gradiente de índice o GIM en inglés(3), para lo que en lugar de usar diversos materiales, emplearon distintas profundidades como generadores de diversos índices de transmisión de las ondas marinas en el agua. Con algo tan sencillo de construir como diversos gradientes de profundidad en el agua, se induce la «invisibilidad» de una zona de la costa a las olas, efectivamente protegiéndola frente a ellas.

La figura siguiente muestra el dispositivo de prueba en un canal:

Como se observa, el gradiente de altura se genera en el comienzo y el final del elemento, mientras que la zona central del mismo es simplemente un paralelogramo plano de longitud L2, anchura t y altura d. Con este sistema, y siguiendo el formalismo de transmisión de ondas que se emplea con las ondas visibles, al pasar por este dispositivo, las ondas marinas «ven» un índice de «refracción» de perfil cambiante en la longitud de propagación n(x).

Estructura de metamaterial con gradiente de profundidad que es capaz de eliminar olas. La figura (a) es un dibujo transversal de algunas dimensionas básicas, la figura (b) muestra el modelo teórico que se empleó y la (c) la realización práctica del mismo. Tomado de la figura 1 del artículo citado.

Es interesante notar que, dado que tenían que trabajar en un canal, las olas las crearon artificialmente con un dispositivo colocado antes del gradiente de alturas.

Como explican con más detalle en el artículo, generalmente las relaciones entre el índice de refracción del material por el que se propaga la onda y la onda en sí genera la dispersión de las ondas, lo que en este caso se traduciría en ondas un poco más pequeñas distribuidas por el canal. Sin entrar en detalles más técnicos, su estructura es capaz de modificar esta relación para permitir que las ondas pasen por el canal fuertemente atenuadas, es decir, en lugar de dispersar las olas, el gradiente de altitud equivalente al GIM deja que la onda se propague atenúandose muy fuertemente, por lo que se evita el problema de las olas.

La siguiente figura muestra el resultado experimental en el canal anterior con ondas de 0,7 Hzs de frecuencia y una altura media del canal de 16 cm:

Eliminación experimental de las ondas para las condiciones vistas arriba. La escala que va de 4 a -4 indica amplitud de la onda, y se observa con claridad como las ondas quedan atenuadas dentro de la zona con el gradiente y después del mismo.Los puntos (b) y (c) son los puntos en los que posteriormente caracterizan la altura de las olas respecto al máximo inicial. Adaptado de la figura 2 del artículo citado.

Antes de iniciar el experimento, simulaciones empelando el método de elementos finitos confirmaron que efectivamente, la geometría del canal anulaba las ondas enviadas. Es fácil ver que después del paso por la zona de gradientes, una cierta parte de las olas se recupera, pero dentro de ese canal, no hay apenas alteraciones de la altura. Sería esa zona la de «invisibilidad» para las olas, donde cualquier objeto situado en ellas no se movería.

Las pequeñas olas que se muestran en los experimentos dentro del canal se deben sobre todo, a efectos no lineales(4) de la viscosidad, que en el modelo analítico que resolvieron de la propagación de las olas, no se tuvieron en cuenta.

Para caracterizar el funcionamiento de este sistema a diversas frecuencias y amplitudes, midieron en los puntos (a), (b) y (c) de la figura anterior la amplitud total de las olas y la dividieron por la máxima a la entrada en el dispositivo, obteniendo una medida directa de la atenuación de las olas en el dispositivo de gradiente variable.

Los datos, que se muestran en la figura siguiente,confirman que para varias longitudes de onda y frecuencias del oleaje artificial el dispositivo funciona, dado que atenúa de manera clara el oleaje.

Disminución de amplitud dentro del gradiente respecto a las olas externas para diversas amplitudes (izquierda) y frecuencias(derecha) de las olas de entrada. El color azul indica que los datos de amplitudes se tomaron en el punto (c) de la imagen anterior, mientras que los rojos en el punto (b). Las estrellas indican valores simulados y los puntos, experimentales. Es fácil ver que para todas las frecuencias y amplitudes medidas, la zona del gradiente atenúa claramente las olas. Adaptado de la figura 3 del artículo citado.

Después de comentar brevemente los resultados de sus experimentos y los límites debidos a los efectos no lineales, concluyen el artículo diciendo que este tipo de gradiente podrían usarse en el diseño y construcción de puertos que permitieran tener aguas tranquilas, casi independientemente de las condiciones del mar.

El artículo salió publicado en la revista Physical Review Letters, en el volumen 123. Su título es: «Broadband Waveguide Cloak for Water Waves»

Notas:

(1) Como ejemplo, en el año 2011 en los Estados Unidos, el 53% de las importaciones y el 38% de las exportaciones entraron por mar, mientras que en el conjunto de la Unión Europea, cerca del 45% de las exportaciones y el 55% de la importaciones ase realizaron por transporte marítimo. Fuentes: EEUU: Bureu of Transportation Statistics. UE: Eurostat.

(2) Los metamateriales son objetos artificiales estructurados diseñados con sus propiedades finales en mente, formados por conjunto de materiales muy diferentes entre si. Es decir, la mayoría de los materiales que se emplean por los seres humanos tiene algunas propiedades deseables y otras no tanto, con las que hay que lidiar de la mejor manera posible. Con los metamateriales, se diseña desde el principio las características que se desean. Una explicación muy buena está en la Wikipedia en inglés: Wiki:Metamaterial.

(3) Metamateriales con gradiente de índice son materiales cuya estructura les causa tener un índice de refracción que varía de forma contínua en el espacio del metamaterial. Como el índice de refracción controla como se propaga la luz para todas las frecuencias, al variar el índice de refracción, se varía la transmisión de la onda electromagnética de la luz. Así se logra «atrapar» la luz en zonas específicas o alterar su transmisión a través de una fibra óptica.

(4) No linealidad: Generalmente, cundo un fenómeno físico tiene que representarse con funciones que no pueden ser aproximadas por una recta, su uso y predicción se vuelve mucho más complicado porque pequeños cambios en los valores llevan a grandes efectos, difíciles de computar o calcular.