Nueva forma de tratar el Parkinson: generando nuevas células

El Parkinson es una enfermedad degenerativa en la que el paciente va perdiendo progresivamente control sobre su respuesta consciente muscular debido a pérdidas de neuronas en una zona fundamental, la llamada «substancia nigra».

Pues bien, un grupo de investigadores han logrado revertir la enfermedad en ratones empleados como modelos de la enfermedad mediante la regeneración de neuronas propias en los animales empleados en el experimento.

Comienzan el artículo comentando que la medicina regenerativa supone un cambio muy fuerte en el tratamiento de muchas enfermedades, que hasta ahora solo podían paliarse o retrasarse, pero que quizás puedan incluso revertirse si logramos activar el cuerpo para que se auto-repare de manera eficiente, como hace cuando no estamos enfermos.

Comentan que los métodos habituales de inducción de cambios neuronales son específicos para cada especie, pero que su grupo de investigación encontró unas proteínas, que en las neuronas se llaman nPTB y en general se denominan PTB, que inducen la diferenciación de neuronas. Además, es un ciclo de retroalimentación virtuoso porque una vez que esta proteína disminuye y comienza la producción de neuronas, su cantidad sigue disminuyendo.

Los investigadores emplearon esta proteína para generar neuronas en ratones modelo de la enfermedad desde los astrocitos(1) que sustentan al sistema nervioso, un logro que podría extenderse a seres humanos.

En la siguiente sección del artículo explican con gran detalle el sistema por el cual la reducción de esta proteína nPTB logra transformar los astrocitos en neuronas viables. También confirman su viabilidad tanto en células humanas como de ratones, por lo que están seguros que el uso de esta proteína es posible en personas. Además, explican que el uso de astrocitos como células precursoras tiene la enorme ventaja de su abundancia, plasticidad y posibilidad de cambio de número de manera natural.

En la siguiente sección muestran una confirmación del cambio de astrocitos en neuronas cuando se elimina la expresión de la proteína PTB. Como indica la figura de abajo, obtenida de muestras de tejido del cerebro de los animales, los resultados son muy claros: se han transformado casi todos los astrocitos en neuronas sin ningún problema. Además, son neuronas funcionales, puesto que determinados genes de las células que se activan en neuronas aparecieron en las muestras, mientras que los genes expresados(2) típicamente por los astrocitos dejaron de observarse.

Conversión de astrocitos en neuronas por la alteración de la proteína PTB en ratones observada in vitro (shPTB) que no se observa cuando el virus no silencia a PTB (shCtrl). La gráfica de la derecha señala el porcentaje de células que muestran el cambio. De la figura 2 del artículo citado.

Posteriormente, intentaron hacer lo mismo, pero en células de animales vivos. Utilizaron la misma técnica: el empleo de un virus para alterar el comportamiento de las células de la manera deseada. Y tuvieron éxito, como se indica en la figura de abajo, donde se observan la aparición de marcadores que muestran no sólo la aparición de neuronas, sino también su funcionamiento correcto.

En los paneles de arriba en fluorescencia verde se marcan las neuronas y en rojo las células que han sido infectadas por el virus. En las gráficas de abajo se observa como la expresión de los marcadores propios de neuronas a lo largo del tiempo aumenta, indicando claramente que el número de neuronas también. De la figura 2 del artículo citado.

Tras comprobar que podían generar neuronas viables en el interior del cerebro de los ratones, también observaron que su evolución en el tiempo, su maduración, era la correcta.

Estudiaron también la localización de las neuronas producidas y si se producían neuronas en lugares distintos de los que debían, comprobando que no, que realmente las neuronas se localizaban en las regiones correctas.

Posteriormente comprobaron el crecimiento de nuevas fibras en las neuronas producidas, para ver si todo era normal y las nuevas células se integraban en las «substancia nigra» que las rodeaba. Los resultados fueron muy positivos, puesto que se observó el crecimiento de las fibras y la integración de las neuronas dentro de este lugar anatómico.

Dado que hasta ahora habían logrado generar neuronas en ratones, su paso siguiente fue comprobar si podían regenerar neuronas perdidas en ratones modelos de enfermedad. Para ello, inyectaron primero en ratones sanos una sustancia que produce un daño similar al Párkinson en un aspecto fundamental: la destrucción neuronal que produce. Comprobaron que tras emplear su técnica, se produjo un aumento de neuronas en las zonas dañadas, que repararon parte del daño. Para asegurar que estas nuevas células producían dopamina(3), cuantificaron su producción antes y después de la aparición de estas nuevas células y pudieron observar su aumento. De hecho, pudieron observar también un aumento de la dopamina producida por las neuronas en su funcionamiento normal, lo que confirmaba que las nuevas células estaban cumpliendo su función.

Otra comprobación que realizaron fue observar si los ratones tratados recuperaron habilidades motoras, el objetivo fundamental de este tratamiento. Y los resultados fueron, de nuevo, muy positivos. Todos los ratones tratados mejoraron de manera clara como respuesta al tratamiento. Sin embargo, observaron que los ratones más mayores respondían peor a la misma. Atribuyeron este problema a su envejecimiento natural, que disminuye la plasticidad natural de las neuronas. Los autores comentan que de cara a un futuro tratamiento aplicable a seres humanos, este hecho podría ser un problema, dado que son justamente las personas más mayores las que más suelen tener esta enfermedad.

Las dos secciones siguientes antes de las conclusiones caracterizan las nuevas neuronas generadas y detalles técnicos sobre el método que no voy a reseñar.

En las conclusiones finales, explican que presentan un método para transformar astrocitos en neuronas de un solo paso basado en el programa de diferenciación neuronal que poseen los astrocitos pero que generalmente no expresan, «obligando» esa expresión mediante virus modificados para ello. Con este método son capaces de mostrar regeneración neuronal y restauración de funciones motoras en ratones modelo empleados generalmente para probar nuevos tratamientos de esta enfermedad.

Comentan que para poder aplicar esta estrategia en seres humanos, primero se tienen que solucionar dos obstáculos clave: la posible producción de neuronas en lugares no deseados, y el efecto adverso sobre la creación de neuronas debido a la mayor edad de alguno de los ratones.

Si se pueden llegar a eliminar parte de estos problemas, el potencial terapéutico de este sistema es impresionante. El tiempo dirá si se puede trasladar a seres humanos.

El artículo apareció en la revista Nature, en el volumen 582: Reversing a model of Parkinson’s disease with in situ converted nigral neurons.

(1)Los astrocitos son las células que forman parte del sistema de soporte y protección de todo el sistema nervioso central. El artículo de la Wikipedia sobre ellos es bastante comprensible: Wiki:Astrocitos.

(2) La expresión de los genes de una célula es la transcripción y traducción a proteínas para realizar la función de esa célula. Así, exceptuando las funciones comunes a todas las células, la expresión de los genes es individual para cada tipo de célula, permitiendo diferenciarlas en función de las proteínas que se observan a su alrededor. El artículo de la Wikipedia no es muy difícil de entender: Wiki:Expresión génica.

(3) La dopamina es el neurotransmisor que fundamentalmente se pierde por el daño cerebral debido al Parkinson. De hecho, varios tratamientos actuales consisten en la introducción de dopamina en el cuerpo con la intención de, al menos, ralentizar los peores síntomas de la enfermedad a través de la L-dopa.

La extinción de animales no es un proceso uniforme

Que la cantidad de especies, y el numero individual, de animales en el mundo está declinando parece ser un hecho incontestable. Pero la cuestión, importantísima tanto para la conservación de los animales como la nuestra propia, es si todos los animales, independientemente de tipo o forma decaen de la misma forma. Un reciente artículo publicado en Nature demuestra que no y que hay diferencias muy importantes según el tipo y especie de animal que observemos.

El artículo comienza con una afirmación obvia: se están produciendo cambios muy rápidos en todo el mundo en las poblaciones de animales salvajes. Generalmente, para poder estimar el número de especies que hay en la Tierra, se emplean números únicos, como el Living Planet Index(1). Este sistema tiene problemas estadísticos, que llevan a una imagen distorsionada de la realidad.

De hecho, como señala el artículo, el mayor problema es que incluso bases de datos serias no coinciden en sus resultados, con algunas indicando caídas muy serias del número de especies, el Living Planet Index indica una caída del 50% en el número de especies desde los años 70, mientras que otras bases de datos muestran una cierta estabilidad.

Los autores del artículo indican que un punto crucial es que usar un sólo número calculado como media geométrica(2) puede estar muy influenciado por lo extremos de los números que estemos usando. Como ilustración de la influencia de los extremos, enseñan el ejemplo de un ecosistema en el que una sola población declina un 99%. Incluso si el resto de poblaciones del mismo aumentan o se mantiene estables, la media geométrica indicará una caída del 50% en el total de especies, que claramente no es cierto. Por supuesto, este valor de la caída del 50% puede deberse también a una caída homogénea en el número de especies. Pero hay que distinguir entre ambas posibilidades, porque las dos conducen a la misma media.

Así, los autores del artículo plantean dos posibilidades: una que llaman «extinción catastrófica», donde todas las poblaciones reducen su número de una manera similar, o la «extinción agrupada»(3), donde grupos específicos de animales reducen su número de manera muy fuerte, mientras el resto de los animales apenas varían. Ambas formas de extinción de animales son malas y es importante evitarlas y luchar contra ellas, pero los métodos para evitarlas son completamente diferentes. Y dada la situación actual del mundo, es de vital importancia distinguir entre ellas. Los autores del artículo comprueban que los datos disponibles indican que el proceso actual de especies tiene lugar de manera agrupada.

Para señalar la importancia de las extinciones agrupadas en el proceso actual, en la figura siguiente excluye algunos grupos de animales, aquellos que han reducido su número más rápidamente, para calcular de nuevo el Living Planet Index. El resultado es que el conjunto de los animales se mantiene constante. Es decir, excepto por un grupo de especies muy concreto que reduce su número, el resto de los animales no se están extinguiendo: se está produciendo un fenómeno de extinción agrupada.

Evolución del Living Planet Index en el tiempo excluyendo las especies que más han disminuido. Fíjense que el máximo de poblaciones reducidas, 356, es aproximadamente un 2% del total de poblaciones muestreadas. (Figura 2 del artículo citado.)

El siguiente paso es comprobar si es verdad que la extinción se produce en grupos, comprobando diversos grupos de animales en en el mundo. Los datos obtenidos son muy claros, y están representados en una gráfica de una calidad extraordinaria, que en el texto original es su figura 3 y aquí he dividido en tres, según dónde vivan los animales.

Grupos de animales terrestres y su variación en el tiempo. Amarillo, sin variación significativa, naranja, con una reducción no significativa estadísticamente, azul, con un aumento del mismo tipo, verde, que han aumentado su número y rojo, disminución dramática. Los asteriscos rojo y azules indican disminuciones y aumentos extremos de grupos de animales, respectivamente.

Como se puede ver, para los animales que viven en tierra, hay disminuciones claras en varias regiones, pero muy preocupantes sólo en la región cercana a Australia y en las disminuciones agrupadas de mamíferos y reptiles en el continente americano.

Esta figura contiene la misma información que el anterior, pero para especies animales que viven cerca de los ríos (o dentro de ellos). El código de colores es el mismo que en la figura anterior.

Para especies anfibias, la situación es similar, estando la situación mucho peor en la región cercana a Australia, mientras que en el resto del planeta sólo algunos grupos de animales han disminuido mucho en los últimos años.

Aquí se observa la situación para los animales marinos en los océanos del mundo.

En la figura superior se indica que la situación en los océanos del mundo es algo paradójica: mientras los mamíferos acuáticos como ballenas y demás han aumentado su número(afortunadamente), gran cantidad de peces y aves tienen disminuciones muy fuertes de grupos específicos de sus componentes.

Al ver todos estos datos juntos, parece claro que la región del mundo donde deben hacerse más esfuerzos de conservación es la zona cercana a Australia, porque hay un riesgo más fuerte de pérdida total de la red trófica.

A modo de análisis final, el artículo comenta que han podido demostrar que la extinción actual se produce en grupos de animales, lo que es consistente con la llamada «degradación trófica»(4). Y es muy preocupante: dado que se observa una extinción agrupada en especies que seguramente sean llave en su ambiente, eso quiere decir que ese ecosistema es cada vez más frágil. Por otra parte, en su análisis han podido comprobar que se observan extinciones más grandes en el grupo de los animales de pequeño tamaño, que en principio es contraintuitivo. Además, excluyeron la influencia de cortos periodos de tiempo en la medida de la extinción de aquellos animales que disminuyeron de manera muy grande.

Como conclusiones, los autores del artículo se quedan con dos ideas. La primera es que sus resultados indican que hay una falta de uniformidad clara en las extinciones de animales. Es decir, hay especies que han aumentado su número, mientras otras han disminuido muy claramente. La otra es que habida cuenta de que determinadas especies han incluso aumentado su número, los esfuerzos de conservación y nuestras acciones funcionan claramente: podemos revertir el daño que hacemos, estamos a tiempo.

El artículo se publicó en la revista Nature, en el volumen 588: Nature, Vol 588

(1) Living Planet Index es una medida de la organización Adena que estima la abundancia de vertebrados en el mundo. Usa los vertebrados por ser uno de los grupos de animales más fáciles de ver y contar, que al estar generalmente en lo alto de las cadenas alimentarias, son muy dependientes de toda la red de animales. Declinan con facilidad si los más bajos desaparecen o tiene problemas. Su web es: Living Planet Index.

(2) La media geométrica es distinta de la media aritmética, más frecuente. La media aritmética es la suma de los números de los que se desea hacer la media, dividida por el total de números. La media geométrica es la raíz n-ésima del producto de los n números que queramos usar.En la Wikipedia en español: Wiki: Media geométrica.

(3) Las traducciones son mías. En el artículo original habla de «catastrophic decline» y de «clustered decline».

(4) La «degradación trófica» es la hipótesis de que una cadena trófica pierde posibilidades de regenerarse y funcionar bien cuando un grupo pequeño, pero muy importante, de sus miembros se extingue.

La bicicleta puede salvar vidas del SIDA.

Un artículo reciente en la revisa «The Lancet» me llamó la atención por hacer caso de algo que en el mundo privilegiado damos por supuesto: el tener que viajar sin ser a pie para poder recibir atención médica es un problema añadido al tratamiento de varias enfermedades, entre ellas el SIDA.

Centrándose en el caso de Malaui(1), los autores del artículo han desarrollado un modelo que les permite afirmar que una acción tan poco relacionada, aparentemente, con la salud como proporcionar bicicletas a habitantes de zonas rurales puede aumentar de manera notable el porcentaje de población que el sistema nacional de salud es capaz de cubrir. Para comprobarlo, emplearon un modelo usando datos reales de fotografías de satélite y sistemas similares en el que estimaron el tiempo que le llevaba llegar al dispensario más próximo a la población del país.

Comienza la introducción diciendo que la agencia de las Naciones Unidas para el tratamiento del SIDA, UNAIDS, tiene el ambicioso objetivo de acabar con la epidemia descontrolada actual en el año 2030(2). Para ello, sistemas de salud ya bastante endebles deben ser capaces de llegar a más gente y en mejores condiciones. Hay esperanza en que este objetivo se pueda lograr: varios de los países que la agencia escogió como blanco principal para ayudar, han conseguido niveles de tratamiento de la población por encima del 70%, incluido Malaui.

La situación de este último país es asombrosa, cuando se le ponen números como hace el artículo: el 40% de su población vive debajo del umbral de la pobreza, tiene sólo 4 ciudades y en las zonas rurales, solo sobre el 2% de la población tiene un medio de transporte motorizado. De hecho, menos del 10% de las personas viviendo en el rural poseen una bicicleta. Así, en algunas zonas rurales, la ambulancia es una bibicleta.

Continúa el artículo describiendo la administración del sistema de salud y termina con otro dato: aproximadamente el 45% de la población vive a más de 5 km del centro de salud, del tipo que sea, más cercano. Por ello, en este artículo quisieron comprobar la influencia del tiempo de transporte hasta el centro de salud en la eficacia de los tratamientos.

Según comentan en la sección siguiente, que dedican a los métodos empleados, los datos geoespaciales fueron procesados con el programa AccesMod(3), de forma obtuvieron varios mapas.

Pero antes de hablar de tiempo de desplazamiento, observaron que la prevalencia del SIDA en el país es muy poco uniforme espacialmente, concentrándose en las zonas donde hay más población, algo lógico. La figura siguiente lo ilustra muy bien.

Porcentaje de población con SIDA en Malui. Las zonas con mayor porcentaje de población se corresponden con las cuatro ciudades y las costas de los lagos, las de mayor densidad de población.
De la figura 3.A del artículo citado.

Sabiendo cómo se distribuye el porcentaje de población enferma, con el programa antes mencionado construyeron un mapa de cuánto tiempo llevaría a una persona llegar al centro de salud según el medio de transporte, de tal forma que se alcanzaría el 90% de la población cubierta por el sistema de salud a menos de 90 minutos de viaje, sólo si se empleara la bicicleta, como demuestra la gráfica siguiente.

Porcentaje de población cubierta por el sistema de salud en Malaui en función del tiempo de viaje hasta el centro usando diversos sistemas de transporte. De la figura 4.D del artículo citado.

Como se puede observar, para que el 90% de la población pueda acudir en un tiempo razonable, sólo el uso combinado de bicicleta y andar puede garantizar que el tiempo empleado sea algo razonable. Unos 110 minutos de viaje quiere decir que ir y volver lleva unas 3,7 horas, es decir, una mañana. Se pretende conseguir ese mismo porcentaje de población andando, el tiempo de ida y vuelta se transforma en 4,3 horas. Parece poco, pero media hora más implica que la ida y vuelta no se pueda hacer en la mañana y sea necesario usar casi todo el día para el viaje. Y si tienes que trabajar cada día para comer, es posible que sea un lujo que no te puedes permitir. La diferencia es mucho más acusada si lo que se pretende es que el 70% de la población esté cubierta: entonces, la diferencia entre tener o no una bicicleta es el doble de tiempo.

Esta sección del artículo finaliza con las conclusiones obvias que se pueden extraer de esta figura: diciendo que si se pretende obtener un 90% de cobertura sanitaria, es necesario ofrecer bicicletas u otro medio de transporte alternativo a la población rural para que pueda desplazarse a los centros médicos para recibir tratamiento. Dado que la cobertura actual de porcentaje de población con tratamiento es del 70%, es obvio que conseguir el 20% restante necesitará, como mínimo, tener en cuenta el tiempo que lleva al enfermo llegar al centro de salud.

La sección final del artículo es un resumen de todo lo comentado aquí, con un acento en las implicaciones para las políticas públicas de Malaui, y países similares, que tiene el tener o no acceso relativamente rápido a centros de salud.

El artículo se publicó en la revista médica Lancet, en su volumen 8 y su acceso es público: Lancet, Vol.8, ISSUE 12, e1555-e1564, December 01, 2020.

(1) Malaui, «Malawi» en Inglés, es un país africano que está situado en el sureste del país. El artículo de la Wikipedia en español es muy completo: Wiki:Malaui

(2) De nuevo, le vivir en un país privilegiado no debe hacernos perder de vista que la situación de esta enfermedad en muchos países es muy mala, como este enlace con datos sobre la pandemia en el mundo recuerda: UNAIDS: Datos sobre le SIDA en el mundo.

(3) El programa AccessMod es cpaz de modelar el acceso de la población a atención médica. Su página web es: AccesssMod.

Influencia de la Luna y el Sol en el movimiento de las plantas.

Se supone que la influencia gravitatoria combinada del Sol y la Luna puede producir movimientos en la plantas, pero hasta ahora no se ha podido cuantificar ni entender el mecanismo subyacente, más allá de estimar que será un efecto de cambios en la gravedad de la superficie debido a la rotación de la Tierra. El artículo que comento precisamente demuestra, mediante datos obtenidos de experimentos previos realizados en la estación espacial y modelos analíticos, que la influencia de estos dos astros en el movimiento de las plantas se puede entender gracias a las inestabilidades de Rayleigh-Taylor debidas a cambios en la gravedad por al rotación en el sistema circulatorio de la planta.

Comienza la introducción del artículo diciendo que esta influencia gravitatoria sobre el movimiento de las planta está muy cuestionada, incluso hay quien la niega o considera que es sobre todo, un ritmo circadiano(1) esencialmente controlado por la luz u otro factor. Pero en este artículo demuestra la influencia del Sol y la Luna en los movimientos de las plantas, usando datos recabados del movimiento de plantas en la estación espacial como caso especial.

Para empezar, señala en la introducción que los movimientos de las plantas en la Tierra siguen un periodo de 24,8 horas, mientras que algunas plantas que se subieron a la estación espacial tenían un periodo de 45 minutos, cuando la rotación de la estación es de 90. Comentan que está demostrado que las modulaciones del campo gravitatorio de la Tierra debido a la acción del Sol y la Luna se ha demostrado que influye en el crecimiento de las plantas, y que puede llegar a ser percibido por otros seres vivos.

Para tratar de entender bien estos efectos, el autor del artículo desarrolló unos modelos simplificados del sistema circulatorio del las plantas, tubos microscópicos y de tamaño milimétrico, mesoscópicos, que contenían savia y un gas. En el artículo no lo especifica, pero tiene sentido que el gas sea aire atmosférico.

Para que la gravedad y la separación entre el líquido, la savia, y el gas pudiera tenerse en cuenta, estudió los tubos en horizontal y en vertical. Los tubos en horizontal serían equivalentes a las raíces de las plantas y los tubos en vertical, a los tallos.

Cuando los tubos están en horizontal, las raíces, debido al pequeño tamaño de los tubos empleados, la savia ocupa toda la superficie de los mismos, dejando el gas en el centro, de tal forma que hay una interfaz líquido-gas de simetría radial. En los tubos que hacen de tallos, debido a una ley denominada en el artículo como ley de Jurin(2) que relaciona la altura de un líquido por un tubo fino con su diámetro, se termina formando una interfaz líquido-gas en el punto de máxima altura de la savia.

Ambas interfaces líquido-gas se pueden estudiar como un caso especial de la inestabilidad de Rayleigh-Taylor, que el artículo afirma permite predecir, y demostrar con los datos experimentales de la estación espacial, la frecuencia de movimiento de las plantas, dado que el efecto más importante es el de la gravedad del Sol y la Luna a través de resonancias paramétricas asociadas con la variación de la gravedad.

Sigue el artículo con una sección que dedica a la estabilidad de las superficies líquido-gas en los tubos. Concretamente, plantea un modelo que permite definir las variaciones en la interfaz entre savia y gas para los tubos horizontales, despreciando los efectos a segundo orden y considerando que los dos fluidos son incompresibles y los efectos de la viscosidad despreciables. El resultado final es que las variaciones en esa interfaz líquido-gas tienen una frecuencia que se puede deducir de la ecuación que relaciona la diferencia de presiones entre líquidos y gas(3).

De esta ecuación se puede obtener una relación entre frecuencia de perturbaciones y magnitudes materiales del líquido y gas, densidad y viscosidad, que emplea en la sección siguiente para dar valores numéricos a las características de los fluidos, además de considerar qué fórmulas y modelos pueden emplearse según los tubos estén en horizontal o vertical en la Tierra o en al estación espacial.

En las dos secciones siguientes estudia las variaciones del valor de la gravedad en la Tierra y la estación espacial, dándole un valor numérico a la oscilación, que es pequeñísima, del orden de 1/ 8 000 000 en la Tierra.

En la sección siguiente comienza con una muy breve introducción a la ecuación de Mathieu, una ecuación diferencial que aparece con muchísima frecuencia en el estudio de la estabilidad de sistemas con cambios oscilatorios en algunas magnitudes. Luego, aplica las relaciones y formas anteriores a las resonancias que provoca la gravedad de la Luna y el Sol tanto en la Tierra como en la estación espacial en el valor de la frecuencia que aparecía en la ecuación de la diferencia de presiones de la interfaz. Así, logra demostrar que estas oscilaciones periódicas tienen las mismas frecuencias observadas en los movimientos de las plantas en los dos lugares, al comprobar como el periodo de las mismas coincide con el predicho según esta teoría de la inestabilidad de Rayleigh-Taylor, demostrando la influencia de la gravedad en los movimientos de las plantas.

Es enormemente curioso que los movimientos de las plantas tengan una relación tan estrecha con las oscilaciones tan pequeñas en la gravedad debidas a la Luna y el Sol, en función de la rotación terrestre. Mi corazoncito ciencaficcionero no puede por menos que notar que en otros planetas, con ciclos de rotación diferentes, estos movimientos de las plantas también serán muy distintos.

El artículo salió publicado en la revista Physics of Fluids, volumen 32: Phys. of Fluids. DOI:10.1063/5.0023717

(1) Ritmo circadiano: es el ritmo interno de las diversas variables que se midan en un ser vivo, desde composiciones químicas hasta periodos de actividad, asociadas a cambios externos. El enlace de la wikipedia en español es bastante ilustrativo: Wiki: Ritmo Circadiano

(2) James Jurin: Un médico londinense que efectuó estudios estadísticos muy importantes sobre la viruela, además de estudiar el efecto de la capilaridad en los líquidos. El artículo de la wikipedia en español es bastante bueno: Wiki: James Jurin

(3) No puedo poner bien la ecuación porque el sistema que empleo para escribir no tiene editor de ecuaciones. Malamente, la ecuación tiene la forma: d(p²)/dt^2 + w*p =0. Donde p es la diferencia de presiones y w la frecuencia.

Estabilidad climática de planetas orbitando sistemas de estrellas dobles

En la ciencia ficción es muy frecuente el uso de planetas que orbitan estrellas dobles, tanto en el cine, todo el mundo recuerda los dobles soles sobre Tatooine, como en las novelas. Por ejemplo, un caso extremo donde largas variaciones climáticas juegan un papel fundamental en la trama es la trilogía de Heliconia escrita por Brian W. Aldiss(1). Pero ¿hasta qué punto es esto posible?

En un reciente artículo en la revista «Journal of Geophysical Research: Planets», un grupo de investigadores decidieron encarar la cuestión. Comienzan en la introducción comentando que tanto por simulaciones sobre dinámicas planetarias y de estrellas, como por elementos observacionales, la cantidad de sistemas dobles es grande, son sistemas comunes en el Universo.

Sigue explicando que trabajos previos consideraron el clima y la habitabilidad de planetas orbitando este tipo de sistemas binarios, usando simulaciones 1-D y 3-D(2). De hecho, en las simulaciones de los sistemas binarios en 3-D realizadas para planetas similares a los sistemas estelares Kepler-47 y Kepler-35(3), que albergan respectivamente un planeta neptuniano y un mundo océano demostraron que ambos planetas poseen climas muy estables, con variaciones menores al 1% de la media en la temperatura. La razón es que tanto la cubierta de nubes del primero como la gran cantidad de agua del segundo compensan las altas variaciones en radiancia(4) que produce el sistema binario. El problema con estas simulaciones es que estos dos sistemas planetarios son poco representativos de las posibles variaciones en tipo y órbitas en los sistemas binarios.

Por eso los autores de este artículo se decidieron a comprobar qué pasa al maximizar y minimizar dos cantidades fundamentales para entender la variación climática en un planeta en la zona habitable de un sistema binario: el periodo y la magnitud de la radiancia de las estrellas y la inercia térmica del sistema acoplado atmósfera/superficie planetaria, respectivamente. Al maximizar el periodo y magnitud de la irradiancia hasta el límite de sistemas estables, estamos considerando todas las posibles cantidades de energía que el planeta reciba, y al minimizar la inercia térmica del acople atmósfera/superficie, le impedimos al planeta adaptarse con facilidad a los cambios en la energía irradiada que recibe de su sol.

Citando estudios muy recientes, de los años 2016 a 2019, realizados en sistemas binarios con variaciones pequeñas en la irradiancia estelar, la comparan con lo que es posible para un sistema estelar doble que sea estable. Por ello explican que en su investigación emplearon un planeta tipo tierra, recibiendo una irradiación solar similar a la que nosotros recibimos (1.360 W m⁻²) con una serie de pasos que ellos resumen así:

  1. Mediante cálculos analíticos examinaron todas órbitas estables alrededor de sistemas estelares binarios, identificando las que proveen mayor cambio en la incidencia de radiación sobre el planeta.
  2. Con un modelo en 3-D del clima del planeta, identificaron el impacto en el clima del mismo tanto en todo el planeta, como en las regiones que lo formaron y también a lo largo de las estaciones.

El resultado final observado es que en sistemas dinámicos estables, las masas continentales del plante presentan variaciones debido a la presencia de las dos estrellas, pero el clima global es resistente a situaciones catastróficas y la habitabilidad del planeta no se ve comprometida debido a la alta inercia térmica de las masas de agua, lo que impide una variación catastrófica del clima en el planeta.

En las sección siguiente de su trabajo, donde explican los métodos que emplearon, dicen que usaron cuatro tipos de estrellas, con masas que van de 0,15 hasta 1,0 masas solares. Pueden parecer pocas, pero el asunto es que imponer en sistemas estables de estrellas dobles la presencia de planetas orbitando alrededor limita mucho las posibilidades del tamaño de las estrellas, de tal manera que esto es una buena muestra representativa. Esos modelos de estrellas los emplearon con soluciones analíticas sobre la estabilidad de sistemas planetarios en órbita alrededor de estrellas dobles publicados recientemente por otro grupo de trabajo, en el que parte de los autores de esta trabajo estaban presentes.

Ese modelo de la dinámica del planeta lo acoplaron con modelos abiertos de simulación climática planetaria(5), para incorporar las variaciones en radiancia debidas a las variaciones orbitales calculadas de manera analítica con el modelo. Al comentar la física que incluyen en el modelo, dicen que usan un gemelo de la Tierra, y que no consideran los efectos de la radiación al alterar la composición atmosférica. Comentan que si bien la composición química de la atmósfera puede cambiar mucho por la radiación que reciba, sus efectos sobre el clima de la superficie son pequeños, luego para su estudio pueden eliminar esa variabilidad. Siguen después explicando que para poder simular el clima del planeta, emplearon la misma distribución de superficie emergida que la que posee nuestro planeta y un océano de sólo 50m de profundidad, que es suficiente para poder entender el clima a escalas geológicas, el objetivo del estudio.

Viendo la dinámica estelar, comprobaron que debido a que si las masas de las estrellas son muy distintas las órbitas de los planetas que rodean al sistema estelar se hacen muy excéntricas(6) y por lo tanto el planeta no puede girar de manera estable si es del tamaño de la Tierra, la máxima variación de flujo en un sistema binario estable es del 35%. Uniendo todos los parámetros que simularon, en la figura siguiente muestran las variaciones en irradiancia solar para doce casos representativos.

Variación de irradiancia de los sistemas estelares dobles a lo largo del tiempo para doce casos representativos. El caso 1 es un control con un solo sol, como nuestro planeta.Las líneas naranjas representan el flujo recibido por hora, mientras que la línea negra su valor medio cada 30 días. Las variaciones verticales en las líneas naranjas son los eclipses de una estrella sobre otra. Figura 4 del artículo citado.

Como es obvio desde la figura, el caso 7 presenta una variación máxima en la irradiación planetaria. Las fuertes variaciones diarias en la luz del caso 8 se corresponden con un sistema binario con dos estrellas muy juntas, que por lo tanto interfieren en la luz que emiten sobre el planeta. Los casos 2, 3 y 4 presentan estrellas iguales en masa, con el caso 4 marcando la máxima influencia de los eclipses estelares en la irradiancia sobre el planeta.

Como tenían también simulaciones del clima del planeta, pudieron representar la variación de la temperatura en el planeta, sus océanos y la tierra emergida. Los resultados para los mismos 12 casos tipos anteriores forman la siguiente figura:

Temperaturas en los planetas de los 12 casos anteriores. Las líneas rojas son los máximos locales en cualquier punto del planeta, las líneas verdes la media en la zona emergida y la línea en el medio la temperatura media en el océano. Las líneas negras son la media en 30 días y las de colores, como antes, marcan la variación horaria. Figura 5 del artículo citado.

Es notable que el océano apenas cambie su temperatura media, y que incluso en los caos más extremos de variación de irradiación, caso 12, la temperatura del océano se mantenga constante con variaciones del orden de 5 grados máximo. En las zonas emergidas no sucede esto y las variaciones de temperatura pueden ser muy grandes, hasta casi cuarenta grados de diferencia. Es notable que el caso 1, la simulación de un planeta como la Tierra, presenta también variaciones en en la máxima registrada de casi 40º, algo bastante cercano a la realidad.

Como ya habían dicho al principio, todos estos resultados implican que los planetas que se encuentren en zonas habitables(7) de sistemas estelares binarios no están condenados, sino que perfectamente pueden albergar vida. Después empiezan a especular sobre los efectos que las variación que observan tendría sobre la vida en ese planeta, incluyendo la posibilidad de desarrollar vida inteligente. Pero ya me parece que entra demasiado en el reino de la especulación y no lo voy a comentar.

El artículo completo se puede consultar, está abierto, en la dirección: JGR Planets, Vol 129 September 2020.

(1) El artículo de la wikipedia en español sobre la trilogía explica muy bien el argumento central: Wiki:Heliconia.

(2) Las simulaciones 1-D de sistemas tan masivos como planetas se basan en la idea de que es razonable estimar todo el planeta como un conjunto medio de sus características de estudio principales. Por ejemplo, para «simular» la Tierra, bastará con saber la cantidad media de agua, su densidad, la radiancia total emitida por el Sol, etc. Son modelos que pueden llegar a ser útiles en estudios a largo plazo, como este artículo.

(3) Las entradas en la Wikipedia en Español e Inglés lo aclaran más sobre estos sistemas lo aclaran más, pero el segundo planeta, el de Kepler-35, es una sospecha, puesto que no se ha podido localizar: Wiki:Kepler-35, Wiki:Kepler-47.

(4) La radiancia es la cantidad de radiación electromagnética emitida por un cuerpo. En el caso de sistemas estelares, es la cantidad de energía que las estrellas emiten al espacio y que puede llegar a los planetas que orbiten esas estrellas para calentarlos o no.

(5) En concreto, con el modelo ExoCAM alojado en github: Github:Storyofthewolf.

(6) La excentricidad de la órbita es la diferencia entre un círculo perfecto y la órbita real. La de la Tierra es de 0,017. Fuente: Wiki:Excentricidad orbital.

(7) Se define la zona habitable de un sistema estelar como la región alrededor de la estrella o estrellas donde debido al valor de la irradiancia estelar, los planetas pueden tener agua líquida en la superficie. El artículo de la wikipedia en Español está bien: Wiki:Zona de habitabilidad.

Capa de invisibilidad para ondas en el agua

Además de por su propio interés científico, hay razones extra para querer lograr que las ondas en el agua, las olas, desaparezcan en un determinado terreno, que es de lo que trata el artículo que comento aquí. Cuando se hacen puertos y estructuras del estilo, donde los barcos deben atracar, el oleaje que se forme es muy molesto, por eso se suelen poner barreras capaces de minimizar el mismo. Pero si hay olas muy grandes, pasan por encima de las barreras y por lo tanto, los barcos no pueden atracar y los que están atracados se mueven, con todos los riesgos de seguridad que eso conlleva.

Los autores del artículo comienzan en su introducción comentando la importancia de los océanos para la humanidad, dado que los empleamos como rutas de transporte y lugares de alimentación y recreo(1). Y dado que el mar es de todo menos tranquilo, la investigación sobre sistemas de control del oleaje es un campo muy activo de la hidrodinámica. Como comentaba en el párrafo anterior, métodos más habituales de control del oleaje logran su disipación o atenuación, pero no su eliminación. Por eso con los sistemas actuales podemos o bien disminuir la altura de las olas o bien la frecuencia con la que llegan cerca de los puertos, pero no eliminar por completo el oleaje.

Sin embargo, en el campo de ondas electromagnéticas, y gracias al uso de metamateriales(2), el lograr la atenuación de estas ondas en volúmenes muy concretos, o su paso sin perturbar las ondas en sí, ya se ha conseguido en diversas condiciones. Por supuesto, algo así sería muy ventajoso en estructuras humanas cercanas al mar, porque si las olas pasan a través de un volumen determinado sin que se note su presencia, no pueden afectarlo ni a los barcos que contiene. Según el artículo, los problemas principales de estos metamateriales para su aplicación a las ondas marinas son dos. El primero, que las estructuras que hay que hacer son muy complejas, lo que dificulta su replicación en puertos y demás. Además, generalmente su función de invisibilidad o paso de una onda sin verse afectada por ella sólo la cumplen para una longitud de onda, cunado las olas son ondas de muy amplio espectro. Con estos dos inconvenientes, no se podrían emplear las estructuras actuales para su uso con ondas en líquidos.

Comentan después los investigadores que el uso de metamateriales en gradientes planos soluciona algunos de estos problemas: son estructuras que se pueden replicar en el tamaño requerido, relativamente fáciles de montar y que tiene un ancho de banda grande, lo que permitiría que atenuaran un conjunto grande de oleajes. Su uso en óptica está restringido, en el sentido de que más que trasladar la onda sin alterarla, este tipo de gradientes eliminan la amplitud que entre, atenuando muy fuertemente la onda electromagnética. Pero es este el objetivo de los autores con la olas: eliminarlas en una región dada.

Así, los autores adaptaron la tecnología de metamateriales con un gradiente de índice o GIM en inglés(3), para lo que en lugar de usar diversos materiales, emplearon distintas profundidades como generadores de diversos índices de transmisión de las ondas marinas en el agua. Con algo tan sencillo de construir como diversos gradientes de profundidad en el agua, se induce la «invisibilidad» de una zona de la costa a las olas, efectivamente protegiéndola frente a ellas.

La figura siguiente muestra el dispositivo de prueba en un canal:

Como se observa, el gradiente de altura se genera en el comienzo y el final del elemento, mientras que la zona central del mismo es simplemente un paralelogramo plano de longitud L2, anchura t y altura d. Con este sistema, y siguiendo el formalismo de transmisión de ondas que se emplea con las ondas visibles, al pasar por este dispositivo, las ondas marinas «ven» un índice de «refracción» de perfil cambiante en la longitud de propagación n(x).

Estructura de metamaterial con gradiente de profundidad que es capaz de eliminar olas. La figura (a) es un dibujo transversal de algunas dimensionas básicas, la figura (b) muestra el modelo teórico que se empleó y la (c) la realización práctica del mismo. Tomado de la figura 1 del artículo citado.

Es interesante notar que, dado que tenían que trabajar en un canal, las olas las crearon artificialmente con un dispositivo colocado antes del gradiente de alturas.

Como explican con más detalle en el artículo, generalmente las relaciones entre el índice de refracción del material por el que se propaga la onda y la onda en sí genera la dispersión de las ondas, lo que en este caso se traduciría en ondas un poco más pequeñas distribuidas por el canal. Sin entrar en detalles más técnicos, su estructura es capaz de modificar esta relación para permitir que las ondas pasen por el canal fuertemente atenuadas, es decir, en lugar de dispersar las olas, el gradiente de altitud equivalente al GIM deja que la onda se propague atenúandose muy fuertemente, por lo que se evita el problema de las olas.

La siguiente figura muestra el resultado experimental en el canal anterior con ondas de 0,7 Hzs de frecuencia y una altura media del canal de 16 cm:

Eliminación experimental de las ondas para las condiciones vistas arriba. La escala que va de 4 a -4 indica amplitud de la onda, y se observa con claridad como las ondas quedan atenuadas dentro de la zona con el gradiente y después del mismo.Los puntos (b) y (c) son los puntos en los que posteriormente caracterizan la altura de las olas respecto al máximo inicial. Adaptado de la figura 2 del artículo citado.

Antes de iniciar el experimento, simulaciones empelando el método de elementos finitos confirmaron que efectivamente, la geometría del canal anulaba las ondas enviadas. Es fácil ver que después del paso por la zona de gradientes, una cierta parte de las olas se recupera, pero dentro de ese canal, no hay apenas alteraciones de la altura. Sería esa zona la de «invisibilidad» para las olas, donde cualquier objeto situado en ellas no se movería.

Las pequeñas olas que se muestran en los experimentos dentro del canal se deben sobre todo, a efectos no lineales(4) de la viscosidad, que en el modelo analítico que resolvieron de la propagación de las olas, no se tuvieron en cuenta.

Para caracterizar el funcionamiento de este sistema a diversas frecuencias y amplitudes, midieron en los puntos (a), (b) y (c) de la figura anterior la amplitud total de las olas y la dividieron por la máxima a la entrada en el dispositivo, obteniendo una medida directa de la atenuación de las olas en el dispositivo de gradiente variable.

Los datos, que se muestran en la figura siguiente,confirman que para varias longitudes de onda y frecuencias del oleaje artificial el dispositivo funciona, dado que atenúa de manera clara el oleaje.

Disminución de amplitud dentro del gradiente respecto a las olas externas para diversas amplitudes (izquierda) y frecuencias(derecha) de las olas de entrada. El color azul indica que los datos de amplitudes se tomaron en el punto (c) de la imagen anterior, mientras que los rojos en el punto (b). Las estrellas indican valores simulados y los puntos, experimentales. Es fácil ver que para todas las frecuencias y amplitudes medidas, la zona del gradiente atenúa claramente las olas. Adaptado de la figura 3 del artículo citado.

Después de comentar brevemente los resultados de sus experimentos y los límites debidos a los efectos no lineales, concluyen el artículo diciendo que este tipo de gradiente podrían usarse en el diseño y construcción de puertos que permitieran tener aguas tranquilas, casi independientemente de las condiciones del mar.

El artículo salió publicado en la revista Physical Review Letters, en el volumen 123. Su título es: «Broadband Waveguide Cloak for Water Waves»

Notas:

(1) Como ejemplo, en el año 2011 en los Estados Unidos, el 53% de las importaciones y el 38% de las exportaciones entraron por mar, mientras que en el conjunto de la Unión Europea, cerca del 45% de las exportaciones y el 55% de la importaciones ase realizaron por transporte marítimo. Fuentes: EEUU: Bureu of Transportation Statistics. UE: Eurostat.

(2) Los metamateriales son objetos artificiales estructurados diseñados con sus propiedades finales en mente, formados por conjunto de materiales muy diferentes entre si. Es decir, la mayoría de los materiales que se emplean por los seres humanos tiene algunas propiedades deseables y otras no tanto, con las que hay que lidiar de la mejor manera posible. Con los metamateriales, se diseña desde el principio las características que se desean. Una explicación muy buena está en la Wikipedia en inglés: Wiki:Metamaterial.

(3) Metamateriales con gradiente de índice son materiales cuya estructura les causa tener un índice de refracción que varía de forma contínua en el espacio del metamaterial. Como el índice de refracción controla como se propaga la luz para todas las frecuencias, al variar el índice de refracción, se varía la transmisión de la onda electromagnética de la luz. Así se logra «atrapar» la luz en zonas específicas o alterar su transmisión a través de una fibra óptica.

(4) No linealidad: Generalmente, cundo un fenómeno físico tiene que representarse con funciones que no pueden ser aproximadas por una recta, su uso y predicción se vuelve mucho más complicado porque pequeños cambios en los valores llevan a grandes efectos, difíciles de computar o calcular.

Material resistente a los cortes

Uno de los problemas más importantes en ingeniería es el de los diversos materiales que nuestra sociedad precisa, o le gustaría tener: los materiales naturales poseen limitaciones claras que solventamos con materiales artificiales, pero una vez que empezamos a usarlos, exigimos o buscamos prestaciones nuevas, lo que implica nuevos materiales o formas de conformarlos.

Acaba de añadirse un nuevo material con una propiedad muy útil en determinados usos: no es posible cortarlo, no porque sea muy duro, sino porque su estructura interna provoca que cualquier herramienta cortante se estropee y desgaste sin poder cortar todo el material. La investigación está publicada en la revista «Scientific Reports» y comienza haciendo una introducción a la diferencia entre materiales artificiales y naturales.

Comenta que las estructuras jeráquicas(1) naturales son capaces de presentar protección frente a cargas muy grandes, dando varios ejemplos muy curiosos en los que no solemos deternernos o son poco conocidos. Las uvas aguantan caídas desde 10 m sin romperse y las escamas de unos peces llamados Arapaimas aparentemente pueden aguantar mordiscos de las pirañas gracias al diseño jerárquico de sus escamas. Parece ser que sus capas externas están fortalecidas por una estructura de fibras de colágeno cruzadas.

Siguiendo este ejemplo, el artículo continúa citando ejemplos de diseños artificiales imitando este sistema de la naturaleza, desde modernas estructuras milimétricas impresas con sistemas 3D hasta barreras que pueden eliminar ondas sísmicas colocadas por los romanos en algunas de sus construcciones. Todas estas estructuras comparten un principio de diseño común basado no en una estructura repetitiva, como los cristales de los metales, sino en un estudio de todas las interacciones a las que se somete el material.

Continúan luego con el resultado final de su investigación, la creación de una nueva estructura jerárquica metalo-cerámica. La estructura está formada por una espuma de aluminio que rodea a esferas cerámicas colocadas en un orden determinado. En esta estructura las esferas cerámicas están diseñadas para romperse bajo vibraciones internas debido a cargas o fuerzas localizadas. Esto no es malo, porque al romperse estas bolas, y crear vibraciones muy fuertes en el agente que esté creando las vibraciones, le crean un desgaste tan grande que no es capaz de continuar provocando las fuerzas sobre este nuevo material, dejando de cortarlo. De hecho, usaron esferas cerámicas que no eran demasiado duras, sino que por ser frágiles y romperse, creaban grandes cantidades de polvo cerámico que ayudaba a generar el desgaste del elemento cortante.

La estructura del material se puede observar en la figura siguiente, donde la estructura jerárquica es clara, así como las diferentes configuraciones que tiene que hacer según el tipo de forma externa que quieren hacer.

Estructura jerárquica del metamaterial en varias configuraciones. El dibujo (a) muestra el material cunado se usó una forma de panel plano, mientras que la (c) lo muestra en un cilindro. La fotografía (b) muestra la organización en columnas de las esferas cerámicas, mientras que en las fotografía (d) y (g) se observa la densidad de la espuma de alumnio, no uniforme, siguiendo la escala de la derecha. En el dibujo (e) y la foto en detalle (f) se observa que las esferas cerámicas están separadas por la espuma de alumnio y que las «burbujas» de la espuma son como mínimo, un orden de magnitud más pequeñas que las esferas. De la figura 1 del artículo citado.

Como este material combina cerámicas y metales, es necesario realizar operaciones metalúrgicas para poder manufacturarlo, y los autores del artículo describen con cierto detalle el método que emplearon.

Primero mezclaron polvos de aluminio con un agente espumante, dihidrido de titanio en su caso, que luego se compactó para evitar el aire que se pueda quedar en su interior y poder extruir cilindros de polvo compacto que se cortaron en discos pequeños. Luego, las esferas cerámicas hechas previamente y estos discos se colocan en un patrón fijo en una caja de acero que se suelda para cerrarla. Con el calentamiento de esta estructura hasta una temperatura tal que genera la espuma de aluminio y posterior enfriamiento tranquilo se produce la pieza deseada, como se indica en la figura siguiente:

Proceso de formación de las piezas con esta estructura. Las piezas extruidas de polvo deben colocarse de con una estructura determinada en el horno, y las esferas cerámicas se han hecho previamente. De la figura 2 del artículo citado.

Posteriormente estudiaron sus propiedades mecánicas, más allá de ser imposible de cortar por medios habituales, y obtuvieron un módulo de Young(2) de 5,5 GPa. Para realizar una comparación, el módulo de Young del acero inoxidable está en torno a los 200 GPa, lo que nos indica que nos es un material especialmente duro, por lo que no será posible usarlo en tareas estructurales, pero sí de refuerzo de las mismas.

Posteriormente, el artículo describe con mucho detalle como y porqué el material es capaz de resistir el ataque de una sierra radial cargada con discos de diamante, comiéndose al disco. La clave está en que la ruptura de las esferas cerámicas genera por un lado, un polvo muy abrasivo, y por el otro oscilaciones laterales en el disco que lo rompen, impidiéndole cortar el material estructurado.

También intentaron atacar el material con chorros de agua muy alta presión, y tampoco lograron cortarlo. En este caso, el material es capaz de ampliar el diámetro del chorro inicial, bajando tanto su velocidad que ya no puede penetrar el material y se desvía.

En la parte final del artículo comentan que esta estructura se puede ajustar de varias maneras para mejorar o cambiar algunas de sus propiedades. Por ejemplo, cambiar la dureza o el tamaño de las esferas cerámicas, la porosidad de la espuma metálica o incluso los material iniciales.

Por otra parte, aunque por comodidad los investigadores generaron sólo estructuras sencillas, sin apenas curvas, no hay en principio problemas para poder generar estructuras más complicadas, con curvaturas y que se puedan soldar entre sí o que encajen. Una aplicación obvia de semejante material es el de puertas de seguridad: si el material no se puede cortar, tampoco se puede penetrar en el interior.

El artículo se publicó en la revista Scientific Reports, volumen 10: Scientific Reports volume 10, Article number: 11539 (2020)

(1) Estructuras jerárquicas son las estructuras que tiene formas que cambian según la escala en al que la observemos. Por ejemplo, las conchas de los moluscos tienen una estructura en capas microscópica que se sostiene sobre elementos más pequeños para separar cada capa.

(2) Módulo de Young: el parámetro que caracteriza lo deformable que es un material cuando se le aplica una fuerza. El artículo de la wikipedia en español está bastante bien para entender este concepto: Wiki: Módulo de Young

Un paso más hacia sistemas de hojas artificiales funcionales y comerciales.

Uno de las soluciones más interesantes para el problema energético actual y al vez reducir el nivel del gas CO2 en la atmósfera consiste en imitar la fotosíntesis de las plantas. En un artículo reciente, se ha dado otro paso adelante en su posible implementación práctica con un sistema que produce formiato(1). El artículo está escrito pensando sobre todo en científicos muy familiarizados con el tema a tratar, por lo que la introducción comienza hablando de los diversos químicos que se han explorado para lograr la reducción(2) de CO2, denotada CO2RR en el artículo, con RR el agente reductor. Comenta que disoluciones homogéneas de varios tipos de enlaces químicos se han usado previamente y que sistemas en los que se inmoviliza el catalizador en una superficie de semiconductor, para evitar su desgaste rápido, se han empleado de manera que sumergidos en soluciones acuosas han funcionado bastante bien. El problema es que conseguir la función CO2RR es sólo la primera parte: luego, este subproducto debería a su vez oxidarse para producir compuestos más o menos útiles. Para conseguirlo, se precisa una fuente de electrones que oxide este material. El agua es un gran candidato para esto, pero precisa una fuente de energía para iniciar la reacción, como la luz solar. Así, se ha investigado mucho, según los autores, en la creación de sistemas que emplean la luz del sol para sintetizar, desde el CO22 y agua con al ayuda de la luz solar. El problema es que su escalado desde el laboratorio hasta una escala industrial es muy complicado por problemas de fabricación. Otra alternativa es el uso de coloides donde las partículas coloidales sean fotocalíticos(3), pero con frecuencia son necesarias etapas extra con otros productos químicos, lo que dificulta su uso industrial. La solución ideal sería copiar a la naturaleza y crear un dispositivo que sea similar a una hoja de cualquier planta, capaz de hacer una fotosíntesis(4). El problema es que, según los autores, lo único similar es el sistema que ellos han desarrollado.

La estructura de su sistema es lo que denominan hojas fotocalíticas, compuestas de dos partículas semiconductoras con actividad redox(5) añadidas a una capa conductiva, que sortea los problemas de usar otros productos para poder realizar las reacciones redox, a la vez que al estar pegados a la capa conductora asegura un suministro constante de electrones. Los autores del artículo han desarrollado uno de estos productos, con nombres y estructuras complícadísimas para cada una de las tres partes que hacen falta: Una de ellas genera los electrones por foto-oxidación del agua, mientra que la otra, recogiendo esos electrones por transmisión a través de la capa de oro y unión con huecos de la tercera parte de la estructura y un catalizador pegado a ella, produce el formiato.

La imagen siguiente lo explicita bastante bien:

Estructura de la hoja artificial. A la derecha, se observa como la interacción entre el agua, la luz (representada por el rayo rojo) y el material BiVO2RuO2 genera un electrón que se desplaza dentro de la capa de oro, centro, para interaccionar con un hueco del material de la derecha y luz y usar el fotocatalizador para generar el formiato.
Imagen extraída de la figura 1.a del artículo citado.

El artículo continúa explicando la forma en la que se fabricó el sistema y luego pasa a dar algunos detalles que permiten caracterizar su producción de formiato, oxígeno e hidrógeno. Como la figura siguiente muestra, se produjeron estos productos mientras el sistema estaba iluminado por luz solar simulada(6), y sumergido en una solución de agua con carbonato de potasio (K2CO3) saturada de CO2:

Producción de formiato, oxígeno, hidrógeno y CO cuando la hoja está iluminada. La producción total no es nada alta, de µmoles por cm², pero es un comienzo. De la figura 2.a del artículo citado.

Comprobaron también que la producción de formiato se debía a la interacción descrita en la primera figura, no a otro tipo de reacciones secundarias no previstas mediante el uso del sistema con una solución acuosa sin CO2. Además, observaron que la producción de hidrógeno y oxígeno se mantuvo constante sin la presencia de CO2, lo que soporta la idea presentada en la primera imagen de que su sistema «rompe» el agua.

Después comprobaron que el catalizador que emplearon efectivamente cumplía su función, dado que cuando expusieron a la luz el mismo tipo de estructura, pero sin el catalizador específico, no obtuvieron ningún producto. También pudieron comprobar que el catalizador seguía funcionando bajo grandes cantidades de oxígeno, es decir, es resistente a la oxidación, lo que no siempre es el caso. Y es importante porque al romper el agua, se produce oxígeno y por lo tanto éste puede por oxidación estropear el catalizador.

También comprobaron que la acción del sistema que implementaron se mantiene durante bastante tiempo. Durante los cuatros ciclos de rellenado de la solución de K22CO3 que emplearon durando más de 24 horas, su efectividad no bajó demasiado, como indica la figura siguiente. Parece poco, pero hay multitud de sistemas cuya duración es de horas, así que es un paso de gigante que su sistema sea robusto a la oxidación, aguante varios ciclos y durante más de 24 horas sin pérdidas de funcionamiento.

Producción de productos a lo largo de cuatro ciclos tras el rellenado de K22CO3 en el sistema. Se observa que la producción no varía demasiado. De la figura 4.d del artículo citado.

Comprobaron también la alta selectividad del catalizador por la reacción de interés y no por otra. Esto es importante, porque debido a la presencia de varios iones O⁻ en el medio de la reacción, es muy fácil que se produzcan otras especies en zonas del catalizador que no estaban pensadas para ello. Después concluyen con algunas formas de mejorar el diseño, como fijar mejor el catalizador al sustrato, cambiar su composición, etc.

En resumen, un paso importante en la consecución de la soñada hoja artificial, con algunos inconvenientes. El primero, su baja productividad. Pero un gran paso adelante, porque es la primera vez que se logra algo remotamente similar y con tanta duración.

El artículo salió publicado en la revista Nature Energy: Nature energy (2020). https://doi.org/10.1038/s41560-020-0678-6.

(1)Formiato: Su fórmula química es HCOO⁻, y es un precursor de varios productos químicos muy usados en la industria. En inglés se le llama «formate», y el artículo de la Wikipedia sobre el químico es muy aceptable.: Wikipedia:Formate.

(2) La reducción es el proceso químico por el que se transforman los dos enlace entre el Carbono y el Oxígeno en uno solo. El breve artículo de la Wikipedia lo explica algo más: Wiki:Reducción.

(3) Fotocatalíticos: sistemas que aceleran la reacción, catalizadores, pero cuando son iluminados por luz.

(4)Es decir, sintetizar productos químicos con la ayuda de la luz solar del Oxígeno y dióxido de carbono del aire.

(5) Redox: Actividad de oxidación-reducción de alguna molécula.

(6) Con frecuencia, para evitar oscilaciones en la producción normales bajo condiciones reales de iluminación natural, se emplean fuentes artificiales de luz que son idénticas a la luz solar, pero mucho más constantes en la intensidad. Esto permite comprobar mucho mejor los efectos de la luz solar en el sistema bajo estudio.

¿Contagiamos más enfermedades al hablar más alto?

Dados los tiempos que estamos viviendo, se está produciendo una cantidad enorme de publicaciones relacionadas con enfermedades de transmisión aérea. Una que me ha llamado la atención es este artículo de la revista Scientific Reports, perteneciente a la familia de Nature, que explora la posibilidad de contagios simplemente hablando, por contraste con los métodos más conocidos de estornudar y toser.

Comienzan en la introducción comentando que es bien sabido que la transmisión de enfermedades infecciosas a través de toses, estornudos y respiración es un fenómeno ya reconocido, pero en el que la importancia relativa de estos fenómenos en la propagación de enfermedades es un tema que no está claro.

Explica que al hablar y respirar emitimos partículas de un diámetro medio de 1 µm, probablemente formadas por fenómenos de ruptura de película fluida en los bronquiolos pulmonares(1) y vibraciones en la laringe. Aunque parezcan pequeñas, estas partículas son capaces de llevar con ellas bacterias y otros agentes infecciosos, dado que estos últimos tiene unos tamaños aún más pequeños, del orden de 0,050 a 0,500 µm para el virus del sarampión, por ejemplo.

Al ser más pequeñas, estas partículas tiene el potencial de ser aún más infecciosas que las más grandes, por tres razones principales:

  1. Las partículas más pequeñas aguantan más tiempo suspendidas en el aire,
  2. al ser más pequeñas pueden penetrar hasta distancias más grandes dentro del sistema respiratorio de otra persona distinta del que la emitió y
  3. el número de partículas pequeñas generadas al hablar puede ser muy superior a la que se produce al toser.

Según los autores del artículo, es este último punto el más importante. Tiene sentido: para que cualquier enfermedad pueda infectar un cuerpo, es necesario que la cantidad de virus o bacterias sea tan grande que las defensas del cuerpo no sean capaces de evitar su proliferación descontrolada en el mismo.

De hecho, dedican un párrafo a relatar la gran cantidad de evidencias que demuestran que hablar produce muchas más partículas que toser, lo que incrementa la «eficacia» del habla como portador de enfermedades.

Continúan comentando que, sin embargo, quedan varias cuestiones sin resolver: ¿afecta el volumen de lo que se dice a la generación de gotas?, ¿importas los fonemas que emitamos, es decir, la pronunciación de lo que decimos?, ¿hay diferencias significativas entre individuos? Para tratar de resolverlas, en este trabajo emplearon un sistema experimental capaz de contar las partículas desplazadas por el aire y lo emplearon para contar y medir las mismas mientras varios voluntarios hablaban.

Sus principales conclusiones son:

  1. la cantidad de partículas emitidas se incrementa según el volumen de lo que se diga, en los cuatro idiomas que usaron como representativos(inglés, español, mandarín y árabe)(2),
  2. la distribución del tamaño de las partículas es independiente del volumen con que se hable y
  3. hay algunas personas que emiten una cantidad un orden de magnitud superior a la media, diez veces más, de forma que son «superemisores» de partículas al ambiente.

Este último punto sobre todo, explicaría el fenómeno de los supercontagiadores, las personas que por alguna razón son capaces de contagiar a muchas más personas a su alrededor de lo que es habitual.

En la sección siguiente del artículo, donde explicitan los resultados, lo primero que hacen es repetir experimentos anteriores para confirmar que efectivamente, hablar provoca un aumento de emisión de partículas por parte del hablante. Como indica la figura siguiente, donde simultáneamente se presentan los resultados de un micrófono recogiendo a un voluntario diciendo algo así como «a» durante unos segundos, respirando por la nariz después y volviendo a hablar, es totalmente cierto.

Relación entre la emisión de un sonido, panel A y emisión de partículas, panel B, en el tiempo. Los picos de emisión de partículas son claros, con el retraso entre el máximo del pico y el comienzo del sonido atribuido al tiempo que tardan las partículas en llegar al detector. De la figura 1 del artículo citado.

Después, comprobaron que había una relación entre el número de partículas emitidas y el volumen de lo que se habla. Como muestra la siguiente figura, donde se reúnen datos de muchos sujetos, la relación es linealmente proporcional entre el número de partículas emitidas y el volumen de voz, medido mediante la amplitud del sonido recogido por el micrófono.

El número de partículas emitidas respecto a la amplitud empleada, medida como su media cuadrática(3). Como se puede observar, la relación es una línea recta bastante clara. De la figura 3 del artículo citado.

Como además comprobaron que el tamaño de las partículas emitidas no cambiaba con el volumen de lo que se decía, los investigadores concluyen que la cantidad de líquido emitido aumenta con el volumen de voz.

Los resultados obtenidos indican que no hay diferencias significativas entre los diversos participantes a la hora de emitir aerosoles o partículas. Como escogieron un grupo diverso de voluntarios, con diversas características físicas, como el índice de masa corporal u otras, deducen que no hay correlaciones claras entre «tipos» humanos y la capacidad de emisión de partículas. Tampoco se observaron diferencias importantes entre usar diversos idiomas, siempre que se hablen en el mismo tono de voz. Además, las condiciones de temperatura y humedad externas tampoco influencian de manera significativa la emisión de partículas.

Pero, si todos los participante emiten más o menos e mismo números de partículas, ¿cómo es que hay algunos que son «superemisores»? Pues porque sus propios datos indican que hay un grupo pequeño pero importante, en sus experimentos ocho de cuarenta, que emiten siempre un orden de magnitud más de partículas que los demás: esos son los superemisores. De echo, al comprobar la emisión de partículas en función del tipo de respiración o del volumen de lo que se habla, los superemisores se destacan con claridad, como se ve en la figura siguiente.

Número de partículas emitidas según la actividad del sujeto. En blanco, los diversos tipos de respiración (Nose, nariz, Mouth, boca, Deep-Fast, Inspiración lenta, aspiración rápida, Fast-Deep, Inspiración rápida, aspiración lenta) y en el otro color, los diversos tipos de habla (Quiet, bajo, Intermediate, normal, Loud, alto). El incremento de partículas emitidas al hablar es muy claro, como también la presencia de los superemisores, las dos cruces rojas. De la figura 5 del artículo citado.

En su sección de discusión los autores se preguntan porqué obtienen estos resultados. Empiezan diciendo que parece que, dado que al hablar activamos las cuerdas vocales, es debido a ellas que se produce el incremento de partículas, lo que implicaría que al aumentar el volumen de voz, como también aumenta ligeramente la frecuencia del habla, debería por lo tanto incrementarse el número de partículas. El problema es que para aumentar el volumen de voz, también se incrementa el flujo de aire a través del sistema respiratorio, lo que también contribuiría al aumento del número de partículas. Los investigadores concluyen que de sus datos no pueden desacoplarse los dos efectos ni su importancia relativa.

Pasan después a tratar de entender la razón de la presencia de los superemisores, diciendo que si bien pudiera ser que haya diferencias en en las propiedades de los líquidos en sus sistema respiratorio que sean capaces de provocar este aumento, no han podido analizar nada de este tema. Sí comentan que alteraciones en la químicas de las mucosas del sistema respiratorio, por ejemplo con un nebulizador de agua salada, influyen claramente en la cantidad de gotas emitidas en la respiración o el habla. Concluyen ese párrafo formulando la hipótesis de que son estos superemisores la causa de que haya algunas personas capaces de contagiar enfermedades que se propagan por el aire de manera muy superior a la mayoría, fenómeno bien contrastado y comprobado en general, y en particular en la pandemia de COVID actual.

Comentan también que el hecho de que se incremente de manera muy notable la cantidad de partículas al hablar debería tener una influencia clara en la capacidad de contagio de diversas enfermedades según el lugar donde se alojen los patógenos. Así, comentan que hay evidencias de que la tuberculosis alojada en la garganta es más contagiosa que la que se encuentra en los pulmones y que el virus de la gripe puede ser tan contagioso porque ataca preferentemente la garganta, desde donde al hablar se emiten más partículas.

En el último párrafo del artículo explican que dado que el volumen de lo que se diga tiene una influencia tan fuerte en la cantidad de partículas emitidas, ello implica que los lugares más ruidosos serán fuentes más probables de contagios que los lugares más silenciosos. Y a mí no deja de venirme entonces a la cabeza el hecho de que en España gritamos mucho más que casi cualquier otro país al hablar, lo que debería influir de manera muy negativa en la expansión de esta pandemia. ¿Quizás que hablemos más alto que otros y tendamos a tocarnos mucho más podría explicar porqué la pandemia se extiende más en España que en otros países del entorno, como Portugal?

El artículo se publicó en la revista Scientific Reports, en el volumen 9: Scientific Reports, 9, 2348

(1) La ruptura de película fluida es el fenómeno que se produce cuando en una superficie hay un líquido rodeándola y pasa un gas rápidamente. El paso del gas causa deformaciones en la película del líquido que terminan por «romperlo» y extraer gotas de líquido que serán arrastradas por el gas.

(2) Estos cuatro idiomas no sólo cuentan con un porcentaje de hablantes muy representativo del total de la población humana, sino que además poseen tales diferencias sintácticas y de pronunciación que al usarlos como ejemplos permiten generar datos útiles para todas las hablas humanas.

(3) La media cuadrática es la raíz cuadrada de la suma de los cuadrados de unos valores, divididos por el número de valores. En la wikipedia en español lo explican muy bien: Wiki:Media Cuadrática

Producción de agua y energía eléctrica solar usando el mismo aparato.

Unos investigadores han logrado que la producción de energía eléctrica y la de agua potable vayan de la mano. Normalmente, los paneles fotovoltaicos producen energía, mientras que la desalinización de agua la consume, pero ahora se ha podido hacer un aparato que produce ambas cosas a la vez.

Comienzan en la introducción explicando que la falta de agua potable y la generación de energía más limpia son problemas que están muy unidos, dado que para desalinizar agua hay que consumir grandes cantidades de energía, y para producir energía suele hacer falta agua. De hecho, comentan que cerca del 50% del agua que se extrae en algunos países es para la producción de energía. Y dado que hay cada vez menos agua, y la generación de energía debe tender cada vez más a emplear sistemas renovables, la unión de sistemas de generación de agua con células fotovoltaicas es una gran idea.

El artículo continúa recordando que la idea de destilación solar de cualquier fuente de agua, sea esta el mar o aguas residuales, para obtener agua potable ya se ha implementado, pero con rendimientos finales de agua muy bajos debido a la poca concentración de energía que tiene el sol. Esto impide el uso más generalizado de esta tecnología, porque exige grandes superficies para obtener cantidades relevantes de agua. Sin embargo, recientemente, usando sistemas multimembrana se logró generar una cantidad de agua potable que entra dentro del rango de lo comercial, expresada en el artículo como 3 kg m⁻² h⁻¹ con condiciones de iluminación de 1 sol(1). Para lograrlo, emplearon el calor que se producía durante la evaporación en una etapa como fuente de calor para la siguiente.

Además, la producción simultánea de agua potable y energía eléctrica ya se ha planteado, pero generalmente con muy poca eficiencia en la generación de energía eléctrica, por eso los investigadores cambiaron las estrategias anteriores, consistentes en usar para generar la energía eléctrica alguna energía sobrante de la destilación del agua mediante energía solar, por un sistema en el que se integró el panel solar fotovoltaico con una membrana de destilación de tres etapas.

Con este dispositivo lograron producir 1,8 kg m⁻² h⁻¹ de agua mientras la célula solar tenía una eficiencia del 11%, lejos de las mejores eficiencias actuales, que se encuentran cerca del 16-20%, pero dentro de márgenes comerciales. Además, al usar la misma superficie para destilar agua y producir energía, su uso se hace mucho más interesante la reducción tanto de costos como de superficie ocupada.

Su dispositivo tiene en la parte de arriba una célula solar comercial, y debajo tres etapas de desalinización que aprovechan el calor producido por la célula superior, que crearon ellos en el laboratorio. Para que el calor producido por la célula solar no se perdiera, cada módulo solar estaba aislado en sus paredes laterales con espuma de poliuretano, un conocido aislante. Cada etapa de evaporación de las tres que acoplaron tenía cuatro capas, de arriba a abajo:

  1. Una primera capa conductiva del calor,
  2. Otra capa hidrofílica(2), donde se evapora el agua,
  3. una membrana hidrofóbica(3) para el paso del vapor y
  4. Una capa de condensación del vapor de agua.

La última parte, la condensación del vapor de agua, produce calor que se aprovecha como fuente de calor de la capa conductiva del calor de la siguiente etapa.

La figura siguiente presenta su sistema completo, con el panel solar encima y las tres etapas de evaporación de agua salada en la parte inferior:

Sistema integrado de producción de agua potable y electricidad mediante luz solar. Las cuatro capas del sistema multimembrana de evaporación son visibles, a la vez que el aislante térmico que rodea todo el panel. Adaptado de la figura 1.a del artículo citado.

Para usar su módulo pensaron en dos posibles configuraciones, una donde el agua salada o a evaporar está circulando en circuito cerrado hasta que está tan saturada de sales que no puede evaporarse más, y otra configuración donde el agua a evaporar se bombea a la parte de arriba del panel y la salmuera que queda se elimina del panel, en un sistema de circulación continua, como indica la figura siguiente:

Configuraciones para empleo del módulo. La de la izquierda(a) es un circuito cerrado que deja de funcionar cunado hay demasiada sal en el agua a evaporar. La de la derecha(b) funciona en circuito abierto de agua, desde el depósito superior hasta el inferior, donde se acumula la salmuera.

La ventaja de primer sistema es que puede obtiene más agua, al aprovechar todo el calor residual del agua, aumentando su productividad. La mayor desventaja es que es el agua que queda con sales hay que limpiarla del sistema, y eso es caro y emplea agua limpia. El sistema de circulación continua no precisa limpieza, pero obtiene un menor rendimiento de agua limpia. Sin embargo, es mucho más fácil de implementar en un sistema comercial, donde la salmuera producida iría a parar al mar.

Tratando de caracterizar su diseño, comprobaron que su sistema multimembrana de depuración tenía un rendimiento similar al de otros sistemas publicados en la literatura, empleándola sólo como depurador. Luego, le añadieron el célula fotovoltaica y comprobaron su comportamiento bajo varias condiciones de iluminación y carga del panel solar. Los resultados obtenidos indican que la carga a la que se somete la célula solar apenas varía la producción de agua limpia, que sí es inferior al caso en el que la parte superior del módulo de evaporación es una membrana de absorción de luz solar, no un panel.

También comprobaron si el sistema podía trabajar en modo continuo durante varias horas, dejando funcionar su sistema según el esquema de flujo continuo durante tres días, observando entonces que la cantidad de agua que podían extraer era de 1,6 kg m⁻² h⁻¹ con un flujo de entrada de 5 g h⁻¹, más baja que en condiciones ideales, pero todavía viable para un sistema comercial. También evaluaron la calidad del agua introduciendo en vez de agua salada, agua salada muy contaminada con metales, y como indica la figura siguiente, el agua evaporada que obtiene es perfectamente potable:

Presencia de iones de metales pesados en agua antes(negro) y después(dorado) de ser evaporada por el sistema. Las rayas rojas indican los valores admitidos por la Organización Mundial de la Salud como máximos para agua potable. Adaptada de la figura 5.c del artículo citado.

Siguen explicando en una sección posterior que gran parte de la pérdida de la energía térmica de la célula solar se pierde porque las células solares se diseñan específicamente para tener una alta emitividad de radiación electromagnética, de forma que no se calienten mucho. La razón es que las células solares pierden eficiencia al aumentar la temperatura. Pero como en este sistema doble, el calor producido por la célula se emplea en la evaporación de agua, los autores especulan que la producción de paneles solares con una emitividad reducida mejoraría la eficiencia de su sistema.

Terminan el artículo, pecando quizás de un exceso de optimismo, comentando que la sustitución total de sistemas fotovoltaicos actuales por el que ellos proponen generaría una gran cantidad de agua.

El artículo citado se publicó en la revista Nature Communications, 10. Al estar publicado con licencia Creative Commons, es accesible a través de su web: Nature Communications volume 10, Article number: 3012 (2019).

(1) Cuando se habla de energía solar, es muy común que se especifique las cantidad total de irradiación solar necesaria respecto a la solar «estándar» de un día soleado habitual. Este último se llama iluminación a un sol.

(2) Hidrofílica: Que atrae el agua hacia su superficie.

(3) Hidrofóbica: Que repele el agua.