Uso de mascarillas: ¿funciona o no para prevenir el contagio del COVID?

Es éste un tema que me resulta, por un lado, muy personal y por el otro, tiene aplicaciones muy generales. Todos en España tenemos que llevar mascarilla fuera de casa, a no ser que tengamos alguna razón médica para no hacerlo.

La mascarilla facial es una auténtica pesadez: da muchísimo calor, no permite oir bien a la otra persona(1), pica y molesta toda la cara, impide observar los rostros de los demás, un factor clave en la comunicación no verbal, etc.

Por otra parte, a pesar de loables intentos de algunas regiones o gobiernos por suministrarlas, el grueso de su costo recae sobre los propios usuarios, que deben pagarlas de su bolsillo. Y debido precisamente a la pandemia y al cierre y parón de actividad económica que ésta supuso, hay muchos bolsillos vacíos o con presupuestos mucho más limitados.

Es relevante, por lo tanto, preguntarse si hay razones científicas que justifiquen el uso de las mascarillas a todas horas. Y lo cierto es que las hay.

Creo que los argumentos principales serían dos, uno basado en el conocimiento teórico que tenemos de la transmisión de la enfermedad, y otro más experimental, que se basa en lo que se observa sobre el uso de la mascarilla.

El basado en el conocimiento teórico es sencillo de entender: la mascarilla es una clara barrera física que se levanta entre la respiración y el aire exterior. Por lo tanto, una parte importante de la humedad que nuestra respiración produce se queda dentro de la mascarilla o, como mínimo, pierde parte de su velocidad. Entonces, al viajar menos distancia o posarse antes en cualquier superficie, está menos tiempo en el aire. Y lo que nos contagia son los virus que están tranquilamente viajando en las gotas de humedad que exhalamos. Como la mascarilla disminuye de manera notable la cantidad de virus en el aire, si estuviéramos enfermos podríamos contagiar a menos personas si lleváramos puesta la mascarilla. ¿Y si no estamos enfermos? Pues al tener una clara barrera de entrada adicional a la humedad del aire, también se la imponemos al virus, que es el que viaja acoplado a las gotas húmedas en el aire. Así, al reducir la carga vírica a la que se tiene que enfrentar nuestro organismo, reducimos el riesgo de desarrollar la enfermedad y si la contraemos, tendremos una versión más leve, al tener menor número de virus que combatir.

Es importante darse cuenta de algo importante: hay muy pocas barreras física capaces de parar un virus que además permitan la entra de aire: el tamaño de un virus es muy, pero que muy pequeño. Suelen tener un tamaño en torno a los cien nanómetros(¡10⁻⁷ m!), lo que no nos dice nada. Pero si lo ponemos en perspectiva, es unas diez veces menos del tamaño medio de una célula, que va de 1 a 10 micras (10⁻⁶ m)(2). Por lo tanto, la mascarilla no para el virus directamente, porque el tamaño de los poros es mucho más grande que el del virus. Lo que hace es parar su autobús, su medio de transporte: las gotas que exhalamos al respirar de las que hablé antes. Esas gotas tienen tamaños muy variados que van desde algunos micrómetros o micras hasta algún milímetro, y casi todas se ven o bien totalmente paradas o bien, al menos, ralentizadas por la presencia de la mascarilla.

Una versión preciosa visualmente de la importancia de llevar mascarilla está en este artículo de la sección de ciencia del periódico «El país», donde modelan que pasa en tres ambientes distintos según se lleve o no mascarilla y se ventile el aire, lo que permite en un lugar cerrado eliminar parte de la humedad del aire y, por lo tanto, la carga vírica: Un salón, un bar y una clase: así contagia el coronavirus en el aire.

En cuanto al argumento experimental, hay cada vez más evidencia de que el uso de la mascarilla funciona como se prevé en las líneas anteriores, reduciendo el contagio y causando versiones más leves de la enfermedad. ¿Cómo se puede conseguir tal evidencia? Porque lo cierto es que no es ético, ni posible por otros muchos motivos, decirle a una parte de la población que use mascarilla y a otra que no la use. Lo que se hace es comparar poblaciones cercanas geográficamente pero que por tener distintas políticas públicas implementadas, exigen o no el uso de la mascarilla a la población en general. En ese aspecto, Estados Unidos es el país ideal, porque debido a su estructura política tan descentralizada y al presidente que tienen, que no quiere usar su poder para imponer ningún tipo de restricción en la población, cada gobernador de un estado hace lo que quiere. Los datos recabados indican con claridad que el uso de mascarillas reduce el nivel de contagios y la gravedad de la enfermedad para aquellos que la padecen.

Por supuesto, nada de todo esto es algo que sólo yo sé, y de hecho, creo que hay resúmenes de la situación muy buenos en varios periódicos y páginas web, pero lo que me motivó a escribir esta entrada fue haber leído el magnífico resumen de la literatura científica más reciente disponible en un artículo de la revista Nature sobre los que se sabe o no sobre el uso de mascarillas(3). Sobre todo, porque refleja muy bien el método científico basado en la evidencia para acumular conocimiento. Además, hay un artículo escrito en la revista Science sobre la lucha empecinada de una científica para que el uso de las mascarillas se declarara obligatorio por parte del gobierno británico que me encantó(4).

(1) Es más, para personas sordas, estas mascarillas son un auténtico incordio: al no poder leer los labios, no les permite entender nada de lo que el interlocutor les diga. Y para los que ya no oyen demasiado bien, pues les pasa algo parecido.

(2) Los datos sobre el tamaño de los virus están extraídos de la página web ¿Cúanto mide un virus?. Datos más concretos sobre el coronavirus están en la entrada de la página Gizmodo El tamaño del coronavirus en relación a otras partículas, que tiene una ilustración muy bonita con el tamaño de varios objetos muy pequeños a escala.

(3) El artículo en sí, un sección de muy buen periodismo científico, se titula «Face Masks: what the data say»

84) El artículo se puede consultar en el siguiente enlace «The United Kingdom mask’s crusader» y es perfecto, además, en señalar la importancia de los sesgos sociales en ciencia y cómo afectan de manera muy fuerte a las posibilidades de las personas según sus orígenes. A la mujer protagonista de este artículo, su tutor le recomendó que no intentara entrar en Cambridge porque una mujer como ella no era el tipo de personas que buscaban.

Material resistente a los cortes

Uno de los problemas más importantes en ingeniería es el de los diversos materiales que nuestra sociedad precisa, o le gustaría tener: los materiales naturales poseen limitaciones claras que solventamos con materiales artificiales, pero una vez que empezamos a usarlos, exigimos o buscamos prestaciones nuevas, lo que implica nuevos materiales o formas de conformarlos.

Acaba de añadirse un nuevo material con una propiedad muy útil en determinados usos: no es posible cortarlo, no porque sea muy duro, sino porque su estructura interna provoca que cualquier herramienta cortante se estropee y desgaste sin poder cortar todo el material. La investigación está publicada en la revista «Scientific Reports» y comienza haciendo una introducción a la diferencia entre materiales artificiales y naturales.

Comenta que las estructuras jeráquicas(1) naturales son capaces de presentar protección frente a cargas muy grandes, dando varios ejemplos muy curiosos en los que no solemos deternernos o son poco conocidos. Las uvas aguantan caídas desde 10 m sin romperse y las escamas de unos peces llamados Arapaimas aparentemente pueden aguantar mordiscos de las pirañas gracias al diseño jerárquico de sus escamas. Parece ser que sus capas externas están fortalecidas por una estructura de fibras de colágeno cruzadas.

Siguiendo este ejemplo, el artículo continúa citando ejemplos de diseños artificiales imitando este sistema de la naturaleza, desde modernas estructuras milimétricas impresas con sistemas 3D hasta barreras que pueden eliminar ondas sísmicas colocadas por los romanos en algunas de sus construcciones. Todas estas estructuras comparten un principio de diseño común basado no en una estructura repetitiva, como los cristales de los metales, sino en un estudio de todas las interacciones a las que se somete el material.

Continúan luego con el resultado final de su investigación, la creación de una nueva estructura jerárquica metalo-cerámica. La estructura está formada por una espuma de aluminio que rodea a esferas cerámicas colocadas en un orden determinado. En esta estructura las esferas cerámicas están diseñadas para romperse bajo vibraciones internas debido a cargas o fuerzas localizadas. Esto no es malo, porque al romperse estas bolas, y crear vibraciones muy fuertes en el agente que esté creando las vibraciones, le crean un desgaste tan grande que no es capaz de continuar provocando las fuerzas sobre este nuevo material, dejando de cortarlo. De hecho, usaron esferas cerámicas que no eran demasiado duras, sino que por ser frágiles y romperse, creaban grandes cantidades de polvo cerámico que ayudaba a generar el desgaste del elemento cortante.

La estructura del material se puede observar en la figura siguiente, donde la estructura jerárquica es clara, así como las diferentes configuraciones que tiene que hacer según el tipo de forma externa que quieren hacer.

Estructura jerárquica del metamaterial en varias configuraciones. El dibujo (a) muestra el material cunado se usó una forma de panel plano, mientras que la (c) lo muestra en un cilindro. La fotografía (b) muestra la organización en columnas de las esferas cerámicas, mientras que en las fotografía (d) y (g) se observa la densidad de la espuma de alumnio, no uniforme, siguiendo la escala de la derecha. En el dibujo (e) y la foto en detalle (f) se observa que las esferas cerámicas están separadas por la espuma de alumnio y que las «burbujas» de la espuma son como mínimo, un orden de magnitud más pequeñas que las esferas. De la figura 1 del artículo citado.

Como este material combina cerámicas y metales, es necesario realizar operaciones metalúrgicas para poder manufacturarlo, y los autores del artículo describen con cierto detalle el método que emplearon.

Primero mezclaron polvos de aluminio con un agente espumante, dihidrido de titanio en su caso, que luego se compactó para evitar el aire que se pueda quedar en su interior y poder extruir cilindros de polvo compacto que se cortaron en discos pequeños. Luego, las esferas cerámicas hechas previamente y estos discos se colocan en un patrón fijo en una caja de acero que se suelda para cerrarla. Con el calentamiento de esta estructura hasta una temperatura tal que genera la espuma de aluminio y posterior enfriamiento tranquilo se produce la pieza deseada, como se indica en la figura siguiente:

Proceso de formación de las piezas con esta estructura. Las piezas extruidas de polvo deben colocarse de con una estructura determinada en el horno, y las esferas cerámicas se han hecho previamente. De la figura 2 del artículo citado.

Posteriormente estudiaron sus propiedades mecánicas, más allá de ser imposible de cortar por medios habituales, y obtuvieron un módulo de Young(2) de 5,5 GPa. Para realizar una comparación, el módulo de Young del acero inoxidable está en torno a los 200 GPa, lo que nos indica que nos es un material especialmente duro, por lo que no será posible usarlo en tareas estructurales, pero sí de refuerzo de las mismas.

Posteriormente, el artículo describe con mucho detalle como y porqué el material es capaz de resistir el ataque de una sierra radial cargada con discos de diamante, comiéndose al disco. La clave está en que la ruptura de las esferas cerámicas genera por un lado, un polvo muy abrasivo, y por el otro oscilaciones laterales en el disco que lo rompen, impidiéndole cortar el material estructurado.

También intentaron atacar el material con chorros de agua muy alta presión, y tampoco lograron cortarlo. En este caso, el material es capaz de ampliar el diámetro del chorro inicial, bajando tanto su velocidad que ya no puede penetrar el material y se desvía.

En la parte final del artículo comentan que esta estructura se puede ajustar de varias maneras para mejorar o cambiar algunas de sus propiedades. Por ejemplo, cambiar la dureza o el tamaño de las esferas cerámicas, la porosidad de la espuma metálica o incluso los material iniciales.

Por otra parte, aunque por comodidad los investigadores generaron sólo estructuras sencillas, sin apenas curvas, no hay en principio problemas para poder generar estructuras más complicadas, con curvaturas y que se puedan soldar entre sí o que encajen. Una aplicación obvia de semejante material es el de puertas de seguridad: si el material no se puede cortar, tampoco se puede penetrar en el interior.

El artículo se publicó en la revista Scientific Reports, volumen 10: Scientific Reports volume 10, Article number: 11539 (2020)

(1) Estructuras jerárquicas son las estructuras que tiene formas que cambian según la escala en al que la observemos. Por ejemplo, las conchas de los moluscos tienen una estructura en capas microscópica que se sostiene sobre elementos más pequeños para separar cada capa.

(2) Módulo de Young: el parámetro que caracteriza lo deformable que es un material cuando se le aplica una fuerza. El artículo de la wikipedia en español está bastante bien para entender este concepto: Wiki: Módulo de Young

Un paso más hacia sistemas de hojas artificiales funcionales y comerciales.

Uno de las soluciones más interesantes para el problema energético actual y al vez reducir el nivel del gas CO2 en la atmósfera consiste en imitar la fotosíntesis de las plantas. En un artículo reciente, se ha dado otro paso adelante en su posible implementación práctica con un sistema que produce formiato(1). El artículo está escrito pensando sobre todo en científicos muy familiarizados con el tema a tratar, por lo que la introducción comienza hablando de los diversos químicos que se han explorado para lograr la reducción(2) de CO2, denotada CO2RR en el artículo, con RR el agente reductor. Comenta que disoluciones homogéneas de varios tipos de enlaces químicos se han usado previamente y que sistemas en los que se inmoviliza el catalizador en una superficie de semiconductor, para evitar su desgaste rápido, se han empleado de manera que sumergidos en soluciones acuosas han funcionado bastante bien. El problema es que conseguir la función CO2RR es sólo la primera parte: luego, este subproducto debería a su vez oxidarse para producir compuestos más o menos útiles. Para conseguirlo, se precisa una fuente de electrones que oxide este material. El agua es un gran candidato para esto, pero precisa una fuente de energía para iniciar la reacción, como la luz solar. Así, se ha investigado mucho, según los autores, en la creación de sistemas que emplean la luz del sol para sintetizar, desde el CO22 y agua con al ayuda de la luz solar. El problema es que su escalado desde el laboratorio hasta una escala industrial es muy complicado por problemas de fabricación. Otra alternativa es el uso de coloides donde las partículas coloidales sean fotocalíticos(3), pero con frecuencia son necesarias etapas extra con otros productos químicos, lo que dificulta su uso industrial. La solución ideal sería copiar a la naturaleza y crear un dispositivo que sea similar a una hoja de cualquier planta, capaz de hacer una fotosíntesis(4). El problema es que, según los autores, lo único similar es el sistema que ellos han desarrollado.

La estructura de su sistema es lo que denominan hojas fotocalíticas, compuestas de dos partículas semiconductoras con actividad redox(5) añadidas a una capa conductiva, que sortea los problemas de usar otros productos para poder realizar las reacciones redox, a la vez que al estar pegados a la capa conductora asegura un suministro constante de electrones. Los autores del artículo han desarrollado uno de estos productos, con nombres y estructuras complícadísimas para cada una de las tres partes que hacen falta: Una de ellas genera los electrones por foto-oxidación del agua, mientra que la otra, recogiendo esos electrones por transmisión a través de la capa de oro y unión con huecos de la tercera parte de la estructura y un catalizador pegado a ella, produce el formiato.

La imagen siguiente lo explicita bastante bien:

Estructura de la hoja artificial. A la derecha, se observa como la interacción entre el agua, la luz (representada por el rayo rojo) y el material BiVO2RuO2 genera un electrón que se desplaza dentro de la capa de oro, centro, para interaccionar con un hueco del material de la derecha y luz y usar el fotocatalizador para generar el formiato.
Imagen extraída de la figura 1.a del artículo citado.

El artículo continúa explicando la forma en la que se fabricó el sistema y luego pasa a dar algunos detalles que permiten caracterizar su producción de formiato, oxígeno e hidrógeno. Como la figura siguiente muestra, se produjeron estos productos mientras el sistema estaba iluminado por luz solar simulada(6), y sumergido en una solución de agua con carbonato de potasio (K2CO3) saturada de CO2:

Producción de formiato, oxígeno, hidrógeno y CO cuando la hoja está iluminada. La producción total no es nada alta, de µmoles por cm², pero es un comienzo. De la figura 2.a del artículo citado.

Comprobaron también que la producción de formiato se debía a la interacción descrita en la primera figura, no a otro tipo de reacciones secundarias no previstas mediante el uso del sistema con una solución acuosa sin CO2. Además, observaron que la producción de hidrógeno y oxígeno se mantuvo constante sin la presencia de CO2, lo que soporta la idea presentada en la primera imagen de que su sistema «rompe» el agua.

Después comprobaron que el catalizador que emplearon efectivamente cumplía su función, dado que cuando expusieron a la luz el mismo tipo de estructura, pero sin el catalizador específico, no obtuvieron ningún producto. También pudieron comprobar que el catalizador seguía funcionando bajo grandes cantidades de oxígeno, es decir, es resistente a la oxidación, lo que no siempre es el caso. Y es importante porque al romper el agua, se produce oxígeno y por lo tanto éste puede por oxidación estropear el catalizador.

También comprobaron que la acción del sistema que implementaron se mantiene durante bastante tiempo. Durante los cuatros ciclos de rellenado de la solución de K22CO3 que emplearon durando más de 24 horas, su efectividad no bajó demasiado, como indica la figura siguiente. Parece poco, pero hay multitud de sistemas cuya duración es de horas, así que es un paso de gigante que su sistema sea robusto a la oxidación, aguante varios ciclos y durante más de 24 horas sin pérdidas de funcionamiento.

Producción de productos a lo largo de cuatro ciclos tras el rellenado de K22CO3 en el sistema. Se observa que la producción no varía demasiado. De la figura 4.d del artículo citado.

Comprobaron también la alta selectividad del catalizador por la reacción de interés y no por otra. Esto es importante, porque debido a la presencia de varios iones O⁻ en el medio de la reacción, es muy fácil que se produzcan otras especies en zonas del catalizador que no estaban pensadas para ello. Después concluyen con algunas formas de mejorar el diseño, como fijar mejor el catalizador al sustrato, cambiar su composición, etc.

En resumen, un paso importante en la consecución de la soñada hoja artificial, con algunos inconvenientes. El primero, su baja productividad. Pero un gran paso adelante, porque es la primera vez que se logra algo remotamente similar y con tanta duración.

El artículo salió publicado en la revista Nature Energy: Nature energy (2020). https://doi.org/10.1038/s41560-020-0678-6.

(1)Formiato: Su fórmula química es HCOO⁻, y es un precursor de varios productos químicos muy usados en la industria. En inglés se le llama «formate», y el artículo de la Wikipedia sobre el químico es muy aceptable.: Wikipedia:Formate.

(2) La reducción es el proceso químico por el que se transforman los dos enlace entre el Carbono y el Oxígeno en uno solo. El breve artículo de la Wikipedia lo explica algo más: Wiki:Reducción.

(3) Fotocatalíticos: sistemas que aceleran la reacción, catalizadores, pero cuando son iluminados por luz.

(4)Es decir, sintetizar productos químicos con la ayuda de la luz solar del Oxígeno y dióxido de carbono del aire.

(5) Redox: Actividad de oxidación-reducción de alguna molécula.

(6) Con frecuencia, para evitar oscilaciones en la producción normales bajo condiciones reales de iluminación natural, se emplean fuentes artificiales de luz que son idénticas a la luz solar, pero mucho más constantes en la intensidad. Esto permite comprobar mucho mejor los efectos de la luz solar en el sistema bajo estudio.

La ética en la ingeniería es importante.

Hace tiempo que quiero compartir un enlace sobre la tragedia del Challenger, el transbordador espacial. Cuando estalló, a principios del año 1986(1), todos los que lo vivimos nos quedamos de piedra. Cuando pasados los años, supe que el problema fué que unos aros de goma se endurecieron más de lo previsto por estar refrigerados, me sorprendió que nadie se hubiera dado cuenta antes. Pues lo cierto es que alguien se dió cuenta, y dió la voz de alarma, aunque lo silenciaran.

Este artículo en inglés cuenta su historia y yo creo que es bueno que se le recuerde:

Remembering Roger Boisjoly: He Tried To Stop Shuttle Challenger Launch

(1) Un buen resumen lo tiene el artículo de la wikipedia en inglés: Wiki:Space Shuttle Challenger Accident

¿Contagiamos más enfermedades al hablar más alto?

Dados los tiempos que estamos viviendo, se está produciendo una cantidad enorme de publicaciones relacionadas con enfermedades de transmisión aérea. Una que me ha llamado la atención es este artículo de la revista Scientific Reports, perteneciente a la familia de Nature, que explora la posibilidad de contagios simplemente hablando, por contraste con los métodos más conocidos de estornudar y toser.

Comienzan en la introducción comentando que es bien sabido que la transmisión de enfermedades infecciosas a través de toses, estornudos y respiración es un fenómeno ya reconocido, pero en el que la importancia relativa de estos fenómenos en la propagación de enfermedades es un tema que no está claro.

Explica que al hablar y respirar emitimos partículas de un diámetro medio de 1 µm, probablemente formadas por fenómenos de ruptura de película fluida en los bronquiolos pulmonares(1) y vibraciones en la laringe. Aunque parezcan pequeñas, estas partículas son capaces de llevar con ellas bacterias y otros agentes infecciosos, dado que estos últimos tiene unos tamaños aún más pequeños, del orden de 0,050 a 0,500 µm para el virus del sarampión, por ejemplo.

Al ser más pequeñas, estas partículas tiene el potencial de ser aún más infecciosas que las más grandes, por tres razones principales:

  1. Las partículas más pequeñas aguantan más tiempo suspendidas en el aire,
  2. al ser más pequeñas pueden penetrar hasta distancias más grandes dentro del sistema respiratorio de otra persona distinta del que la emitió y
  3. el número de partículas pequeñas generadas al hablar puede ser muy superior a la que se produce al toser.

Según los autores del artículo, es este último punto el más importante. Tiene sentido: para que cualquier enfermedad pueda infectar un cuerpo, es necesario que la cantidad de virus o bacterias sea tan grande que las defensas del cuerpo no sean capaces de evitar su proliferación descontrolada en el mismo.

De hecho, dedican un párrafo a relatar la gran cantidad de evidencias que demuestran que hablar produce muchas más partículas que toser, lo que incrementa la «eficacia» del habla como portador de enfermedades.

Continúan comentando que, sin embargo, quedan varias cuestiones sin resolver: ¿afecta el volumen de lo que se dice a la generación de gotas?, ¿importas los fonemas que emitamos, es decir, la pronunciación de lo que decimos?, ¿hay diferencias significativas entre individuos? Para tratar de resolverlas, en este trabajo emplearon un sistema experimental capaz de contar las partículas desplazadas por el aire y lo emplearon para contar y medir las mismas mientras varios voluntarios hablaban.

Sus principales conclusiones son:

  1. la cantidad de partículas emitidas se incrementa según el volumen de lo que se diga, en los cuatro idiomas que usaron como representativos(inglés, español, mandarín y árabe)(2),
  2. la distribución del tamaño de las partículas es independiente del volumen con que se hable y
  3. hay algunas personas que emiten una cantidad un orden de magnitud superior a la media, diez veces más, de forma que son «superemisores» de partículas al ambiente.

Este último punto sobre todo, explicaría el fenómeno de los supercontagiadores, las personas que por alguna razón son capaces de contagiar a muchas más personas a su alrededor de lo que es habitual.

En la sección siguiente del artículo, donde explicitan los resultados, lo primero que hacen es repetir experimentos anteriores para confirmar que efectivamente, hablar provoca un aumento de emisión de partículas por parte del hablante. Como indica la figura siguiente, donde simultáneamente se presentan los resultados de un micrófono recogiendo a un voluntario diciendo algo así como «a» durante unos segundos, respirando por la nariz después y volviendo a hablar, es totalmente cierto.

Relación entre la emisión de un sonido, panel A y emisión de partículas, panel B, en el tiempo. Los picos de emisión de partículas son claros, con el retraso entre el máximo del pico y el comienzo del sonido atribuido al tiempo que tardan las partículas en llegar al detector. De la figura 1 del artículo citado.

Después, comprobaron que había una relación entre el número de partículas emitidas y el volumen de lo que se habla. Como muestra la siguiente figura, donde se reúnen datos de muchos sujetos, la relación es linealmente proporcional entre el número de partículas emitidas y el volumen de voz, medido mediante la amplitud del sonido recogido por el micrófono.

El número de partículas emitidas respecto a la amplitud empleada, medida como su media cuadrática(3). Como se puede observar, la relación es una línea recta bastante clara. De la figura 3 del artículo citado.

Como además comprobaron que el tamaño de las partículas emitidas no cambiaba con el volumen de lo que se decía, los investigadores concluyen que la cantidad de líquido emitido aumenta con el volumen de voz.

Los resultados obtenidos indican que no hay diferencias significativas entre los diversos participantes a la hora de emitir aerosoles o partículas. Como escogieron un grupo diverso de voluntarios, con diversas características físicas, como el índice de masa corporal u otras, deducen que no hay correlaciones claras entre «tipos» humanos y la capacidad de emisión de partículas. Tampoco se observaron diferencias importantes entre usar diversos idiomas, siempre que se hablen en el mismo tono de voz. Además, las condiciones de temperatura y humedad externas tampoco influencian de manera significativa la emisión de partículas.

Pero, si todos los participante emiten más o menos e mismo números de partículas, ¿cómo es que hay algunos que son «superemisores»? Pues porque sus propios datos indican que hay un grupo pequeño pero importante, en sus experimentos ocho de cuarenta, que emiten siempre un orden de magnitud más de partículas que los demás: esos son los superemisores. De echo, al comprobar la emisión de partículas en función del tipo de respiración o del volumen de lo que se habla, los superemisores se destacan con claridad, como se ve en la figura siguiente.

Número de partículas emitidas según la actividad del sujeto. En blanco, los diversos tipos de respiración (Nose, nariz, Mouth, boca, Deep-Fast, Inspiración lenta, aspiración rápida, Fast-Deep, Inspiración rápida, aspiración lenta) y en el otro color, los diversos tipos de habla (Quiet, bajo, Intermediate, normal, Loud, alto). El incremento de partículas emitidas al hablar es muy claro, como también la presencia de los superemisores, las dos cruces rojas. De la figura 5 del artículo citado.

En su sección de discusión los autores se preguntan porqué obtienen estos resultados. Empiezan diciendo que parece que, dado que al hablar activamos las cuerdas vocales, es debido a ellas que se produce el incremento de partículas, lo que implicaría que al aumentar el volumen de voz, como también aumenta ligeramente la frecuencia del habla, debería por lo tanto incrementarse el número de partículas. El problema es que para aumentar el volumen de voz, también se incrementa el flujo de aire a través del sistema respiratorio, lo que también contribuiría al aumento del número de partículas. Los investigadores concluyen que de sus datos no pueden desacoplarse los dos efectos ni su importancia relativa.

Pasan después a tratar de entender la razón de la presencia de los superemisores, diciendo que si bien pudiera ser que haya diferencias en en las propiedades de los líquidos en sus sistema respiratorio que sean capaces de provocar este aumento, no han podido analizar nada de este tema. Sí comentan que alteraciones en la químicas de las mucosas del sistema respiratorio, por ejemplo con un nebulizador de agua salada, influyen claramente en la cantidad de gotas emitidas en la respiración o el habla. Concluyen ese párrafo formulando la hipótesis de que son estos superemisores la causa de que haya algunas personas capaces de contagiar enfermedades que se propagan por el aire de manera muy superior a la mayoría, fenómeno bien contrastado y comprobado en general, y en particular en la pandemia de COVID actual.

Comentan también que el hecho de que se incremente de manera muy notable la cantidad de partículas al hablar debería tener una influencia clara en la capacidad de contagio de diversas enfermedades según el lugar donde se alojen los patógenos. Así, comentan que hay evidencias de que la tuberculosis alojada en la garganta es más contagiosa que la que se encuentra en los pulmones y que el virus de la gripe puede ser tan contagioso porque ataca preferentemente la garganta, desde donde al hablar se emiten más partículas.

En el último párrafo del artículo explican que dado que el volumen de lo que se diga tiene una influencia tan fuerte en la cantidad de partículas emitidas, ello implica que los lugares más ruidosos serán fuentes más probables de contagios que los lugares más silenciosos. Y a mí no deja de venirme entonces a la cabeza el hecho de que en España gritamos mucho más que casi cualquier otro país al hablar, lo que debería influir de manera muy negativa en la expansión de esta pandemia. ¿Quizás que hablemos más alto que otros y tendamos a tocarnos mucho más podría explicar porqué la pandemia se extiende más en España que en otros países del entorno, como Portugal?

El artículo se publicó en la revista Scientific Reports, en el volumen 9: Scientific Reports, 9, 2348

(1) La ruptura de película fluida es el fenómeno que se produce cuando en una superficie hay un líquido rodeándola y pasa un gas rápidamente. El paso del gas causa deformaciones en la película del líquido que terminan por «romperlo» y extraer gotas de líquido que serán arrastradas por el gas.

(2) Estos cuatro idiomas no sólo cuentan con un porcentaje de hablantes muy representativo del total de la población humana, sino que además poseen tales diferencias sintácticas y de pronunciación que al usarlos como ejemplos permiten generar datos útiles para todas las hablas humanas.

(3) La media cuadrática es la raíz cuadrada de la suma de los cuadrados de unos valores, divididos por el número de valores. En la wikipedia en español lo explican muy bien: Wiki:Media Cuadrática

Producción de agua y energía eléctrica solar usando el mismo aparato.

Unos investigadores han logrado que la producción de energía eléctrica y la de agua potable vayan de la mano. Normalmente, los paneles fotovoltaicos producen energía, mientras que la desalinización de agua la consume, pero ahora se ha podido hacer un aparato que produce ambas cosas a la vez.

Comienzan en la introducción explicando que la falta de agua potable y la generación de energía más limpia son problemas que están muy unidos, dado que para desalinizar agua hay que consumir grandes cantidades de energía, y para producir energía suele hacer falta agua. De hecho, comentan que cerca del 50% del agua que se extrae en algunos países es para la producción de energía. Y dado que hay cada vez menos agua, y la generación de energía debe tender cada vez más a emplear sistemas renovables, la unión de sistemas de generación de agua con células fotovoltaicas es una gran idea.

El artículo continúa recordando que la idea de destilación solar de cualquier fuente de agua, sea esta el mar o aguas residuales, para obtener agua potable ya se ha implementado, pero con rendimientos finales de agua muy bajos debido a la poca concentración de energía que tiene el sol. Esto impide el uso más generalizado de esta tecnología, porque exige grandes superficies para obtener cantidades relevantes de agua. Sin embargo, recientemente, usando sistemas multimembrana se logró generar una cantidad de agua potable que entra dentro del rango de lo comercial, expresada en el artículo como 3 kg m⁻² h⁻¹ con condiciones de iluminación de 1 sol(1). Para lograrlo, emplearon el calor que se producía durante la evaporación en una etapa como fuente de calor para la siguiente.

Además, la producción simultánea de agua potable y energía eléctrica ya se ha planteado, pero generalmente con muy poca eficiencia en la generación de energía eléctrica, por eso los investigadores cambiaron las estrategias anteriores, consistentes en usar para generar la energía eléctrica alguna energía sobrante de la destilación del agua mediante energía solar, por un sistema en el que se integró el panel solar fotovoltaico con una membrana de destilación de tres etapas.

Con este dispositivo lograron producir 1,8 kg m⁻² h⁻¹ de agua mientras la célula solar tenía una eficiencia del 11%, lejos de las mejores eficiencias actuales, que se encuentran cerca del 16-20%, pero dentro de márgenes comerciales. Además, al usar la misma superficie para destilar agua y producir energía, su uso se hace mucho más interesante la reducción tanto de costos como de superficie ocupada.

Su dispositivo tiene en la parte de arriba una célula solar comercial, y debajo tres etapas de desalinización que aprovechan el calor producido por la célula superior, que crearon ellos en el laboratorio. Para que el calor producido por la célula solar no se perdiera, cada módulo solar estaba aislado en sus paredes laterales con espuma de poliuretano, un conocido aislante. Cada etapa de evaporación de las tres que acoplaron tenía cuatro capas, de arriba a abajo:

  1. Una primera capa conductiva del calor,
  2. Otra capa hidrofílica(2), donde se evapora el agua,
  3. una membrana hidrofóbica(3) para el paso del vapor y
  4. Una capa de condensación del vapor de agua.

La última parte, la condensación del vapor de agua, produce calor que se aprovecha como fuente de calor de la capa conductiva del calor de la siguiente etapa.

La figura siguiente presenta su sistema completo, con el panel solar encima y las tres etapas de evaporación de agua salada en la parte inferior:

Sistema integrado de producción de agua potable y electricidad mediante luz solar. Las cuatro capas del sistema multimembrana de evaporación son visibles, a la vez que el aislante térmico que rodea todo el panel. Adaptado de la figura 1.a del artículo citado.

Para usar su módulo pensaron en dos posibles configuraciones, una donde el agua salada o a evaporar está circulando en circuito cerrado hasta que está tan saturada de sales que no puede evaporarse más, y otra configuración donde el agua a evaporar se bombea a la parte de arriba del panel y la salmuera que queda se elimina del panel, en un sistema de circulación continua, como indica la figura siguiente:

Configuraciones para empleo del módulo. La de la izquierda(a) es un circuito cerrado que deja de funcionar cunado hay demasiada sal en el agua a evaporar. La de la derecha(b) funciona en circuito abierto de agua, desde el depósito superior hasta el inferior, donde se acumula la salmuera.

La ventaja de primer sistema es que puede obtiene más agua, al aprovechar todo el calor residual del agua, aumentando su productividad. La mayor desventaja es que es el agua que queda con sales hay que limpiarla del sistema, y eso es caro y emplea agua limpia. El sistema de circulación continua no precisa limpieza, pero obtiene un menor rendimiento de agua limpia. Sin embargo, es mucho más fácil de implementar en un sistema comercial, donde la salmuera producida iría a parar al mar.

Tratando de caracterizar su diseño, comprobaron que su sistema multimembrana de depuración tenía un rendimiento similar al de otros sistemas publicados en la literatura, empleándola sólo como depurador. Luego, le añadieron el célula fotovoltaica y comprobaron su comportamiento bajo varias condiciones de iluminación y carga del panel solar. Los resultados obtenidos indican que la carga a la que se somete la célula solar apenas varía la producción de agua limpia, que sí es inferior al caso en el que la parte superior del módulo de evaporación es una membrana de absorción de luz solar, no un panel.

También comprobaron si el sistema podía trabajar en modo continuo durante varias horas, dejando funcionar su sistema según el esquema de flujo continuo durante tres días, observando entonces que la cantidad de agua que podían extraer era de 1,6 kg m⁻² h⁻¹ con un flujo de entrada de 5 g h⁻¹, más baja que en condiciones ideales, pero todavía viable para un sistema comercial. También evaluaron la calidad del agua introduciendo en vez de agua salada, agua salada muy contaminada con metales, y como indica la figura siguiente, el agua evaporada que obtiene es perfectamente potable:

Presencia de iones de metales pesados en agua antes(negro) y después(dorado) de ser evaporada por el sistema. Las rayas rojas indican los valores admitidos por la Organización Mundial de la Salud como máximos para agua potable. Adaptada de la figura 5.c del artículo citado.

Siguen explicando en una sección posterior que gran parte de la pérdida de la energía térmica de la célula solar se pierde porque las células solares se diseñan específicamente para tener una alta emitividad de radiación electromagnética, de forma que no se calienten mucho. La razón es que las células solares pierden eficiencia al aumentar la temperatura. Pero como en este sistema doble, el calor producido por la célula se emplea en la evaporación de agua, los autores especulan que la producción de paneles solares con una emitividad reducida mejoraría la eficiencia de su sistema.

Terminan el artículo, pecando quizás de un exceso de optimismo, comentando que la sustitución total de sistemas fotovoltaicos actuales por el que ellos proponen generaría una gran cantidad de agua.

El artículo citado se publicó en la revista Nature Communications, 10. Al estar publicado con licencia Creative Commons, es accesible a través de su web: Nature Communications volume 10, Article number: 3012 (2019).

(1) Cuando se habla de energía solar, es muy común que se especifique las cantidad total de irradiación solar necesaria respecto a la solar «estándar» de un día soleado habitual. Este último se llama iluminación a un sol.

(2) Hidrofílica: Que atrae el agua hacia su superficie.

(3) Hidrofóbica: Que repele el agua.

Pequeños drones maniobran de manera más parecida a la de los pájaros.

Los drones son sistemas que tiene variadas aplicaciones, desde hacer vídeos musicales o similares espectaculares hasta la posibilidad de ser usados en misiones militares de alto riesgo. Pero tiene un problema bastante grave: son relativamente «torpes» al moverse por el aire, si los comparamos con las maniobras que cualquier pájaro o insecto es capaz de realizar.

En un artículo reciente un grupo de investigadores logró mejorar lo suficiente el diseño de drones con alas relativamente pequeños como para que pudiera maniobrar mucho más.

Comienzan el artículo señalando que el sistema de vuelo mediante aleteo es mucho más versátil que el sistema de vuelo mediante alas fijas o rotores, que generalmente se usan en los diseños humanos. Continúa comentando que si bien hay algún vehículo alado pequeño que use aleteo y puede realizar varias maniobras, como volar hacia delante y hacia atrás, en círculos y otras, sigue siendo muy raro que puedan permanecer suspendidos en el aire.

El mayor problema no es tanto imitar las formas y estructuras observadas en la naturaleza en animales voladores pequeños, como las pérdidas por la transmisión que se producen desde el motor, que puede ser mucho más potente que el sistema vivo hasta las alas, independientemente del tipo de control o tecnología que el sistema de vuelo del robot tenga. Como ejemplos de tecnologías de vuelo citan alas flexibles que pueden rotar de manera pasiva, sin ayuda de ningún motor y almacenamiento elástico de energía para recuperar parte de la potencia del movimiento.

De hecho, las ganancias aerodinámicas por usar aleteo pueden llegar a perderse debidos a las pérdidas de energía en los engranajes del mecanismo. Los autores del artículo ven que la mayor fuente de pérdidas energéticas en la mecánica del robot es el ángulo del eje de rotor cuando se quiere realizar alguna maniobra con las alas. De hecho, comprobaron que en sistemas de transmisión directa desde el motor hasta el ala, es el problema del giro del eje el que causa mayor cantidad de pérdidas por rozamiento.

Por eso diseñaron un sistema de transmisión más eficiente, con sistemas elásticos para prevenir el giro del eje y rodamientos, de manera que minimizaron las pérdidas de energía por rozamiento y pudieron además hacer que las alas realizaran giros mucho más bruscos de lo habitual. Además, para aumentar la maniobrabilidad de su robot le añadieron una aleta en la cola, como hacen muchos pájaros.

Su diseño, en la figura siguiente, usa rodamientos para estabilizar el eje y Nylon como material elástico capaz no sólo minimizar los problemas de giro, sino también de almacenar parte de esa energía elástica y usarla en maniobras de vuelo.

Esquema del sistema de transmisión. Los rodamientos, «bearings» en inglés, están marcados en rosa, mientras bisagras de Nylon en líneas tenues violetas. La transmisión de la fuerza del motor al ala se hace mediante una biela, que es parcialmente visible en el esquema central. La foto de la derecha es una vista superior de todo el sistema de transmisión.
De la figura 2.D del artículo citado.

Como se ve, el Nylon se emplea en el sistema que tiene que doblarse para transmitir parte del movimiento del motor a los ejes que soportan las alas, que a su vez son también elásticos. Este sistema les permite tener un motor más pequeño para generar el mismo empuje que uno más grande con hélice, un sistema más habitual.

Al tener una cola que se puede mover, cuando la cola está en posición que los autores denominan «neutra», resulta que el robot presenta estabilidad pasiva, sin necesidad de sistemas activos en varias situaciones de interés(1). Esencialmente, cuando se queda quieto en una posición y cuando planea. Además, al ajustar la posición de la cola se puede ajustar la actitud(2). En general, la estabilidad del robot cuando estaba quieto depende del efecto pendular, que se consigue colocando las alas que generan el empuje por encima del centro de gravedad, como los canarios. Sin embargo, este sistema no podía emplearse directamente en planeo, porque el centro de gravedad ya no está por encima de las alas. Para mantener la estabilidad en planeo, tuvieron que modificar tanto el sistema motor como la cola, haciendo esta última con una superficie similar a la de las alas, como la figura siguiente muestra.

Fotos de frente y de perfil del robot. G indica el centro de gravedad del aparato, T el empuje que genera y W su peso. Por eso indica que T>W para elevarse verticalmente. Adaptada de la figura 1.A del artículo citado.

Con este diseño, pudieron controlar el robot de una manera tan espectacular como la que muestra la figura de abajo, que resume todas la maniobras que puede realizar.

Ilustración de todas las maniobras posibles. En naranja, la subida y permanencia estática, en verde el vuelo casi paralelo, en el recuadro superior derecho el giro brusco deltante de un obstáculo y en amarillo el vuelo inclinado y subida. Adaptado del artículo citado, película 1.

El artículo continúa explicando algún detalle más técnico, proporcionando algunas relaciones básicas para entender que gran parte de la maniobrabilidad demostrada se debe a su capacidad de cambiar rápidamente y sin un gran consumo de energía el coeficiente de rozamiento ofrecido, lo que le permite emplear el aerofrenado para moverse, a semejanza de varios pájaros. Posteriormente, comparan su sistema con otros sistemas de vuelo en términos de capacidad de proporcionar empuje respecto a la potencia eléctrica consumida(3), observando que su sistema presenta la mayor pendiente de todos, como indica la figura de abajo.

Potencia eléctrica media consumida frente a empuje proporcionado. Los círculos y triángulos son diversos tipos de hélices, las aspas rojas su diseño con bisagras rígidas y las aspas azules su diseño con aspas de Nylon. Su mayor capacidad es clara. Adaptado de la figura 4.A del artículo citado.

Termina el artículo con detalles muy técnicos sobre como puede maniobrar tan bien el robot, y examinando también parte de los métodos empleados en sus mediciones.

El artículo se publicó en la revista Science Robotics, volumen 5.

(1) La diferencia, en general, entre sistemas pasivos y activos está en que los sistemas activos precisan de algún tipo de reacción, y por lo tanto consumo de energía, tanto en el cálculo como la producción de esa reacción, mientras que los pasivos se regulan sin necesidad de intervención externa.

(2) La actitud del robot no tiene nada que ver con su comportamiento, sino con su orientación respecto al plano. Así, el ángulo de actitud del robot es el ángulo respecto al plano del suelo del mismo.

(3) Como usan motores que trabajan a voltajes constantes, esta potencia eléctrica es el producto directo del voltaje que consume el motor por la intensidad de corriente, VI, y así lo representan.

¿Cómo se desafilan los cuchillos?

No sé si alguna vez se lo han preguntado, pero no deja de ser curioso que los cuchillos y otros objetos cortantes metálicos se vayan desbastando con el tiempo. A fin de cuentas, se usan, generalmente, para cortar cosas mucho más blandas como pan, carne, etc. Y sin embargo, pasado el tiempo, todos pierden el filo. ¿Cómo sucede?

Unos investigadores acaban de publicar un artículo donde ofrecen algunas pistas.

Comienzan la introducción del artículo comentando la importancia, antes y ahora, de las herramientas cortantes para la humanidad, y como se necesitan dos características de una herramienta cortante: filo y dureza.

El ejemplo que ponen como uso común, porque luego lo emplearán en sus experimentos, es el de el acero empleado en las cuchillas de afeitar. Es un acero martensítico(1) afilado con ángulos de 17º y con un radio de la punta de 40 nanómetros, es decir 40×10⁻⁹ metros. Luego, se recubre primero con materiales aún más duros, como carbono con forma de diamante y otra capa de material deslizante, teflón(2), final.

Y aún así, como todas las personas que usan estas cuchillas saben, el pelo es capaz de desbastar su filo al cabo de unos pocos usos. Y eso a pesar de que el pelo es más de diez veces más blando que el material de la cuchilla, como la figura de abajo indica.

Escala de dureza de diversos materiales (izquierda) y foto de la cuchilla de afeitar donde se observa su estructura y los diversos dominios cristalinos del material. Adaptado de la figura 1.A del artículo referenciado.

Como cualquier cuchillo vuelve a cortar al afilarlo de nuevo, es aceptado comúnmente que el mecanismo principal que hace que se desbaste el filo es un mecanismo de desgaste. Pero el artículo indica que los primeros desgastes sufridos por la cuchilla no pueden ser debidos sólo a desgaste, por varias razones.

Primero, porque la estructura de tanto el pelo como la cuchilla son muy diferentes. Concretamente, el pelo o cualquier otro elemento general que quiera cortar el cuchillo, es una estructura homogénea con una capa externa más dura. Sin embargo, la estructura de la cuchilla es mucho más diversa, teniendo formas distintas según la escala espacial que ese emplee. Por lo tanto, dado que los modelos habituales de desgaste suelen despreciar las microestructuras internas, no pueden dar cuenta de los desgastes iniciales de las cuchillas u otros objetos cortantes.

Por otra parte, dado que las condiciones de contorno del corte varían de manera muy dinámica mientras se produce éste, hay que tenerlas en cuenta si queremos estudiar este fenómeno. De hecho, como indica la figura siguiente, hay un mínimo de tres configuraciones: cuando el pelo se corta completamente recto, cuando debido al ángulo de entrada la cuchilla interacciona con el pelo con los dos lados y por último, cuando el pelo está muy doblado.

Las tres posibilidades de corte de un pelo, con los diagramas de fuerzas que suponen sobre la cuchilla. adaptado de la figura 1.B del artículo citado.

Con todas estas dificultades, los investigadores decidieron realizar experimentos sistemáticos para tratar de entender mejor el proceso de desbastado.

Comenzaron por caracterizar las microestructuras de hojas de afeitar comerciales, lo que les permitió observar que el filo de la cuchilla no es nada liso, ni siquiera sin cortar nada, sino que tiene pequeñas indentaciones e irregularidades.

Luego diseñaron un montaje experimental que le permitió cortar de manera sistemática pelo, la figura siguiente, de forma que después de cortar un número de veces pelo, pudieran examinar la hoja y ver que había pasado.

Montaje experimental para observar parte del desgaste en la cuchilla. De la figura 2.A del artículo citado.

De hecho, observaron que las irregularidades iniciales en el filo eran lugares donde luego se iban eliminando partes de la cuchilla, como se vé en la figura siguiente:

Borde de una cuchilla sin usar (arriba) y tras realizar algunos cortes (abajo) Se puede apreciar con claridad la falta de trozos del filo tras realizar cortes. Adaptado de la figura 1.3 del artículo citado.

De todas maneras, dado que en su montaje experimental podían cambiar el ángulo, comprobaron que si la cuchilla entraba con un ángulo ortogonal al pelo, la cuchilla ni se deformaba ni presentaba las indentaciones que se ven en la figura anterior. Para poder ver estos problemas, tuvieron que inclinar la cuchilla hasta que tuviera un ángulo de 21º con la horizontal. En esta posición, parte de la fuerza que realiza la cuchilla está fuera del plano principal del movimiento, lo que conlleva deformaciones plásticas de la misma, y en último término, la rotura del filo ya vista.

De hecho, observaron que esta ruptura del filo tiene lugar generalmente en los lados del pelo, y que es independiente de factores como el ángulo relativo entre el pelo y la cuchilla o el diámetro del pelo.

Posteriormente, realizaron simulaciones con programas de elementos finitos(2) para tratar de entender mejor sus resultados experimentales.

Con ellos, pudieron confirmar que la región donde se producían las deformaciones mecánicas era la frontera del pelo y que se empezaban a producir para ángulos mayores de 8,5º de inclinación entre la cuchilla y la dirección ortogonal al pelo.

Por otra parte, para ángulos más pequeños también se producían roturas del filo, que no se podían explicar con este modelo, donde la inclinación del ángulo de entrada de la cuchilla era fundamental para producir la fuerza que generaba la deformación. Cuando los ángulos son muy pequeños, se observó que la aparición de tensiones que conducían a la rotura del filo era debido a las diferencias de composición entre los diversos granos del acero, que respondían de manera distinta a la tensión producida por el corte del pelo, lo que generaba estas tensiones entre los granos capaces de romper el filo.

Como resumen de los elementos que hacen falta para que el filo de la cuchilla se desbaste antes de que aparezcan los problemas de desgaste, los investigadores encontraron que tiene que darse tres condiciones simultáneamente, explicitadas en el dibujo posterior:

  • una cantidad de pelo que se doble tan grande como para generar fuerzas con componentes no ortogonales grandes,
  • que el proceso de creación de la cuchilla sea tal que induzca irregularidades en el filo con granos de diversas composiciones,
  • que la posición del pelo sea tal que el lado del mismo se encuentre una de estas irregularidades, y además de forma que el material más blando esté en el lado correcto del filo.
Explicación gráfica de las tres condiciones necesarias para la ruptura de una cuchilla. De arriba a abajo, las columnas muestran como el ángulo de incidencia de la cuchilla en el pelo, la irregularidad y las diferentes composiciones de la cuchilla tienen que coincidir para poder romper el filo. De la figura 4 del artículo citado.

Obviamente, que se cumplan estas tres condiciones a la vez es difícil, por eso las cuchillas aguantan varios usos antes de desbastar su filo. La cuestión es que, como comentan acertadamente en el artículo, el hecho de que la rotura inicial de pequeños fragmentos de la cuchilla se produzca por la aparición simultánea de varios criterios dificulta mucho el análisis a posteriori de las razones de la rotura del filo.

Finalizan el artículo comentando que la práctica habitual de la metalurgia es utilizar la ley de Archard(3), donde hay una correlación lineal entre la dureza y la resistencia al desgaste. Dados sus resultados, afirman que probablemente sea una buena idea tratar de homogeneizar el metal empleado y reducir el tamaño de las irregularidades que producen los procesos de fabricación para aumentar la resistencia al desgaste, además de emplear materiales cada vez más duros.

El artículo original se publicó en la revista Science, vol. 369: How hair deforms steel.

(1) En inglés se dice «martensitic», y es una forma de endurecer el acero mediante el aumento de su contenido en carbono y enfriamiento rápido. La wikipedia en inglés tiene un artículo muy decente sobre el proceso: Wiki-Martensite.

(2) El método de elementos finitos es un algoritmo para resolver con ordenador ecuaciones muy complicadas de resolver analíticamente que se basa en dividir el sistema en una multitud de pequeños subsistemas que se resuelven iterativamente. La wikipedia tiene un artículo en español bastante interesante: Wiki-Elementos finitos.

(3) La ley que correlaciona dureza con desgaste, el artículo de la wikipedia es corto, pero suficiente para hacerse una idea: Wiki – Ecuación de Archard.

Se puede trasferir el resultado del ejercicio usando componentes de la sangre.

En una investigación reciente publicada en Science, unos investigadores han logrado que los efectos del envejecimiento revirtieran en ratones mayores que no hacían ejercicio.

Comienzan el artículo hablando de la habilidad que tiene el ejercicio físico para revertir o disminuir las consecuencias de la edad avanzada en todo tipo de animales. Y comentan que es, por lo tanto, importante encontrar terapias que imiten este tipo de mejoras producidas por el ejercicio físico.

Siguen explicando que el efecto beneficioso del ejercicio en ratones de edad es muy similar al que se obtiene con transfusiones de sangre de ratones jóvenes.

Siguiendo esta línea de investigación, estos investigadores encontraron que la administración de plasma de ratones viejos que hacían ejercicio a los que no lo hacían también mejoraba de manera clara su salud. De hecho, identificaron a un compuesto producido por el cuerpo cuando se hace ejercicio como el causante de la mejora observada. El compuesto se produce en el hígado.

El procedimiento que siguieron fue el siguiente: primero, tener dos tipos de ratones mayores; uno al que se les proporcionó una rueda y otro a los que se les proporcionó material para hacer nidos. A los dos grupos se les extrajo sangre y, de ella, se extrajo sólo el plasma. Después, a un tercer grupo de ratones «ancianetes» se les inyectaron ambos grupos de plasmas, observando que se observaba mejoría solamente en los ratones que recibían el plasma de los ratones que hacían ejercicio.

Dado que también se mejoraba la salud de los ratones que recibían transfusiones de ratones jóvenes, quisieron encontrar qué factor exacto era el que mejoraba la salud de los roedores. Entonces, trataron de encontrar qué elementos dentro de la sangre eran los que causaban el efecto principal de luchar contra el envejecimiento. Dado que vieron que cerca del 60% o más de los factores que se expresan debido al envejecimiento tenían su origen en el hígado, buscaron aquellos factores que se expresaban allí. De todos los factores que se expresan, encontraron que dos de ellos estaban presentes en abundancia. De los dos, decidieron centrarse en la presencia de una enzima, llamada Gpld1 que no había estado previamente enlazada con el envejecimiento.

Confirmaron posteriormente que su concentración aumentaba en el plasma de los ratones que hacían ejercicio, independientemente de su edad. De hecho, esta concentración del compuesto Gpld1 se correlacionaba con menos errores de memoria al hallar la salida a un laberinto, como muestra la figura siguiente:

Correlación entre la concentración del factor Gpld1 en la sangre y la ausencia de errores en ejercicios de memoria. De la figura 2 E del artículo citado.

Después quisieron encontrar la fuente de este factor en el cuerpo de los ratones, y correlacionaron la expresión de sus genes con el hígado. Este resultado es consistente con investigaciones precias citadas en el artículo que indican que es éste órgano el responsable de su generación. Por otra parte, observaron que la generación del ARN(1) que expresa este factor en el cuerpo no cambian en función de la edad, o administración del mismo en ninguno de los ratones examinados. Pero sí observaron que el ARN se expresaba más después de hacer ejercicio, lo que les induce a pensar que justamente es el ejercicio el desencadenante de este factor Gpld1 en el hígado, y no otro.

Trataron luego de entender la ruta metabólica seguida por el factor Gpld1 en el cuerpo, sin demasiado éxito, dado que no fueron capaces de entender del todo cómo lograba sus resultados. Sí pudieron observar que no es a través del paso directo al cerebro, puesto que este factor apenas aparecía expresado en el cerebro.

Sigue después una sección previa a la discusión final del artículo en la que comentan que es necesario para que este factor Gpld1 trabaje que haya un sustrato en el cuerpo, pero debo reconocer que debido a mi falta de conocimientos de anatomía, no terminé de entender ni qué sustrato es, ni dónde debe estar.

El punto interesante de este artículo es que el uso de sangre o plasma de animales que hayan hecho ejercicio si se transfiere mediante transfusión del plasma sanguíneo, favorece también a animales que no hayan hecho ningún ejercicio.

El lector de ciencia-ficción ciberpunk que anida en mi no puede evitar pensar que, dado este resultado, en poco tiempo habrá un trabajo que sea hacer ejercicio para que te extraigan plasma los ricachos vagos que prefieren pagar antes que sudar para «envejecer» mejor…

El artículo citado se publicó en Julio de 2020 en Science, volumen 369: Horowitz et al., Science 369, 167–173 (2020).

(1) El ARN es el «producto» que se segrega dentro de las células para producir cualquier material o factor que la célula produzca. Así, si hay una gran cantidad de ARN que esté asociado a un factor determinado, quiere decir que cuanto más ARN de este tipo, más factor producirá la célula dentro del órgano.

Se logra convertir la energía cinética delas gotas de agua en electricidad

En un artículo publicado en la revista Nature, un grupo de investigadores logran mejorar sistemas previos que ya existían para recolectar la energía cinética de gotas de agua cayendo y transformarla de manera más eficiente en electricidad.

Basan sus resultados en investigaciones previas en las que pudieron demostrar la inducción de carga por gotas de agua en la superficie de materiales fluorados(1) usando teflón como material principal superior.

Como indica la figura siguiente, el dispositivo está formado por una capa exterior de teflón en contacto con un electrodo de aluminio, que conecta eléctricamente esta capa exterior con una inferior de un óxido de estaño e indio, ITO por sus siglas en inglés, este último una tierra rara muy cara.

Construcción del dispositivo capaz de usar gotas de lluvia para producir electricidad.
De la figura 1 del artículo citado.

Como se ve en la figura, la capa del óxido y el electrodo de aluminio están conectado y no debería pasar electricidad a través de ellos, a menos que se acumule carga de alguna manera en alguna de las superficies. Y eso es lo que pasa al caer gotas de agua en la parte del teflón, que carga eléctrica se acumula según van cayendo gotas de agua hasta que el valor de la carga eléctrica alcanza un valor de saturación de en torno 50 nC, como indica la figura de abajo.

Carga obtenida en la capa de teflón según el número de gotas de agua. La escala de gotas es del orden de 10.000, saturando el valor máximo de carga obtenido en sus dispositivos para unas 16.000 gotas, aproximadamente.
De la figura 1 c del artículo citado.

Independientemente del mecanismo por el que se produce la carga eléctrica, está claro que hay un valor de saturación de la misma cerca de los 50 nC que comenté antes.

Cada uno de los dispositivos fabricados, hicieron tres en una línea, podía sostener un voltaje de en torno a 140 V con una corriente de 270 µA. Con una resistencia de alrededor de 330 kiloOhmnios, logran unas densidades de potencia de cerca de 50 W/m². Por comparación, lo que se había logrado hasta ahora con dispositivos de este tipo, pero con superficie de aluminio directamente, eran unos voltajes 295 e intensidades de corriente 2.600 veces más pequeñas. No está nada mal.

Los sistemas fotovoltaicos actuales comerciales obtienen potencias del orden de los 200 W/m²(2), lo que quiere decir que están ya en camino de convertirse en una alternativa razonable de generación de energía.

Su eficiencia de conversión de la energía cinética de la gota que cae es del orden del 2%. Las primeras células solares comerciales tenían eficiencias de ese orden de magnitud, desde el 2 al 8%, como indica la figura siguiente, extraída de la entrada de la Wikipedia sobre paneles fotovoltaicos.

De National Renewable Energy Laboratory (NREL) – National Renewable Energy Laboratory (NREL), Golden, COUnited States Department of Energywebsiteimagepdf imageexplanatory notes, Dominio público, Enlace

Los investigadores prosiguen en su artículo buscando las razones del incremento tan fuerte en la eficiencia respecto a sistemas anteriores. Pudieron observar experimentalmente que las cargas eléctricas transportadas por las gotas no variaban al impactar en el material, con lo que su cambio no era la causa de la mejora observada.

Entonces, fijaron su atención en la variación de la corriente y cargas en el dispositivo a lo largo del tiempo, notando que ambos parámetros oscilaban en función de si la gota tocaba el electrodo de aluminio o no. Cuando la gota comenzaba a tocar el electrodo de aluminio, se producía una transferencia de corriente desde la superficie del teflón hasta el electrodo de óxido ITO, mientras que cuando se retiraba la gota, sucedía al revés y la corriente primero se volvía negativa para alcanzar un valor final de cero. Este resultado se comprueba en la figura de abajo, donde se ve la dinámica de la corriente producida por una gota en un dispositivo.

Dinámica de la corriente eléctrica en el dispositivo al caerle una gota. Se observa como la corriente sube muy rápidamente cuando la gota toca el electrodo de aluminio y se hace negativa al retirarse la gota del mismo, sobre todo en la ampliación de escala de la derecha, parte c de la figura.
De la figura 2 b c del artículo citado.

Los autores del artículo proponen, basado en este comportamiento y en el hecho de que la posición del electrodo de aluminio que conecta la superficie de teflón con el óxido ITO no afecta a la eficiencia del dispositivo, que la corriente se transfiere desde el ITO hasta el teflón y viceversa en ciclos reversibles. La reversibilidad del sistema se apoya en que no han podido observar que la eficiencia del dispositivo varía con el tiempo, lo que quiere decir que no hay elementos que se «gasten» en el tiempo.

Tratando de entender mejor qué lleva su dispositivo a ser tan eficiente, usaron el número de Weber(3) de las gotas que caen sobre él. El resultado se puede resumir en la figura siguiente, extraída del artículo:

Carga obtenida en función del número de Weber de la gota. Noten que hay una cierta saturación de la carga para un valor del orden de 100 en una carga de 50 µC, como ya había comentado antes.
De la figura 2 e del artículo citado.

Esto querría decir que es importante que para lograr incrementos de carga, es más importante la energía cinética de las gotas que su tensión superficial.

Dado que es un sistema eléctrico, los investigadores usaron la teoría de circuitos y los datos que ya poseían para tratar de modelarlo. Y lo lograron con un sistema con tres condensadores:

  • Uno superficial con las superficies de agua y teflón,
  • otro del mismo tipo entre las superficies del agua y el aluminio,
  • el tercero, volumétrico, con el teflón como dieléctrico y las superficies agua/teflón y teflón/óxido ITO como electrodos.

De los tres, en principio el tercero sería el más pequeño y el que se carga gracias a los otros dos «condensadores» que se forman por la interacción de la gua con las superficies citadas. Si este modelo fuera adecuado, podrían estimar la carga máxima. Haciendo los cálculos, los investigadores obtuvieron un valor para las dimensiones de su dispositivo cercano a los 50 µC medidos, lo que les dá confianza en que su modelización es correcta. Por otra parte, en ese caso el voltaje que se obtiene debería ser directamente proporcional al ancho del teflón, lo que la figura de abajo confirma claramente.

Relación lineal del voltaje con el ancho del teflón en su dispositivo y como la carga acumulada es independiente del mismo. Ambos datos apuntan que su modelo eléctrico del dispositivo es acertado.
De la figura 3 c del artículo citado.

Los investigadores comentan que la forma de funcionar del dispositivo se confirma con simulaciones moleculares que realizaron, donde pudieron observar que las cargas iónicas que llevara el agua se separan en las superficies del teflón y el electrodo de aluminio, una vez que en la simulación añadían cargas estáticas en el teflón y el aluminio.

Por último, además de un sistema de laboratorio, hicieron un prototipo que probaron con agua de lluvia y agua de mar, para observar su eficiencia. Comprobaron que la eficiencia con los dos últimos tipos de agua, el sistema era menos eficiente porque generaba menos voltaje, aunque aún tenía eficiencias relativamente aceptables. El prototipo desarrollado y los voltajes obtenidos con los diversos tipos de agua están en la figura siguiente.

La figura superior muestra el dispositivo empleado, donde el depósito superior almacena el agua, independientemente de su origen, el regulador de flujo del medio hace que las gotas caigan en los dispositivos que generan la electricidad, los llamados DEGs (4). La figura inferior muestra que los tres tipos de agua empleados, el más eficiente es el gua de grifo, «tap water» en inglés y el menos eficiente, el agua de mar, «sea water».
De la figura 4 b d, del artículo citado.

Dos detalles me llamaron la atención sobre el artículo. El primero, que dado que la generación principal de carga está relacionada con la electricidad estática a través del efecto triboeléctrico(5), y esta no está nada clara, los propios autores del artículo tiene que pasar muy por alto la acumulación de carga inicial en su dispositivo. La otra, que a pesar de no tener claro el motivo por lo que algo funciona, por qué funciona, eso no necesariamente es un obstáculo para hacerlo mejor, porque hay elementos del modelo que explica cómo funciona que pueden soslayarse.

El artículo salió publicado en la revista Nature, volumen 578 y está disponible en abierto en la dirección de la revista: Nature, 578, 392–396(2020).

(1) Un material fluorado es un polímero en el que se han sustituido algunos átomos de carbono por átomos de flúor. Uno de los más conocidos es el teflón empleado en este artículo, cuya fórmula química es (CF2 – CF2)n

(2) Esta cifra se ha obtenido suponiendo una eficiencia total del panel del 20%, bastante cercana a los mejores paneles solares y una irradiancia solar de 1.000 W/m², valor ideal. Los valores reales de potencia solar serán algo más bajos, probablemente cercanos a los 160 W/m² porque los rendimientos habituales son del 16 por ciento en muchos paneles de bajo rendimiento.

(3) El número de Weber es una cantidad adimensional que relaciona las fuerzas de inercia, energía mecánica debida a la velocidad, de un fluido con la tensión superficial, o fuerza debidas a la superficie de contacto de dos fluidos, por ejemplo, agua y aire. Su definición, donde aparecen la densidad del fluido, una longitud característica (en este caso el diámetro de las gotas que caen) y su tensión superficial está tanto en el artículo citado como en la entrada de la Wikipedia sobre el número de Weber.

(4) DEGs es la abreviatura en inglés de generador de energía eléctrica basado en gotas («Droplet-based Electrical Generator».)

(5) Efecto triboeléctrico es la generación de energía eléctrica debido al contacto con de un material con otro. Está muy relacionado con la electricidad estática y es un tanto misterioso en su origen último. El artículo de la Wikipedia sobre efecto triboeléctrico está muy bien: Wikipedia- Efecto triboeléctrico.