¿Contagiamos más enfermedades al hablar más alto?

Dados los tiempos que estamos viviendo, se está produciendo una cantidad enorme de publicaciones relacionadas con enfermedades de transmisión aérea. Una que me ha llamado la atención es este artículo de la revista Scientific Reports, perteneciente a la familia de Nature, que explora la posibilidad de contagios simplemente hablando, por contraste con los métodos más conocidos de estornudar y toser.

Comienzan en la introducción comentando que es bien sabido que la transmisión de enfermedades infecciosas a través de toses, estornudos y respiración es un fenómeno ya reconocido, pero en el que la importancia relativa de estos fenómenos en la propagación de enfermedades es un tema que no está claro.

Explica que al hablar y respirar emitimos partículas de un diámetro medio de 1 µm, probablemente formadas por fenómenos de ruptura de película fluida en los bronquiolos pulmonares(1) y vibraciones en la laringe. Aunque parezcan pequeñas, estas partículas son capaces de llevar con ellas bacterias y otros agentes infecciosos, dado que estos últimos tiene unos tamaños aún más pequeños, del orden de 0,050 a 0,500 µm para el virus del sarampión, por ejemplo.

Al ser más pequeñas, estas partículas tiene el potencial de ser aún más infecciosas que las más grandes, por tres razones principales:

  1. Las partículas más pequeñas aguantan más tiempo suspendidas en el aire,
  2. al ser más pequeñas pueden penetrar hasta distancias más grandes dentro del sistema respiratorio de otra persona distinta del que la emitió y
  3. el número de partículas pequeñas generadas al hablar puede ser muy superior a la que se produce al toser.

Según los autores del artículo, es este último punto el más importante. Tiene sentido: para que cualquier enfermedad pueda infectar un cuerpo, es necesario que la cantidad de virus o bacterias sea tan grande que las defensas del cuerpo no sean capaces de evitar su proliferación descontrolada en el mismo.

De hecho, dedican un párrafo a relatar la gran cantidad de evidencias que demuestran que hablar produce muchas más partículas que toser, lo que incrementa la «eficacia» del habla como portador de enfermedades.

Continúan comentando que, sin embargo, quedan varias cuestiones sin resolver: ¿afecta el volumen de lo que se dice a la generación de gotas?, ¿importas los fonemas que emitamos, es decir, la pronunciación de lo que decimos?, ¿hay diferencias significativas entre individuos? Para tratar de resolverlas, en este trabajo emplearon un sistema experimental capaz de contar las partículas desplazadas por el aire y lo emplearon para contar y medir las mismas mientras varios voluntarios hablaban.

Sus principales conclusiones son:

  1. la cantidad de partículas emitidas se incrementa según el volumen de lo que se diga, en los cuatro idiomas que usaron como representativos(inglés, español, mandarín y árabe)(2),
  2. la distribución del tamaño de las partículas es independiente del volumen con que se hable y
  3. hay algunas personas que emiten una cantidad un orden de magnitud superior a la media, diez veces más, de forma que son «superemisores» de partículas al ambiente.

Este último punto sobre todo, explicaría el fenómeno de los supercontagiadores, las personas que por alguna razón son capaces de contagiar a muchas más personas a su alrededor de lo que es habitual.

En la sección siguiente del artículo, donde explicitan los resultados, lo primero que hacen es repetir experimentos anteriores para confirmar que efectivamente, hablar provoca un aumento de emisión de partículas por parte del hablante. Como indica la figura siguiente, donde simultáneamente se presentan los resultados de un micrófono recogiendo a un voluntario diciendo algo así como «a» durante unos segundos, respirando por la nariz después y volviendo a hablar, es totalmente cierto.

Relación entre la emisión de un sonido, panel A y emisión de partículas, panel B, en el tiempo. Los picos de emisión de partículas son claros, con el retraso entre el máximo del pico y el comienzo del sonido atribuido al tiempo que tardan las partículas en llegar al detector. De la figura 1 del artículo citado.

Después, comprobaron que había una relación entre el número de partículas emitidas y el volumen de lo que se habla. Como muestra la siguiente figura, donde se reúnen datos de muchos sujetos, la relación es linealmente proporcional entre el número de partículas emitidas y el volumen de voz, medido mediante la amplitud del sonido recogido por el micrófono.

El número de partículas emitidas respecto a la amplitud empleada, medida como su media cuadrática(3). Como se puede observar, la relación es una línea recta bastante clara. De la figura 3 del artículo citado.

Como además comprobaron que el tamaño de las partículas emitidas no cambiaba con el volumen de lo que se decía, los investigadores concluyen que la cantidad de líquido emitido aumenta con el volumen de voz.

Los resultados obtenidos indican que no hay diferencias significativas entre los diversos participantes a la hora de emitir aerosoles o partículas. Como escogieron un grupo diverso de voluntarios, con diversas características físicas, como el índice de masa corporal u otras, deducen que no hay correlaciones claras entre «tipos» humanos y la capacidad de emisión de partículas. Tampoco se observaron diferencias importantes entre usar diversos idiomas, siempre que se hablen en el mismo tono de voz. Además, las condiciones de temperatura y humedad externas tampoco influencian de manera significativa la emisión de partículas.

Pero, si todos los participante emiten más o menos e mismo números de partículas, ¿cómo es que hay algunos que son «superemisores»? Pues porque sus propios datos indican que hay un grupo pequeño pero importante, en sus experimentos ocho de cuarenta, que emiten siempre un orden de magnitud más de partículas que los demás: esos son los superemisores. De echo, al comprobar la emisión de partículas en función del tipo de respiración o del volumen de lo que se habla, los superemisores se destacan con claridad, como se ve en la figura siguiente.

Número de partículas emitidas según la actividad del sujeto. En blanco, los diversos tipos de respiración (Nose, nariz, Mouth, boca, Deep-Fast, Inspiración lenta, aspiración rápida, Fast-Deep, Inspiración rápida, aspiración lenta) y en el otro color, los diversos tipos de habla (Quiet, bajo, Intermediate, normal, Loud, alto). El incremento de partículas emitidas al hablar es muy claro, como también la presencia de los superemisores, las dos cruces rojas. De la figura 5 del artículo citado.

En su sección de discusión los autores se preguntan porqué obtienen estos resultados. Empiezan diciendo que parece que, dado que al hablar activamos las cuerdas vocales, es debido a ellas que se produce el incremento de partículas, lo que implicaría que al aumentar el volumen de voz, como también aumenta ligeramente la frecuencia del habla, debería por lo tanto incrementarse el número de partículas. El problema es que para aumentar el volumen de voz, también se incrementa el flujo de aire a través del sistema respiratorio, lo que también contribuiría al aumento del número de partículas. Los investigadores concluyen que de sus datos no pueden desacoplarse los dos efectos ni su importancia relativa.

Pasan después a tratar de entender la razón de la presencia de los superemisores, diciendo que si bien pudiera ser que haya diferencias en en las propiedades de los líquidos en sus sistema respiratorio que sean capaces de provocar este aumento, no han podido analizar nada de este tema. Sí comentan que alteraciones en la químicas de las mucosas del sistema respiratorio, por ejemplo con un nebulizador de agua salada, influyen claramente en la cantidad de gotas emitidas en la respiración o el habla. Concluyen ese párrafo formulando la hipótesis de que son estos superemisores la causa de que haya algunas personas capaces de contagiar enfermedades que se propagan por el aire de manera muy superior a la mayoría, fenómeno bien contrastado y comprobado en general, y en particular en la pandemia de COVID actual.

Comentan también que el hecho de que se incremente de manera muy notable la cantidad de partículas al hablar debería tener una influencia clara en la capacidad de contagio de diversas enfermedades según el lugar donde se alojen los patógenos. Así, comentan que hay evidencias de que la tuberculosis alojada en la garganta es más contagiosa que la que se encuentra en los pulmones y que el virus de la gripe puede ser tan contagioso porque ataca preferentemente la garganta, desde donde al hablar se emiten más partículas.

En el último párrafo del artículo explican que dado que el volumen de lo que se diga tiene una influencia tan fuerte en la cantidad de partículas emitidas, ello implica que los lugares más ruidosos serán fuentes más probables de contagios que los lugares más silenciosos. Y a mí no deja de venirme entonces a la cabeza el hecho de que en España gritamos mucho más que casi cualquier otro país al hablar, lo que debería influir de manera muy negativa en la expansión de esta pandemia. ¿Quizás que hablemos más alto que otros y tendamos a tocarnos mucho más podría explicar porqué la pandemia se extiende más en España que en otros países del entorno, como Portugal?

El artículo se publicó en la revista Scientific Reports, en el volumen 9: Scientific Reports, 9, 2348

(1) La ruptura de película fluida es el fenómeno que se produce cuando en una superficie hay un líquido rodeándola y pasa un gas rápidamente. El paso del gas causa deformaciones en la película del líquido que terminan por «romperlo» y extraer gotas de líquido que serán arrastradas por el gas.

(2) Estos cuatro idiomas no sólo cuentan con un porcentaje de hablantes muy representativo del total de la población humana, sino que además poseen tales diferencias sintácticas y de pronunciación que al usarlos como ejemplos permiten generar datos útiles para todas las hablas humanas.

(3) La media cuadrática es la raíz cuadrada de la suma de los cuadrados de unos valores, divididos por el número de valores. En la wikipedia en español lo explican muy bien: Wiki:Media Cuadrática

Producción de agua y energía eléctrica solar usando el mismo aparato.

Unos investigadores han logrado que la producción de energía eléctrica y la de agua potable vayan de la mano. Normalmente, los paneles fotovoltaicos producen energía, mientras que la desalinización de agua la consume, pero ahora se ha podido hacer un aparato que produce ambas cosas a la vez.

Comienzan en la introducción explicando que la falta de agua potable y la generación de energía más limpia son problemas que están muy unidos, dado que para desalinizar agua hay que consumir grandes cantidades de energía, y para producir energía suele hacer falta agua. De hecho, comentan que cerca del 50% del agua que se extrae en algunos países es para la producción de energía. Y dado que hay cada vez menos agua, y la generación de energía debe tender cada vez más a emplear sistemas renovables, la unión de sistemas de generación de agua con células fotovoltaicas es una gran idea.

El artículo continúa recordando que la idea de destilación solar de cualquier fuente de agua, sea esta el mar o aguas residuales, para obtener agua potable ya se ha implementado, pero con rendimientos finales de agua muy bajos debido a la poca concentración de energía que tiene el sol. Esto impide el uso más generalizado de esta tecnología, porque exige grandes superficies para obtener cantidades relevantes de agua. Sin embargo, recientemente, usando sistemas multimembrana se logró generar una cantidad de agua potable que entra dentro del rango de lo comercial, expresada en el artículo como 3 kg m⁻² h⁻¹ con condiciones de iluminación de 1 sol(1). Para lograrlo, emplearon el calor que se producía durante la evaporación en una etapa como fuente de calor para la siguiente.

Además, la producción simultánea de agua potable y energía eléctrica ya se ha planteado, pero generalmente con muy poca eficiencia en la generación de energía eléctrica, por eso los investigadores cambiaron las estrategias anteriores, consistentes en usar para generar la energía eléctrica alguna energía sobrante de la destilación del agua mediante energía solar, por un sistema en el que se integró el panel solar fotovoltaico con una membrana de destilación de tres etapas.

Con este dispositivo lograron producir 1,8 kg m⁻² h⁻¹ de agua mientras la célula solar tenía una eficiencia del 11%, lejos de las mejores eficiencias actuales, que se encuentran cerca del 16-20%, pero dentro de márgenes comerciales. Además, al usar la misma superficie para destilar agua y producir energía, su uso se hace mucho más interesante la reducción tanto de costos como de superficie ocupada.

Su dispositivo tiene en la parte de arriba una célula solar comercial, y debajo tres etapas de desalinización que aprovechan el calor producido por la célula superior, que crearon ellos en el laboratorio. Para que el calor producido por la célula solar no se perdiera, cada módulo solar estaba aislado en sus paredes laterales con espuma de poliuretano, un conocido aislante. Cada etapa de evaporación de las tres que acoplaron tenía cuatro capas, de arriba a abajo:

  1. Una primera capa conductiva del calor,
  2. Otra capa hidrofílica(2), donde se evapora el agua,
  3. una membrana hidrofóbica(3) para el paso del vapor y
  4. Una capa de condensación del vapor de agua.

La última parte, la condensación del vapor de agua, produce calor que se aprovecha como fuente de calor de la capa conductiva del calor de la siguiente etapa.

La figura siguiente presenta su sistema completo, con el panel solar encima y las tres etapas de evaporación de agua salada en la parte inferior:

Sistema integrado de producción de agua potable y electricidad mediante luz solar. Las cuatro capas del sistema multimembrana de evaporación son visibles, a la vez que el aislante térmico que rodea todo el panel. Adaptado de la figura 1.a del artículo citado.

Para usar su módulo pensaron en dos posibles configuraciones, una donde el agua salada o a evaporar está circulando en circuito cerrado hasta que está tan saturada de sales que no puede evaporarse más, y otra configuración donde el agua a evaporar se bombea a la parte de arriba del panel y la salmuera que queda se elimina del panel, en un sistema de circulación continua, como indica la figura siguiente:

Configuraciones para empleo del módulo. La de la izquierda(a) es un circuito cerrado que deja de funcionar cunado hay demasiada sal en el agua a evaporar. La de la derecha(b) funciona en circuito abierto de agua, desde el depósito superior hasta el inferior, donde se acumula la salmuera.

La ventaja de primer sistema es que puede obtiene más agua, al aprovechar todo el calor residual del agua, aumentando su productividad. La mayor desventaja es que es el agua que queda con sales hay que limpiarla del sistema, y eso es caro y emplea agua limpia. El sistema de circulación continua no precisa limpieza, pero obtiene un menor rendimiento de agua limpia. Sin embargo, es mucho más fácil de implementar en un sistema comercial, donde la salmuera producida iría a parar al mar.

Tratando de caracterizar su diseño, comprobaron que su sistema multimembrana de depuración tenía un rendimiento similar al de otros sistemas publicados en la literatura, empleándola sólo como depurador. Luego, le añadieron el célula fotovoltaica y comprobaron su comportamiento bajo varias condiciones de iluminación y carga del panel solar. Los resultados obtenidos indican que la carga a la que se somete la célula solar apenas varía la producción de agua limpia, que sí es inferior al caso en el que la parte superior del módulo de evaporación es una membrana de absorción de luz solar, no un panel.

También comprobaron si el sistema podía trabajar en modo continuo durante varias horas, dejando funcionar su sistema según el esquema de flujo continuo durante tres días, observando entonces que la cantidad de agua que podían extraer era de 1,6 kg m⁻² h⁻¹ con un flujo de entrada de 5 g h⁻¹, más baja que en condiciones ideales, pero todavía viable para un sistema comercial. También evaluaron la calidad del agua introduciendo en vez de agua salada, agua salada muy contaminada con metales, y como indica la figura siguiente, el agua evaporada que obtiene es perfectamente potable:

Presencia de iones de metales pesados en agua antes(negro) y después(dorado) de ser evaporada por el sistema. Las rayas rojas indican los valores admitidos por la Organización Mundial de la Salud como máximos para agua potable. Adaptada de la figura 5.c del artículo citado.

Siguen explicando en una sección posterior que gran parte de la pérdida de la energía térmica de la célula solar se pierde porque las células solares se diseñan específicamente para tener una alta emitividad de radiación electromagnética, de forma que no se calienten mucho. La razón es que las células solares pierden eficiencia al aumentar la temperatura. Pero como en este sistema doble, el calor producido por la célula se emplea en la evaporación de agua, los autores especulan que la producción de paneles solares con una emitividad reducida mejoraría la eficiencia de su sistema.

Terminan el artículo, pecando quizás de un exceso de optimismo, comentando que la sustitución total de sistemas fotovoltaicos actuales por el que ellos proponen generaría una gran cantidad de agua.

El artículo citado se publicó en la revista Nature Communications, 10. Al estar publicado con licencia Creative Commons, es accesible a través de su web: Nature Communications volume 10, Article number: 3012 (2019).

(1) Cuando se habla de energía solar, es muy común que se especifique las cantidad total de irradiación solar necesaria respecto a la solar «estándar» de un día soleado habitual. Este último se llama iluminación a un sol.

(2) Hidrofílica: Que atrae el agua hacia su superficie.

(3) Hidrofóbica: Que repele el agua.

Pequeños drones maniobran de manera más parecida a la de los pájaros.

Los drones son sistemas que tiene variadas aplicaciones, desde hacer vídeos musicales o similares espectaculares hasta la posibilidad de ser usados en misiones militares de alto riesgo. Pero tiene un problema bastante grave: son relativamente «torpes» al moverse por el aire, si los comparamos con las maniobras que cualquier pájaro o insecto es capaz de realizar.

En un artículo reciente un grupo de investigadores logró mejorar lo suficiente el diseño de drones con alas relativamente pequeños como para que pudiera maniobrar mucho más.

Comienzan el artículo señalando que el sistema de vuelo mediante aleteo es mucho más versátil que el sistema de vuelo mediante alas fijas o rotores, que generalmente se usan en los diseños humanos. Continúa comentando que si bien hay algún vehículo alado pequeño que use aleteo y puede realizar varias maniobras, como volar hacia delante y hacia atrás, en círculos y otras, sigue siendo muy raro que puedan permanecer suspendidos en el aire.

El mayor problema no es tanto imitar las formas y estructuras observadas en la naturaleza en animales voladores pequeños, como las pérdidas por la transmisión que se producen desde el motor, que puede ser mucho más potente que el sistema vivo hasta las alas, independientemente del tipo de control o tecnología que el sistema de vuelo del robot tenga. Como ejemplos de tecnologías de vuelo citan alas flexibles que pueden rotar de manera pasiva, sin ayuda de ningún motor y almacenamiento elástico de energía para recuperar parte de la potencia del movimiento.

De hecho, las ganancias aerodinámicas por usar aleteo pueden llegar a perderse debidos a las pérdidas de energía en los engranajes del mecanismo. Los autores del artículo ven que la mayor fuente de pérdidas energéticas en la mecánica del robot es el ángulo del eje de rotor cuando se quiere realizar alguna maniobra con las alas. De hecho, comprobaron que en sistemas de transmisión directa desde el motor hasta el ala, es el problema del giro del eje el que causa mayor cantidad de pérdidas por rozamiento.

Por eso diseñaron un sistema de transmisión más eficiente, con sistemas elásticos para prevenir el giro del eje y rodamientos, de manera que minimizaron las pérdidas de energía por rozamiento y pudieron además hacer que las alas realizaran giros mucho más bruscos de lo habitual. Además, para aumentar la maniobrabilidad de su robot le añadieron una aleta en la cola, como hacen muchos pájaros.

Su diseño, en la figura siguiente, usa rodamientos para estabilizar el eje y Nylon como material elástico capaz no sólo minimizar los problemas de giro, sino también de almacenar parte de esa energía elástica y usarla en maniobras de vuelo.

Esquema del sistema de transmisión. Los rodamientos, «bearings» en inglés, están marcados en rosa, mientras bisagras de Nylon en líneas tenues violetas. La transmisión de la fuerza del motor al ala se hace mediante una biela, que es parcialmente visible en el esquema central. La foto de la derecha es una vista superior de todo el sistema de transmisión.
De la figura 2.D del artículo citado.

Como se ve, el Nylon se emplea en el sistema que tiene que doblarse para transmitir parte del movimiento del motor a los ejes que soportan las alas, que a su vez son también elásticos. Este sistema les permite tener un motor más pequeño para generar el mismo empuje que uno más grande con hélice, un sistema más habitual.

Al tener una cola que se puede mover, cuando la cola está en posición que los autores denominan «neutra», resulta que el robot presenta estabilidad pasiva, sin necesidad de sistemas activos en varias situaciones de interés(1). Esencialmente, cuando se queda quieto en una posición y cuando planea. Además, al ajustar la posición de la cola se puede ajustar la actitud(2). En general, la estabilidad del robot cuando estaba quieto depende del efecto pendular, que se consigue colocando las alas que generan el empuje por encima del centro de gravedad, como los canarios. Sin embargo, este sistema no podía emplearse directamente en planeo, porque el centro de gravedad ya no está por encima de las alas. Para mantener la estabilidad en planeo, tuvieron que modificar tanto el sistema motor como la cola, haciendo esta última con una superficie similar a la de las alas, como la figura siguiente muestra.

Fotos de frente y de perfil del robot. G indica el centro de gravedad del aparato, T el empuje que genera y W su peso. Por eso indica que T>W para elevarse verticalmente. Adaptada de la figura 1.A del artículo citado.

Con este diseño, pudieron controlar el robot de una manera tan espectacular como la que muestra la figura de abajo, que resume todas la maniobras que puede realizar.

Ilustración de todas las maniobras posibles. En naranja, la subida y permanencia estática, en verde el vuelo casi paralelo, en el recuadro superior derecho el giro brusco deltante de un obstáculo y en amarillo el vuelo inclinado y subida. Adaptado del artículo citado, película 1.

El artículo continúa explicando algún detalle más técnico, proporcionando algunas relaciones básicas para entender que gran parte de la maniobrabilidad demostrada se debe a su capacidad de cambiar rápidamente y sin un gran consumo de energía el coeficiente de rozamiento ofrecido, lo que le permite emplear el aerofrenado para moverse, a semejanza de varios pájaros. Posteriormente, comparan su sistema con otros sistemas de vuelo en términos de capacidad de proporcionar empuje respecto a la potencia eléctrica consumida(3), observando que su sistema presenta la mayor pendiente de todos, como indica la figura de abajo.

Potencia eléctrica media consumida frente a empuje proporcionado. Los círculos y triángulos son diversos tipos de hélices, las aspas rojas su diseño con bisagras rígidas y las aspas azules su diseño con aspas de Nylon. Su mayor capacidad es clara. Adaptado de la figura 4.A del artículo citado.

Termina el artículo con detalles muy técnicos sobre como puede maniobrar tan bien el robot, y examinando también parte de los métodos empleados en sus mediciones.

El artículo se publicó en la revista Science Robotics, volumen 5.

(1) La diferencia, en general, entre sistemas pasivos y activos está en que los sistemas activos precisan de algún tipo de reacción, y por lo tanto consumo de energía, tanto en el cálculo como la producción de esa reacción, mientras que los pasivos se regulan sin necesidad de intervención externa.

(2) La actitud del robot no tiene nada que ver con su comportamiento, sino con su orientación respecto al plano. Así, el ángulo de actitud del robot es el ángulo respecto al plano del suelo del mismo.

(3) Como usan motores que trabajan a voltajes constantes, esta potencia eléctrica es el producto directo del voltaje que consume el motor por la intensidad de corriente, VI, y así lo representan.

¿Cómo se desafilan los cuchillos?

No sé si alguna vez se lo han preguntado, pero no deja de ser curioso que los cuchillos y otros objetos cortantes metálicos se vayan desbastando con el tiempo. A fin de cuentas, se usan, generalmente, para cortar cosas mucho más blandas como pan, carne, etc. Y sin embargo, pasado el tiempo, todos pierden el filo. ¿Cómo sucede?

Unos investigadores acaban de publicar un artículo donde ofrecen algunas pistas.

Comienzan la introducción del artículo comentando la importancia, antes y ahora, de las herramientas cortantes para la humanidad, y como se necesitan dos características de una herramienta cortante: filo y dureza.

El ejemplo que ponen como uso común, porque luego lo emplearán en sus experimentos, es el de el acero empleado en las cuchillas de afeitar. Es un acero martensítico(1) afilado con ángulos de 17º y con un radio de la punta de 40 nanómetros, es decir 40×10⁻⁹ metros. Luego, se recubre primero con materiales aún más duros, como carbono con forma de diamante y otra capa de material deslizante, teflón(2), final.

Y aún así, como todas las personas que usan estas cuchillas saben, el pelo es capaz de desbastar su filo al cabo de unos pocos usos. Y eso a pesar de que el pelo es más de diez veces más blando que el material de la cuchilla, como la figura de abajo indica.

Escala de dureza de diversos materiales (izquierda) y foto de la cuchilla de afeitar donde se observa su estructura y los diversos dominios cristalinos del material. Adaptado de la figura 1.A del artículo referenciado.

Como cualquier cuchillo vuelve a cortar al afilarlo de nuevo, es aceptado comúnmente que el mecanismo principal que hace que se desbaste el filo es un mecanismo de desgaste. Pero el artículo indica que los primeros desgastes sufridos por la cuchilla no pueden ser debidos sólo a desgaste, por varias razones.

Primero, porque la estructura de tanto el pelo como la cuchilla son muy diferentes. Concretamente, el pelo o cualquier otro elemento general que quiera cortar el cuchillo, es una estructura homogénea con una capa externa más dura. Sin embargo, la estructura de la cuchilla es mucho más diversa, teniendo formas distintas según la escala espacial que ese emplee. Por lo tanto, dado que los modelos habituales de desgaste suelen despreciar las microestructuras internas, no pueden dar cuenta de los desgastes iniciales de las cuchillas u otros objetos cortantes.

Por otra parte, dado que las condiciones de contorno del corte varían de manera muy dinámica mientras se produce éste, hay que tenerlas en cuenta si queremos estudiar este fenómeno. De hecho, como indica la figura siguiente, hay un mínimo de tres configuraciones: cuando el pelo se corta completamente recto, cuando debido al ángulo de entrada la cuchilla interacciona con el pelo con los dos lados y por último, cuando el pelo está muy doblado.

Las tres posibilidades de corte de un pelo, con los diagramas de fuerzas que suponen sobre la cuchilla. adaptado de la figura 1.B del artículo citado.

Con todas estas dificultades, los investigadores decidieron realizar experimentos sistemáticos para tratar de entender mejor el proceso de desbastado.

Comenzaron por caracterizar las microestructuras de hojas de afeitar comerciales, lo que les permitió observar que el filo de la cuchilla no es nada liso, ni siquiera sin cortar nada, sino que tiene pequeñas indentaciones e irregularidades.

Luego diseñaron un montaje experimental que le permitió cortar de manera sistemática pelo, la figura siguiente, de forma que después de cortar un número de veces pelo, pudieran examinar la hoja y ver que había pasado.

Montaje experimental para observar parte del desgaste en la cuchilla. De la figura 2.A del artículo citado.

De hecho, observaron que las irregularidades iniciales en el filo eran lugares donde luego se iban eliminando partes de la cuchilla, como se vé en la figura siguiente:

Borde de una cuchilla sin usar (arriba) y tras realizar algunos cortes (abajo) Se puede apreciar con claridad la falta de trozos del filo tras realizar cortes. Adaptado de la figura 1.3 del artículo citado.

De todas maneras, dado que en su montaje experimental podían cambiar el ángulo, comprobaron que si la cuchilla entraba con un ángulo ortogonal al pelo, la cuchilla ni se deformaba ni presentaba las indentaciones que se ven en la figura anterior. Para poder ver estos problemas, tuvieron que inclinar la cuchilla hasta que tuviera un ángulo de 21º con la horizontal. En esta posición, parte de la fuerza que realiza la cuchilla está fuera del plano principal del movimiento, lo que conlleva deformaciones plásticas de la misma, y en último término, la rotura del filo ya vista.

De hecho, observaron que esta ruptura del filo tiene lugar generalmente en los lados del pelo, y que es independiente de factores como el ángulo relativo entre el pelo y la cuchilla o el diámetro del pelo.

Posteriormente, realizaron simulaciones con programas de elementos finitos(2) para tratar de entender mejor sus resultados experimentales.

Con ellos, pudieron confirmar que la región donde se producían las deformaciones mecánicas era la frontera del pelo y que se empezaban a producir para ángulos mayores de 8,5º de inclinación entre la cuchilla y la dirección ortogonal al pelo.

Por otra parte, para ángulos más pequeños también se producían roturas del filo, que no se podían explicar con este modelo, donde la inclinación del ángulo de entrada de la cuchilla era fundamental para producir la fuerza que generaba la deformación. Cuando los ángulos son muy pequeños, se observó que la aparición de tensiones que conducían a la rotura del filo era debido a las diferencias de composición entre los diversos granos del acero, que respondían de manera distinta a la tensión producida por el corte del pelo, lo que generaba estas tensiones entre los granos capaces de romper el filo.

Como resumen de los elementos que hacen falta para que el filo de la cuchilla se desbaste antes de que aparezcan los problemas de desgaste, los investigadores encontraron que tiene que darse tres condiciones simultáneamente, explicitadas en el dibujo posterior:

  • una cantidad de pelo que se doble tan grande como para generar fuerzas con componentes no ortogonales grandes,
  • que el proceso de creación de la cuchilla sea tal que induzca irregularidades en el filo con granos de diversas composiciones,
  • que la posición del pelo sea tal que el lado del mismo se encuentre una de estas irregularidades, y además de forma que el material más blando esté en el lado correcto del filo.
Explicación gráfica de las tres condiciones necesarias para la ruptura de una cuchilla. De arriba a abajo, las columnas muestran como el ángulo de incidencia de la cuchilla en el pelo, la irregularidad y las diferentes composiciones de la cuchilla tienen que coincidir para poder romper el filo. De la figura 4 del artículo citado.

Obviamente, que se cumplan estas tres condiciones a la vez es difícil, por eso las cuchillas aguantan varios usos antes de desbastar su filo. La cuestión es que, como comentan acertadamente en el artículo, el hecho de que la rotura inicial de pequeños fragmentos de la cuchilla se produzca por la aparición simultánea de varios criterios dificulta mucho el análisis a posteriori de las razones de la rotura del filo.

Finalizan el artículo comentando que la práctica habitual de la metalurgia es utilizar la ley de Archard(3), donde hay una correlación lineal entre la dureza y la resistencia al desgaste. Dados sus resultados, afirman que probablemente sea una buena idea tratar de homogeneizar el metal empleado y reducir el tamaño de las irregularidades que producen los procesos de fabricación para aumentar la resistencia al desgaste, además de emplear materiales cada vez más duros.

El artículo original se publicó en la revista Science, vol. 369: How hair deforms steel.

(1) En inglés se dice «martensitic», y es una forma de endurecer el acero mediante el aumento de su contenido en carbono y enfriamiento rápido. La wikipedia en inglés tiene un artículo muy decente sobre el proceso: Wiki-Martensite.

(2) El método de elementos finitos es un algoritmo para resolver con ordenador ecuaciones muy complicadas de resolver analíticamente que se basa en dividir el sistema en una multitud de pequeños subsistemas que se resuelven iterativamente. La wikipedia tiene un artículo en español bastante interesante: Wiki-Elementos finitos.

(3) La ley que correlaciona dureza con desgaste, el artículo de la wikipedia es corto, pero suficiente para hacerse una idea: Wiki – Ecuación de Archard.

Se puede trasferir el resultado del ejercicio usando componentes de la sangre.

En una investigación reciente publicada en Science, unos investigadores han logrado que los efectos del envejecimiento revirtieran en ratones mayores que no hacían ejercicio.

Comienzan el artículo hablando de la habilidad que tiene el ejercicio físico para revertir o disminuir las consecuencias de la edad avanzada en todo tipo de animales. Y comentan que es, por lo tanto, importante encontrar terapias que imiten este tipo de mejoras producidas por el ejercicio físico.

Siguen explicando que el efecto beneficioso del ejercicio en ratones de edad es muy similar al que se obtiene con transfusiones de sangre de ratones jóvenes.

Siguiendo esta línea de investigación, estos investigadores encontraron que la administración de plasma de ratones viejos que hacían ejercicio a los que no lo hacían también mejoraba de manera clara su salud. De hecho, identificaron a un compuesto producido por el cuerpo cuando se hace ejercicio como el causante de la mejora observada. El compuesto se produce en el hígado.

El procedimiento que siguieron fue el siguiente: primero, tener dos tipos de ratones mayores; uno al que se les proporcionó una rueda y otro a los que se les proporcionó material para hacer nidos. A los dos grupos se les extrajo sangre y, de ella, se extrajo sólo el plasma. Después, a un tercer grupo de ratones «ancianetes» se les inyectaron ambos grupos de plasmas, observando que se observaba mejoría solamente en los ratones que recibían el plasma de los ratones que hacían ejercicio.

Dado que también se mejoraba la salud de los ratones que recibían transfusiones de ratones jóvenes, quisieron encontrar qué factor exacto era el que mejoraba la salud de los roedores. Entonces, trataron de encontrar qué elementos dentro de la sangre eran los que causaban el efecto principal de luchar contra el envejecimiento. Dado que vieron que cerca del 60% o más de los factores que se expresan debido al envejecimiento tenían su origen en el hígado, buscaron aquellos factores que se expresaban allí. De todos los factores que se expresan, encontraron que dos de ellos estaban presentes en abundancia. De los dos, decidieron centrarse en la presencia de una enzima, llamada Gpld1 que no había estado previamente enlazada con el envejecimiento.

Confirmaron posteriormente que su concentración aumentaba en el plasma de los ratones que hacían ejercicio, independientemente de su edad. De hecho, esta concentración del compuesto Gpld1 se correlacionaba con menos errores de memoria al hallar la salida a un laberinto, como muestra la figura siguiente:

Correlación entre la concentración del factor Gpld1 en la sangre y la ausencia de errores en ejercicios de memoria. De la figura 2 E del artículo citado.

Después quisieron encontrar la fuente de este factor en el cuerpo de los ratones, y correlacionaron la expresión de sus genes con el hígado. Este resultado es consistente con investigaciones precias citadas en el artículo que indican que es éste órgano el responsable de su generación. Por otra parte, observaron que la generación del ARN(1) que expresa este factor en el cuerpo no cambian en función de la edad, o administración del mismo en ninguno de los ratones examinados. Pero sí observaron que el ARN se expresaba más después de hacer ejercicio, lo que les induce a pensar que justamente es el ejercicio el desencadenante de este factor Gpld1 en el hígado, y no otro.

Trataron luego de entender la ruta metabólica seguida por el factor Gpld1 en el cuerpo, sin demasiado éxito, dado que no fueron capaces de entender del todo cómo lograba sus resultados. Sí pudieron observar que no es a través del paso directo al cerebro, puesto que este factor apenas aparecía expresado en el cerebro.

Sigue después una sección previa a la discusión final del artículo en la que comentan que es necesario para que este factor Gpld1 trabaje que haya un sustrato en el cuerpo, pero debo reconocer que debido a mi falta de conocimientos de anatomía, no terminé de entender ni qué sustrato es, ni dónde debe estar.

El punto interesante de este artículo es que el uso de sangre o plasma de animales que hayan hecho ejercicio si se transfiere mediante transfusión del plasma sanguíneo, favorece también a animales que no hayan hecho ningún ejercicio.

El lector de ciencia-ficción ciberpunk que anida en mi no puede evitar pensar que, dado este resultado, en poco tiempo habrá un trabajo que sea hacer ejercicio para que te extraigan plasma los ricachos vagos que prefieren pagar antes que sudar para «envejecer» mejor…

El artículo citado se publicó en Julio de 2020 en Science, volumen 369: Horowitz et al., Science 369, 167–173 (2020).

(1) El ARN es el «producto» que se segrega dentro de las células para producir cualquier material o factor que la célula produzca. Así, si hay una gran cantidad de ARN que esté asociado a un factor determinado, quiere decir que cuanto más ARN de este tipo, más factor producirá la célula dentro del órgano.

Se logra convertir la energía cinética delas gotas de agua en electricidad

En un artículo publicado en la revista Nature, un grupo de investigadores logran mejorar sistemas previos que ya existían para recolectar la energía cinética de gotas de agua cayendo y transformarla de manera más eficiente en electricidad.

Basan sus resultados en investigaciones previas en las que pudieron demostrar la inducción de carga por gotas de agua en la superficie de materiales fluorados(1) usando teflón como material principal superior.

Como indica la figura siguiente, el dispositivo está formado por una capa exterior de teflón en contacto con un electrodo de aluminio, que conecta eléctricamente esta capa exterior con una inferior de un óxido de estaño e indio, ITO por sus siglas en inglés, este último una tierra rara muy cara.

Construcción del dispositivo capaz de usar gotas de lluvia para producir electricidad.
De la figura 1 del artículo citado.

Como se ve en la figura, la capa del óxido y el electrodo de aluminio están conectado y no debería pasar electricidad a través de ellos, a menos que se acumule carga de alguna manera en alguna de las superficies. Y eso es lo que pasa al caer gotas de agua en la parte del teflón, que carga eléctrica se acumula según van cayendo gotas de agua hasta que el valor de la carga eléctrica alcanza un valor de saturación de en torno 50 nC, como indica la figura de abajo.

Carga obtenida en la capa de teflón según el número de gotas de agua. La escala de gotas es del orden de 10.000, saturando el valor máximo de carga obtenido en sus dispositivos para unas 16.000 gotas, aproximadamente.
De la figura 1 c del artículo citado.

Independientemente del mecanismo por el que se produce la carga eléctrica, está claro que hay un valor de saturación de la misma cerca de los 50 nC que comenté antes.

Cada uno de los dispositivos fabricados, hicieron tres en una línea, podía sostener un voltaje de en torno a 140 V con una corriente de 270 µA. Con una resistencia de alrededor de 330 kiloOhmnios, logran unas densidades de potencia de cerca de 50 W/m². Por comparación, lo que se había logrado hasta ahora con dispositivos de este tipo, pero con superficie de aluminio directamente, eran unos voltajes 295 e intensidades de corriente 2.600 veces más pequeñas. No está nada mal.

Los sistemas fotovoltaicos actuales comerciales obtienen potencias del orden de los 200 W/m²(2), lo que quiere decir que están ya en camino de convertirse en una alternativa razonable de generación de energía.

Su eficiencia de conversión de la energía cinética de la gota que cae es del orden del 2%. Las primeras células solares comerciales tenían eficiencias de ese orden de magnitud, desde el 2 al 8%, como indica la figura siguiente, extraída de la entrada de la Wikipedia sobre paneles fotovoltaicos.

De National Renewable Energy Laboratory (NREL) – National Renewable Energy Laboratory (NREL), Golden, COUnited States Department of Energywebsiteimagepdf imageexplanatory notes, Dominio público, Enlace

Los investigadores prosiguen en su artículo buscando las razones del incremento tan fuerte en la eficiencia respecto a sistemas anteriores. Pudieron observar experimentalmente que las cargas eléctricas transportadas por las gotas no variaban al impactar en el material, con lo que su cambio no era la causa de la mejora observada.

Entonces, fijaron su atención en la variación de la corriente y cargas en el dispositivo a lo largo del tiempo, notando que ambos parámetros oscilaban en función de si la gota tocaba el electrodo de aluminio o no. Cuando la gota comenzaba a tocar el electrodo de aluminio, se producía una transferencia de corriente desde la superficie del teflón hasta el electrodo de óxido ITO, mientras que cuando se retiraba la gota, sucedía al revés y la corriente primero se volvía negativa para alcanzar un valor final de cero. Este resultado se comprueba en la figura de abajo, donde se ve la dinámica de la corriente producida por una gota en un dispositivo.

Dinámica de la corriente eléctrica en el dispositivo al caerle una gota. Se observa como la corriente sube muy rápidamente cuando la gota toca el electrodo de aluminio y se hace negativa al retirarse la gota del mismo, sobre todo en la ampliación de escala de la derecha, parte c de la figura.
De la figura 2 b c del artículo citado.

Los autores del artículo proponen, basado en este comportamiento y en el hecho de que la posición del electrodo de aluminio que conecta la superficie de teflón con el óxido ITO no afecta a la eficiencia del dispositivo, que la corriente se transfiere desde el ITO hasta el teflón y viceversa en ciclos reversibles. La reversibilidad del sistema se apoya en que no han podido observar que la eficiencia del dispositivo varía con el tiempo, lo que quiere decir que no hay elementos que se «gasten» en el tiempo.

Tratando de entender mejor qué lleva su dispositivo a ser tan eficiente, usaron el número de Weber(3) de las gotas que caen sobre él. El resultado se puede resumir en la figura siguiente, extraída del artículo:

Carga obtenida en función del número de Weber de la gota. Noten que hay una cierta saturación de la carga para un valor del orden de 100 en una carga de 50 µC, como ya había comentado antes.
De la figura 2 e del artículo citado.

Esto querría decir que es importante que para lograr incrementos de carga, es más importante la energía cinética de las gotas que su tensión superficial.

Dado que es un sistema eléctrico, los investigadores usaron la teoría de circuitos y los datos que ya poseían para tratar de modelarlo. Y lo lograron con un sistema con tres condensadores:

  • Uno superficial con las superficies de agua y teflón,
  • otro del mismo tipo entre las superficies del agua y el aluminio,
  • el tercero, volumétrico, con el teflón como dieléctrico y las superficies agua/teflón y teflón/óxido ITO como electrodos.

De los tres, en principio el tercero sería el más pequeño y el que se carga gracias a los otros dos «condensadores» que se forman por la interacción de la gua con las superficies citadas. Si este modelo fuera adecuado, podrían estimar la carga máxima. Haciendo los cálculos, los investigadores obtuvieron un valor para las dimensiones de su dispositivo cercano a los 50 µC medidos, lo que les dá confianza en que su modelización es correcta. Por otra parte, en ese caso el voltaje que se obtiene debería ser directamente proporcional al ancho del teflón, lo que la figura de abajo confirma claramente.

Relación lineal del voltaje con el ancho del teflón en su dispositivo y como la carga acumulada es independiente del mismo. Ambos datos apuntan que su modelo eléctrico del dispositivo es acertado.
De la figura 3 c del artículo citado.

Los investigadores comentan que la forma de funcionar del dispositivo se confirma con simulaciones moleculares que realizaron, donde pudieron observar que las cargas iónicas que llevara el agua se separan en las superficies del teflón y el electrodo de aluminio, una vez que en la simulación añadían cargas estáticas en el teflón y el aluminio.

Por último, además de un sistema de laboratorio, hicieron un prototipo que probaron con agua de lluvia y agua de mar, para observar su eficiencia. Comprobaron que la eficiencia con los dos últimos tipos de agua, el sistema era menos eficiente porque generaba menos voltaje, aunque aún tenía eficiencias relativamente aceptables. El prototipo desarrollado y los voltajes obtenidos con los diversos tipos de agua están en la figura siguiente.

La figura superior muestra el dispositivo empleado, donde el depósito superior almacena el agua, independientemente de su origen, el regulador de flujo del medio hace que las gotas caigan en los dispositivos que generan la electricidad, los llamados DEGs (4). La figura inferior muestra que los tres tipos de agua empleados, el más eficiente es el gua de grifo, «tap water» en inglés y el menos eficiente, el agua de mar, «sea water».
De la figura 4 b d, del artículo citado.

Dos detalles me llamaron la atención sobre el artículo. El primero, que dado que la generación principal de carga está relacionada con la electricidad estática a través del efecto triboeléctrico(5), y esta no está nada clara, los propios autores del artículo tiene que pasar muy por alto la acumulación de carga inicial en su dispositivo. La otra, que a pesar de no tener claro el motivo por lo que algo funciona, por qué funciona, eso no necesariamente es un obstáculo para hacerlo mejor, porque hay elementos del modelo que explica cómo funciona que pueden soslayarse.

El artículo salió publicado en la revista Nature, volumen 578 y está disponible en abierto en la dirección de la revista: Nature, 578, 392–396(2020).

(1) Un material fluorado es un polímero en el que se han sustituido algunos átomos de carbono por átomos de flúor. Uno de los más conocidos es el teflón empleado en este artículo, cuya fórmula química es (CF2 – CF2)n

(2) Esta cifra se ha obtenido suponiendo una eficiencia total del panel del 20%, bastante cercana a los mejores paneles solares y una irradiancia solar de 1.000 W/m², valor ideal. Los valores reales de potencia solar serán algo más bajos, probablemente cercanos a los 160 W/m² porque los rendimientos habituales son del 16 por ciento en muchos paneles de bajo rendimiento.

(3) El número de Weber es una cantidad adimensional que relaciona las fuerzas de inercia, energía mecánica debida a la velocidad, de un fluido con la tensión superficial, o fuerza debidas a la superficie de contacto de dos fluidos, por ejemplo, agua y aire. Su definición, donde aparecen la densidad del fluido, una longitud característica (en este caso el diámetro de las gotas que caen) y su tensión superficial está tanto en el artículo citado como en la entrada de la Wikipedia sobre el número de Weber.

(4) DEGs es la abreviatura en inglés de generador de energía eléctrica basado en gotas («Droplet-based Electrical Generator».)

(5) Efecto triboeléctrico es la generación de energía eléctrica debido al contacto con de un material con otro. Está muy relacionado con la electricidad estática y es un tanto misterioso en su origen último. El artículo de la Wikipedia sobre efecto triboeléctrico está muy bien: Wikipedia- Efecto triboeléctrico.

¿Es el Software libre resistente a todo tipo de usuarios?

El software libre, producido bajo los principios de las cuatro libertades de ejecución, estudio, modificación y distribución(1), ocupa un lugar cada vez más importante en nuestras vidas, al ser el que soporta una gran cantidad de puntos fundamentales de la red internet actual. Por lo tanto, una cuestión relevante es cuán fácil o difícil es que un determinado software libre pueda seguir adelante en el tiempo según sus usuarios, que también suelen ser los que lo mantienen.

En el artículo que comento, empiezan en la introducción repitiendo que debido a su naturaleza, el mantenimiento de una base grande de usuarios comprometidos y capaces de modificar y ajustar ese software según se necesite es fundamental para el éxito de cualquier programa de este estilo.

Continúan señalando que debido a su naturaleza abierta y al éxito del modelo, hay cada vez más programas similares desarrollándose a la vez, lo que supone que hay una competición muy fuerte entre los diversos programas por captar y atraer los usuarios. Personalmente creo que con frecuencia varios de estos proyectos se unen o termina quedándose solo uno, pero el que se queda ha ganado la «competición», desde luego.

En cualquier caso, la robustez(2) de su red es muy importante. Y por eso los autores de este artículo se pusieron a estudiarla para las redes típicas de generación y mantenimiento de software libre.

Continúan diciendo que la mayor parte de los estudios sobre la robustez de redes se refería a redes físicas, como las de transmisión eléctrica, transporte, etc. Así, hay menos estudios sobre redes virtuales, si bien al aumentar tanto la importancia y cantidad del software libre, algunos estudios se han realizado. En su revisión rápida de la introducción, los autores de este artículo citan trabajos sobre software libre en los que encontraron algunas características de estas redes de trabajo, que se pueden resumir así:

  • Cambian su capacidad de resistencia a ataques externos según el tipo de escala que tenga la red,
  • Para que un proyecto pueda sobrevivir, es fundamental que su sistema de reclutamiento y mantenimiento de personal sea efectivo,
  • Su propia estructura de centro fuerte y una gran periferia más débil de usuarios la hace muy resistente a ataques externos, pero deja el proyecto en riesgo de anquilosarse si lo hace el centro,
  • Si un usuario de la red que posee una gran parte del conocimiento del programa se marcha, el proyecto sufre y puede llegar a abandonarse.

Además, también citan dos artículos que analizaban el código desde el punto de vista de si el software libre está mejor o peor codificado que otros tipos. Pero todos estos trabajos sobre la robustez se centran en algún punto concreto, mientras que los autores de este artículo pretenden centrarse precisamente en la robustez en sí de las redes de software libre.

Centrándose más en materia, los autores del artículo comentan que los contribuyentes a proyectos de software libre reconocen que es muy importante para que el proyecto saga adelante que se intercambie información técnica o de habilidades de programación, mientras que otro tipo de datos, como felicitaciones, no es tan importante. Además, hay un conjunto importante de usuarios llamados «vaqueros de grupa»(3), que ni contribuyen ni colaboran al proyecto, la gran mayoría de usuarios, entre los que me encuentro.

Este trabajo se centra en el problema que puede suponer para un proyecto de este tipo la pérdida de usuarios con conocimiento. Uno de los problemas con los que se encuentran es que la mayoría de las investigaciones sobre la robustez de redes se centran en redes estáticas, mientras que por su propia naturaleza las redes que producen software libre son muy dinámicas, con los miembros cambiando a lo largo del tiempo mucho de manera muy fluida. Además, la mayoría de estudios sobre la robustez de redes emplean algún tipo de medida que tiene en cuenta la propia estructura de la red, no el conocimiento de sus miembros, que en redes de programación es fundamental, puesto que la pérdida de demasiado conocimiento causa que el proyecto fracase.

Para ello, emplearon redes de producción abierta de coches de la empresa Local Motors, que tiene una filosofía abierta sobre su fabricación y desarrollo de productos. Construyeron una base de datos de 11 proyectos de su web durante 8 años. Para construir la red, tuvieron que observar las 25472 comunicaciones de sus 1689 usuarios. Un trabajo complicado, que se tradujo en una red con nodos, los usuarios que poseen conocimiento, y filos, las formas en las que ese conocimiento se transmite por los nodos.

Al observar la evolución histórica delas diversas redes de la compañía, representada en la figura 1, pudieron dividirlas en tres estados: comienzo, crecimiento y madurez. En los tres estados, la redes son del tipo «mundo pequeño», lo que quiere decir que la colaboración se produce entre agrupaciones pequeñas de los nodos de la red, más que entre todos los nodos. También observaron que son redes libres de escala, es decir, que sus características fundamentales no varían según el tamaño de la red.

Evolución temporal de la red que estudiaron. Figura 1 del artículo citado.

Al tratar de separar los usuarios (nodos) de la red, observaron tres comportamientos típicos: los innovadores, los diseñadores importantes y los usuarios comunes. Con la red inicial, apenas había usuarios diseñadores o comunes, en comparación con las redes en crecimiento y maduras. De manera bastante lógica, es este último tipo de red la que tiene una mayor proporción de usuarios diseñadores y comunes frente a innovadores.

También pudieron contar el número de usuarios por tipo que se unían a la red o que la dejaban, observando una gran variabilidad temporal, que se puede ajustar por una ley de potencias del estilo:

y = a * xb,

tanto para los usuarios que llegan como para los que se marchan.

Luego tratan de ver como las pérdidas de usuarios podrían afectar a la red, para lo que definen dos tipos principales de pérdidas, las aleatorias y voluntarias. Las aleatorias son nodos que simplemente, cambian dentro de la red, pero que pueden volver a la misma, mientras que las voluntarias son personas que por cualquier motivo deciden dejar el grupo, llevándose su conocimiento con ellos.

Tras definir estos valores, hacen simulaciones en los que representan la pérdida de estos tres tipos de usuarios para las tres redes, inicial, en crecimiento y madura, con el propósito de observar cuán resistentes son.

Cuando la red es inicial, sus resultados demuestran que la misma es muy sensible a la pérdida de usuarios innovadores, que pueden hacer que la red incluso caiga si son demasiados. Por la misma razón, además de evitar que se vayan por la pérdida de conocimiento que supone para la propia red, es importante tratar de que diseminen rápidamente su conocimiento para que se transmita lo antes posible.

Para las redes en crecimiento la situación es parecida, en el sentido de que la pérdida de usuarios deliberada puede hacer que la red deje de funcionar. Sin embargo, las pérdidas aleatorias de usuarios no le afectan tanto, siendo una estructura muy resistente a ellas.

En las redes maduras, la influencia de los usuarios innovadores se incrementa, en el sentido de que cuando ellos desparecen, la red sufre mucho más que en los casos anteriores, también debido a que todos los usuarios comparten mucho más conocimiento que en otros estados de las redes. Por ello, en este tipo de redes es fundamental la distribución de tareas que logre una mayor implicación de los miembros de la misma.

El artículo termina con una serie de recomendaciones para que las comunidades de este estilo puedan crecer y prosperar según el estado en el que se encuentra la comunidad, que se pueden resumir en las siguientes ideas:

  • Para los gestores de la comunidad:
    1. para comunidades iniciales, lograr que los usuarios con conocimiento aumenten al interaccionar en la red e incrementar el número de usuarios.
    2. Para una comunidad en crecimiento, hay que establecer mecanismos de protección de los usuarios que saben, para evitar su pérdida.
    3. Si la comunidad es madura, se deben establecer mecanismos para estimular los usuarios diseñadores e innovadores, para tratar de evitar su pérdida.
  • Para los usuarios:
    1. Tratar de tener una gran diversidad de usuarios,
    2. animar a los innovadores y diseñadores a compartir conocimiento, para incrementar su número,
    3. animar a los usuarios normales a aceptar desafíos, con la idea de que se conviertan en usuarios experimentados.

El artículo se publicó en la revista Physica A, Statistial Mechanics and ist Applications, 15 February 2020, 122888.

(1) En la página de la asociación para el software libre explican (en inglés) estos cuatro principios: What is free software?

(2) Es mi traducción de la palabra «robustness» que emplean en el artículo. Se trata de la habilidad de cualquier sistema en red de resistir perturbaciones o falos, internos o externos, sin dejar de cumplir su función. La Wikipedia en inglés tiene un artículo decente sobre el tema: Robustness of complex networks.

(3) En realidad en inglés los llaman «free riders», pero me parece que se conserva mejor el sentido si se traduce pensando en vaqueros, entendidos estos como personas que cabalgan. Además, es mucho más divertido.

Los metales también son fluidos, aunque algo raritos.

Cuando les explico a mis alumnos el concepto de medio continuo, siempre trato de que se den cuenta de que los fluidos no sólo son los líquidos y gases a los que estamos acostumbrados, que otros elementos pueden ser fluidos bajo circunstancias favorables. Por ejemplo, el metal mercurio fluye a temperatura y presión habituales. Y hay aleaciones de metales que calentados con el calor de la mano, empiezan a fluir porque su temperatura de fusión es muy baja, por debajo de la corporal, como por ejemplo el galio(1). Además, determinadas aleaciones que tienen una gran utilidad industrial, o que pueden tenerla en el futuro, son líquidas a temperaturas no tan altas.

Una de estas aleaciones es la de plomo con litio, que es líquida a temperaturas del orden de los cientos de grados y que se pretende usar para recoger la energía de los futuros reactores de fusión. La idea es que esta aleación se caliente un montón en el núcleo del reactor y que después intercambie parte de ese calor con un intercambiador externo, que moverá una turbina para producir energía eléctrica.

Para poder hacer todo esto, además de estudiar la forma de lograr fusión con generación positiva de energía, hay que tener claro cómo se mueve el fluido formado por la aleación de plomo y litio. Pero hay un problema: al ser dos metales, son muy sensibles a los campos eléctricos y magnéticos, de forma que las ecuaciones y números adimensionales habituales en la mecánica de fluidos no son suficientes, hay que usar lo que se denomina magneto-hidrodinámica. Es decir, la unión de las ecuaciones que gobiernan el movimiento de los fluidos con las que presentan el movimiento de las cargas eléctricas. Y eso es lo que hicieron, al menos en parte, en un estudio muy interesante en el que hicieron fluir esta aleación por una tubería de acero calentada por debajo.

Comienzan el artículo diciendo que los metales líquidos se han propuesto como enfriadores y generadores de helio, esto último el litio(2). Se pretende emplear estas aleaciones por su alta capacidad térmica, que pueden absorber mucho calor de la reacción de fusión, y su alto punto de ebullición, que necesitan temperaturas muy altas para ponerse a hervir, es decir, a transformarse en gas metálico. Al ser metales, como ya comenté antes, tienen que tenerse en cuenta los efectos de las cargas eléctricas y los campos magnéticos, y de hecho varios estudios, según los autores del artículo, lo han hecho así. Por otra parte, los movimientos de transporte de calor mediante fluidos(3) para estos metales bajo la acción de un campo magnético son importántisimos en la metalurgia y el crecimiento de cristales. No deberíamos olvidar que los metales son cristales, y que sus propiedades dependen en gran manera de qué tipo de cristal forma al enfriarse el metal, que a su vez depende de manera muy fuerte de los flujos de la fase líquida del metal, con lo que la investigación de estos autores tiene muchos usos, amén del simple placer de saber más sobre un sistema tan interesante como son los líquidos con propiedades eléctricas.

La introducción sigue comentando que una gran cantidad de estudios numéricos se han hecho para poder definir varios parámetros de la dinámica de estos líquidos, junto con varios estudios experimentales, especialmente con líquidos que se parecen mucho a los metales, pero que no lo son.

Continúan después explicando las fuerzas principales que actúan sobre la convección en un líquido que responde a campos magnéticos: la fuerzas electromagnéticas, la de flotación(4) y las de inercia, o movimiento, cuando el fluido posee viscosidad.

Las fuerzas electromagnéticas por un lado, aumentan la disipación de parte de la energía cinética del fluido debido al rozamiento forzado por los campos magnéticos, lo que reduce su inestabilidad, y por otro genera estructuras que provocan sus propios tipos de inestabilidades.

Las fuerzas de flotación hacen que el fluido se «organice» en columnas para conectar las regiones más calientes y las más frías, mientras que las fuerzas de inercia facilitan el movimiento del fluido a lo largo del flujo.

Los investigadores trataron de observar el efecto de cada una de estas fuerzas independientemente en la dinámica del fluido, para lo que usaron una instalación experimental interesante.

Sistema experimental empleado. Se observan las termocuplas empleadas para medir la temperatura de las termocuplas, los calentadores del fluido y el aislamiento para poder tener el metal a una temperatura más o menos constante. De la figura 1 del artículo citado.

Para poder tener datos de tanto la temperatura como el campo eléctrico, las termocuplas (distribuyeron 123 en todo el experimento) se usaban de doble forma: la punta de la misma proporcionaba información sobre la temperatura del fluido, mientras que el aislamiento que la rodeaba se empleaba para medir el potencial eléctrico al que estaba sometido. Además, usaron medidores de flujo y como se muestra en la figura superior, tenían platos calentadores capaces de proporcionar una gran cantidad de energía calorífica al fluido. Posteriormente, los autores del artículo dedican una cierta cantidad de espacio a explicar cómo realizaron los experimentos que no reseño, centrándome más en los resultados principales. Para poder estudiar una gran cantidad de valores, variaron los parámetros de velocidad, campo magnético y flujo de calor según la tabla siguiente:

Parámetro Valores
Velocidad(cm/s) 1, 2, 3, 4, 5, 10, 15, 20
Campo magnético (T) 0; 0,5; 1; 1,5
Flujo de calor (W/cm²) 0, 2, 4, 6

Uno de los resultados experimentales que observan, y que les permite confirmar que su sistema de medidas es adecuado, es que al aumentar la velocidad del fluido y cambiando el campo magnético aplicado, aumenta la desigualdad en la distribución de temperaturas a la salida del conducto. Cuando este campo se hace cero, apenas hay cambios en la distribución de temperaturas del fluido, aparte de una disminución de las diferencias entre las temperaturas de entrada y salida del conducto al aumentar la velocidad del fluido.

Para poder extender sus resultados y aplicarlos a situaciones muy distintas de las estudiadas experimentalmente, emplearon números adimensionales. Como querían estudiar el efectos de tres fuerzas, usaron los tres números siguientes:

Donde Ha es el número de Hartmann, Re el de Reynolds y Gr el de Grashof. Thw es la media de la temperatura de la pared, T0 la del fluido.

Ha² proporciona la relación entre las fuerzas electromagnéticas y viscosas, o de rozamiento, el de Reynolds relaciona las fuerzas de inercia o movimiento con las viscosas y el de Grashof si la fuerza de flotación domina a la de rozamiento o viscosa. Además, para poder cuantificar el efecto de la convección, se precisa el número de Richardson, definido como Gr/Re², y que proporciona la relación entre las fuerzas de flotación y las viscosas. Lo que pudieron observar es que hay tres regímenes de movimiento, cada uno dominado por una de las fuerzas.

Así, en el régimen donde la fuerza de flotabilidad domina el movimiento del fluido, precisamente por ser la fuerza dominante la de flotabilidad, se forman células convectivas que se alteran con la presencia del campo magnético y en función de la velocidad, pero siempre son los elementos dominantes del movimiento del fluido.

Cuando el campo magnético es lo suficientemente alto, más de 0,5 Tesla en este experimento, entonces el fluido está dominado por la fuerza electromagnética, lo que hace que es fluido la temperatura del fluido se estratifique, con capas claras de diferentes temperaturas. en principio, este tipo de flujos son inestables a números de Reynolds suficientemente altos, pero no pudieron observarlo en sus experimentos, precisamente porque el número de Reynolds que podían obtener era muy bajo. Cuando las velocidades que empleaban para el fluido eran altas, mayores de 10 cm/s, entonces entraban en un régimen dominado por las fuerzas de inercia. En ese caso, las influencias tanto del campo magnético como de los flujos de calor eran muy bajas en el movimiento final, de tipo turbulento y con temperaturas casi uniformes a lo largo de todo el tubo, con pequeños gradientes cerca de la pared. También observaron que en este régimen de movimiento son las fuerzas de inercia las que dominan la transferencia de calor dentro del fluido. De hecho, para poder cuantificar las diferencias entre flujos y transferencias de calor en los diferentes regímenes de movimiento que observaron, usaron otro número adimensional, el número de Nusselt(5), que describe la relación entre convección y conducción para la transferencia de calor. El empleo de este número les llevó a poder hacer el siguiente gráfico:

Valores del número de Nusselt en función del de Richardson con varios números de Hartmann. Adaptado de la figura 6 del artículo citado.

En él se observa que las diferencias en el número de Richardson pueden explicar los tres tipos de regímenes vistos anteriormente. Cuando este número es muy pequeño, Ri < 0,1; entonces las fuerzas de inercia dominan el movimiento, puesto que el flujo de calor presenta una dependencia leve con el campo magnético. Si el número es muy grande, mayor de 10, entonces la presencia del campo magnético es determinante y el papel de la convección natural es mucho más importante también. Ambos fenómenos se reflejan en que los diversos valores del campo magnético apenas cambian el valor del número de Nusselt, pero su presencia o ausencia, Ha distinto o igual a cero respectivamente, sí que cambia el valor de Nu mucho. Por último, hay una gran zona intermedia, con valores del número de Richardson entre estos dos extremos donde ni la inercia ni las fuerzas de flotación dominan el régimen del fluido, pero ambas son importantes.

El artículo continúa con distintas secciones donde presenta simulaciones con ordenador que confirman sus resultados y una sección donde discute los tres regímenes de movimiento que se observaron y confirma lo que ya dijeron antes sobre la influencia de cada tipo de fuerza en su régimen correspondiente.

El artículo se publicó en la revista Physics of Fluids, volumen 32 067107 (2020).

(1) Una web dónde explican un poco la historia de este metal y sus propiedades es esta entrada: Galio, el metal que se derrite en la mano.

(2) En inglés, el término es «breeder». Lo que quieren decir es que el litio , al ser golpeado por un neutrón, se transforma en tritio (H³) el combustible del reactor de fusión. Y como en el proceso de fusión de forman una gran cantidad de neutrones, pues podría formar el mismo combustible la propia reacción de fusión.

(3) Generalmente llamados «convectivos».

(4) Las fuerzas de flotación , «buoyancy forces» en inglés, son las debidas a diferencias de temperatura dentro del fluido, que a su vez altera la densidad del mismo, lo que provoca cambios en el movimiento del fluido. Es de todos sabido que el aire caliente tiende a subir y el frío a bajar, por ejemplo.

(5) El artículo de la wikipedia es bastante aceptable sobre el tema: Número de Nusselt – Wikipedia.

Los móviles inteligentes se emplean para pensar menos.

Antes de comenzar con este comentario, un pequeño apunte personal. Como todo ser humano, soy algo paradójico. Por un lado, me apasiona la ciencia ficción y la tecnología, me encanta saber cómo funcionan las nuevas tecnologías que se desarrollan y tratar de probar varias de ellas, aparatos nuevos, etc. Por el otro, no dejo de ver y observar los graves inconvenientes que cualquier tecnología trae al ser humano, y concretamente, soy incapaz de sentir la acrítica alegría que observo frecuentemente sobre la introducción de los teléfonos inteligentes en nuestras vidas y sus efectos, siempre vistos desde sólo el punto de vista positivo. Por eso, este artículo que quiero resumir es perfecto: como sucede con frecuencia en ciencia, comienza con una pregunta: ¿afecta de alguna manera medible la posesión de un teléfono móvil al uso de la inteligencia? La respuesta, que desarrollaré, es que sí: el uso de teléfonos inteligentes fomenta la búsqueda de respuestas rápidas y fáciles sugeridas por el móvil en lugar de pensar de manera independiente y analítica, al menos para gente predispuesta a ello.

Comienzan en la introducción con una cita de McLuhan bastante famosa que se puede traducir, más o menos, como: «El medio es el mensaje». Es decir, que la información que nos trasmitimos, luego nuestra cultura, no es independiente del medio que se escoja para trasmitirla. Por ello, afirma que dado que la cantidad de móviles inteligentes ha explosionado en los últimos años, y que su número no para de aumentar, parece claro que se han convertido en un mensaje. Mensaje que en el artículo pretenden ayudar a descifrar.

Después de esta introducción, comienzan por definir la «mente extendida», el concepto que indica que la mente humana actúa acoplada con un ambiente exterior, de forma que influencia y se vé influenciada en su actividad cognitiva por ese ambiente. Luego dicen que dentro de esa mente extendida, es muy importante el concepto de «sistema cognitivo extendido». Un elemento tecnológico que permite realizar una función externamente a la mente que sin esa tecnología tendría que realizarse de manera interna. Un ejemplo sencillo es apuntar un número para recordarlo en un papel. En ese sentido, como apuntan los investigadores, los teléfonos móviles son un sistema cognitivo extendido muy poderoso y que se extiende ahora a una parte muy importante de la población humana total sobre la tierra. Concretamente, el número de usuarios de teléfonos inteligentes en la Tierra ahora mismo ronda la mitad de la población total (49%, 3.800 millones de teléfonos sobre un total de 7.800 millones de personas(1)). Y dado que una parte importante de la «inteligencia» de los móviles viene del hecho de que están conectados a Internet, y que ésta se usa y comprende como una memoria externa de fácil acceso, los investigadores comentan los sorprendentemente escasos artículos sobre el uso de los móviles como sistema cognitivo extendido.

En un apartado posterior reafirman, con una impresionante colección de once referencias, la teoría ampliamente aceptada de que los seres humanos somos «avaros cognitivos», es decir, que si podemos escoger una solución intuitiva a cualquier problema complejo, no lo pensamos y usamos la respuesta intuitiva. Esto nos lleva a descansar nuestros procesos mentales en soluciones más sencillas y atajos mentales de manera desproporcionadamente alta respecto a su eficiencia real.

Así, formulan la hipótesis de que dado que tenemos una tendencia general a buscar soluciones intuitivas y rápidas en vez de usar nuestro cerebro en procesos cognitivos más complicados, con la llegada de los teléfonos móviles es posible que su uso se vea correlacionado con el menor empleo de inteligencia analítica y menor inteligencia. Para comprobar esta hipótesis, realizaron tres estudios, que describen a continuación. Como aquí comienzan ya con temas muy técnicos, resumiré solamente las partes más fundamentales.

El primer estudio se llevó a cabo con ciudadanos norteamericanos de ambos sexos. Querían comprobar si el uso, o la tenencia, de un teléfono inteligente se correlacionaba con medidas de la inteligencia.

Observaron que el uso frecuente de estos dispositivos tenía una correlación positiva con valores más pequeños de empleo de cognición, es decir, las personas que empleaban más teléfonos móviles usaban menos el cerebro para resolución razonada de problemas, confiando en su lugar en resultados intuitivos.

Usando también un conjunto de norteamericanos, comprobaron su desempeño en funciones cognitivas analíticas, y las compararon con el uso de los móviles inteligentes. También añadieron el uso de ordenadores y redes sociales, tanto en ordenadores como en móviles. Es decir, en lugar de comprobar la disposición a usar el análisis en vez de la intuición, comprobaron la calidad de los análisis que hacían los encuestados. Los resultados son curiosos y confirman las hipótesis del primer estudio. Como en el estudio anterior, aquellos participantes que usaban más los móviles tenían una menor capacidad analítica, por lo que quedaba confirmado que el uso de estos dispositivos implica una mayor «tacañería cognitiva». Además, dado que el uso del ordenador no cambiaba demasiado en este grupo respecto los que menos usaban el móvil, quedó claro que no es que los que decían que usaban mucho el móvil no lo decían porque sobrestimaban su uso del mismo, sino que realmente lo usaban más.

Por otra parte, comentan en la introducción del tercer estudio que hay una gran cantidad de evidencia científica que indica que cuanto más se usa el móvil, peores son los resultados académicos entre los estudiantes universitarios, al menos. La principal razón que se esgrime en todos esos estudios es que los móviles actúan como distractor, no que se correlacionen con una disminución de las capacidades cognitivas. Por eso, el tercer estudio que hicieron lo realizaron con estudiantes de universidad, tratando de comprobar si la tendencia al aburrimiento, que ciertamente implica una menor tendencia al uso de funciones cognitivas superiores (son aburridas), podría explicar sus resultados. Los dos estudios presentados antes implicaban que el uso de los móviles, sobre todo para solución de problemas y búsqueda de información, está relacionado con la menor capacidad cognitiva.

Para ello, emplearon estudiantes de universidad canadienses, porque los autores son de una Universidad canadiense. Y los resultados siguieron en la línea de lo que habían visto en los dos estudios anteriores: el uso de los teléfonos móviles esa asociado con una menor capacidad cognitiva y una mayor tendencia al uso de soluciones intuitivas. Sin embargo, no observaron correlación entre la tendencia la aburrimiento y resultados académicos, como se observaba en estudios anteriores. La razón que esgrimen es que quizás lo que realmente correlaciona con menores resultados académicos es el uso en general de aparatos electrónicos o quizás que los resultados académicos de los encuestados fueron proporcionados directamente por ellos mismos.

En la sección siguiente, donde hacen un análisis general de sus resultados, comienzan indicando que los mismos proveen evidencias de que la tendencia a confiar más en resultados intuitivos que en el resultado del pensamiento relacionada con el mayor uso del móvil para buscar información es un signo de una mayor tendencia a la «tacañería cognitiva».

También dicen que hay algunos resultados negativos importantes. Entre ellos, que la correlación que encuentran entre uso intensivo del móvil y menor desempeño cognitivo sólo se produce para ese uso intensivo, si éste no se da, no hay ningún tipo de correlación.

Otro resultado es que, dado que la gente menos tendente a usar el pensamiento analítico es la que más usa el teléfono móvil para buscar respuestas, indicaría en principio que el tener un sentimiento de duda sobre algo incrementa el uso del móvil como herramienta de búsqueda de información, sustituyendo el uso del pensamiento analítico.

Deducen que dada la correlación negativa entre inteligencia y uso del móvil encontrada en sus experimentos, parece lógico suponer que gente más capaz intelectualmente usaría menos la ayuda externa del móvil para realizar tareas complejas, por tener mejores capacidades. Pero que tal idea deberá ser testada en otra ocasión.

En un pequeño párrafo antes de las conclusiones finales, hacen hincapié en las limitaciones de su estudio, que encuentran una clara correlación entre el uso muy frecuente de los teléfonos móviles para buscar información y una menor habilidad cognitiva. Pero correlación no implica causalidad, es decir, que aunque descartaron alguna otra explicación posible, no pueden descartar que haya alguna otra variable que no han comprobado que explique estos resultados. Personalmente, estoy convencido de que sí que es verdad que un uso excesivo del móvil provoque problemas cognitivos, pero ciertamente esto es una convicción no demostrada de manera inequívoca.

En las conclusiones finales comentan que su estudio es un primer paso para un tema fascinante que apenas se está estudiando: el efecto que tiene sobre la psicología humana la nueva cantidad de ayudantes electrónicos capaces de responder a varias cuestiones, o al menos de simularlo bien. Dicen que dados sus resultados, parecería más bien que tales ayudantes pueden reducir la brecha entre los más y los menos inteligentes, pero también advierten que su investigación no es capaz de predecir el efecto que el uso frecuente de tales ayudantes tiene en nuestra capacidad cognitiva futura.

El enlace al artículo publicado en la revista Computer in human Behaviour es: Computers in Human Behavior 48 (2015) 473–480.

(1) Fuentes: Número de usuarios de móviles. Población total de la tierra.

Importancia de las bacterias en la formación de espumas en plantas residuales

Hace ya tiempo llegué no me acuerdo como a este artículo, en el que explican la importancia de tener lo mejor posible controladas las espumas de origen biológico en plantas de tratamiento de aguas residuales. Se publicó en la web iagua.es. Y la verdad es que es una lectura sencilla, pero densa, por lo que lo cuelgo aquí con la esperanza de que alguien más lo lea:

No profanar el sueño de las espumas. Andrés Zornoza