Pequeños drones maniobran de manera más parecida a la de los pájaros.

Los drones son sistemas que tiene variadas aplicaciones, desde hacer vídeos musicales o similares espectaculares hasta la posibilidad de ser usados en misiones militares de alto riesgo. Pero tiene un problema bastante grave: son relativamente «torpes» al moverse por el aire, si los comparamos con las maniobras que cualquier pájaro o insecto es capaz de realizar.

En un artículo reciente un grupo de investigadores logró mejorar lo suficiente el diseño de drones con alas relativamente pequeños como para que pudiera maniobrar mucho más.

Comienzan el artículo señalando que el sistema de vuelo mediante aleteo es mucho más versátil que el sistema de vuelo mediante alas fijas o rotores, que generalmente se usan en los diseños humanos. Continúa comentando que si bien hay algún vehículo alado pequeño que use aleteo y puede realizar varias maniobras, como volar hacia delante y hacia atrás, en círculos y otras, sigue siendo muy raro que puedan permanecer suspendidos en el aire.

El mayor problema no es tanto imitar las formas y estructuras observadas en la naturaleza en animales voladores pequeños, como las pérdidas por la transmisión que se producen desde el motor, que puede ser mucho más potente que el sistema vivo hasta las alas, independientemente del tipo de control o tecnología que el sistema de vuelo del robot tenga. Como ejemplos de tecnologías de vuelo citan alas flexibles que pueden rotar de manera pasiva, sin ayuda de ningún motor y almacenamiento elástico de energía para recuperar parte de la potencia del movimiento.

De hecho, las ganancias aerodinámicas por usar aleteo pueden llegar a perderse debidos a las pérdidas de energía en los engranajes del mecanismo. Los autores del artículo ven que la mayor fuente de pérdidas energéticas en la mecánica del robot es el ángulo del eje de rotor cuando se quiere realizar alguna maniobra con las alas. De hecho, comprobaron que en sistemas de transmisión directa desde el motor hasta el ala, es el problema del giro del eje el que causa mayor cantidad de pérdidas por rozamiento.

Por eso diseñaron un sistema de transmisión más eficiente, con sistemas elásticos para prevenir el giro del eje y rodamientos, de manera que minimizaron las pérdidas de energía por rozamiento y pudieron además hacer que las alas realizaran giros mucho más bruscos de lo habitual. Además, para aumentar la maniobrabilidad de su robot le añadieron una aleta en la cola, como hacen muchos pájaros.

Su diseño, en la figura siguiente, usa rodamientos para estabilizar el eje y Nylon como material elástico capaz no sólo minimizar los problemas de giro, sino también de almacenar parte de esa energía elástica y usarla en maniobras de vuelo.

Esquema del sistema de transmisión. Los rodamientos, «bearings» en inglés, están marcados en rosa, mientras bisagras de Nylon en líneas tenues violetas. La transmisión de la fuerza del motor al ala se hace mediante una biela, que es parcialmente visible en el esquema central. La foto de la derecha es una vista superior de todo el sistema de transmisión.
De la figura 2.D del artículo citado.

Como se ve, el Nylon se emplea en el sistema que tiene que doblarse para transmitir parte del movimiento del motor a los ejes que soportan las alas, que a su vez son también elásticos. Este sistema les permite tener un motor más pequeño para generar el mismo empuje que uno más grande con hélice, un sistema más habitual.

Al tener una cola que se puede mover, cuando la cola está en posición que los autores denominan «neutra», resulta que el robot presenta estabilidad pasiva, sin necesidad de sistemas activos en varias situaciones de interés(1). Esencialmente, cuando se queda quieto en una posición y cuando planea. Además, al ajustar la posición de la cola se puede ajustar la actitud(2). En general, la estabilidad del robot cuando estaba quieto depende del efecto pendular, que se consigue colocando las alas que generan el empuje por encima del centro de gravedad, como los canarios. Sin embargo, este sistema no podía emplearse directamente en planeo, porque el centro de gravedad ya no está por encima de las alas. Para mantener la estabilidad en planeo, tuvieron que modificar tanto el sistema motor como la cola, haciendo esta última con una superficie similar a la de las alas, como la figura siguiente muestra.

Fotos de frente y de perfil del robot. G indica el centro de gravedad del aparato, T el empuje que genera y W su peso. Por eso indica que T>W para elevarse verticalmente. Adaptada de la figura 1.A del artículo citado.

Con este diseño, pudieron controlar el robot de una manera tan espectacular como la que muestra la figura de abajo, que resume todas la maniobras que puede realizar.

Ilustración de todas las maniobras posibles. En naranja, la subida y permanencia estática, en verde el vuelo casi paralelo, en el recuadro superior derecho el giro brusco deltante de un obstáculo y en amarillo el vuelo inclinado y subida. Adaptado del artículo citado, película 1.

El artículo continúa explicando algún detalle más técnico, proporcionando algunas relaciones básicas para entender que gran parte de la maniobrabilidad demostrada se debe a su capacidad de cambiar rápidamente y sin un gran consumo de energía el coeficiente de rozamiento ofrecido, lo que le permite emplear el aerofrenado para moverse, a semejanza de varios pájaros. Posteriormente, comparan su sistema con otros sistemas de vuelo en términos de capacidad de proporcionar empuje respecto a la potencia eléctrica consumida(3), observando que su sistema presenta la mayor pendiente de todos, como indica la figura de abajo.

Potencia eléctrica media consumida frente a empuje proporcionado. Los círculos y triángulos son diversos tipos de hélices, las aspas rojas su diseño con bisagras rígidas y las aspas azules su diseño con aspas de Nylon. Su mayor capacidad es clara. Adaptado de la figura 4.A del artículo citado.

Termina el artículo con detalles muy técnicos sobre como puede maniobrar tan bien el robot, y examinando también parte de los métodos empleados en sus mediciones.

El artículo se publicó en la revista Science Robotics, volumen 5.

(1) La diferencia, en general, entre sistemas pasivos y activos está en que los sistemas activos precisan de algún tipo de reacción, y por lo tanto consumo de energía, tanto en el cálculo como la producción de esa reacción, mientras que los pasivos se regulan sin necesidad de intervención externa.

(2) La actitud del robot no tiene nada que ver con su comportamiento, sino con su orientación respecto al plano. Así, el ángulo de actitud del robot es el ángulo respecto al plano del suelo del mismo.

(3) Como usan motores que trabajan a voltajes constantes, esta potencia eléctrica es el producto directo del voltaje que consume el motor por la intensidad de corriente, VI, y así lo representan.

¿Cómo se desafilan los cuchillos?

No sé si alguna vez se lo han preguntado, pero no deja de ser curioso que los cuchillos y otros objetos cortantes metálicos se vayan desbastando con el tiempo. A fin de cuentas, se usan, generalmente, para cortar cosas mucho más blandas como pan, carne, etc. Y sin embargo, pasado el tiempo, todos pierden el filo. ¿Cómo sucede?

Unos investigadores acaban de publicar un artículo donde ofrecen algunas pistas.

Comienzan la introducción del artículo comentando la importancia, antes y ahora, de las herramientas cortantes para la humanidad, y como se necesitan dos características de una herramienta cortante: filo y dureza.

El ejemplo que ponen como uso común, porque luego lo emplearán en sus experimentos, es el de el acero empleado en las cuchillas de afeitar. Es un acero martensítico(1) afilado con ángulos de 17º y con un radio de la punta de 40 nanómetros, es decir 40×10⁻⁹ metros. Luego, se recubre primero con materiales aún más duros, como carbono con forma de diamante y otra capa de material deslizante, teflón(2), final.

Y aún así, como todas las personas que usan estas cuchillas saben, el pelo es capaz de desbastar su filo al cabo de unos pocos usos. Y eso a pesar de que el pelo es más de diez veces más blando que el material de la cuchilla, como la figura de abajo indica.

Escala de dureza de diversos materiales (izquierda) y foto de la cuchilla de afeitar donde se observa su estructura y los diversos dominios cristalinos del material. Adaptado de la figura 1.A del artículo referenciado.

Como cualquier cuchillo vuelve a cortar al afilarlo de nuevo, es aceptado comúnmente que el mecanismo principal que hace que se desbaste el filo es un mecanismo de desgaste. Pero el artículo indica que los primeros desgastes sufridos por la cuchilla no pueden ser debidos sólo a desgaste, por varias razones.

Primero, porque la estructura de tanto el pelo como la cuchilla son muy diferentes. Concretamente, el pelo o cualquier otro elemento general que quiera cortar el cuchillo, es una estructura homogénea con una capa externa más dura. Sin embargo, la estructura de la cuchilla es mucho más diversa, teniendo formas distintas según la escala espacial que ese emplee. Por lo tanto, dado que los modelos habituales de desgaste suelen despreciar las microestructuras internas, no pueden dar cuenta de los desgastes iniciales de las cuchillas u otros objetos cortantes.

Por otra parte, dado que las condiciones de contorno del corte varían de manera muy dinámica mientras se produce éste, hay que tenerlas en cuenta si queremos estudiar este fenómeno. De hecho, como indica la figura siguiente, hay un mínimo de tres configuraciones: cuando el pelo se corta completamente recto, cuando debido al ángulo de entrada la cuchilla interacciona con el pelo con los dos lados y por último, cuando el pelo está muy doblado.

Las tres posibilidades de corte de un pelo, con los diagramas de fuerzas que suponen sobre la cuchilla. adaptado de la figura 1.B del artículo citado.

Con todas estas dificultades, los investigadores decidieron realizar experimentos sistemáticos para tratar de entender mejor el proceso de desbastado.

Comenzaron por caracterizar las microestructuras de hojas de afeitar comerciales, lo que les permitió observar que el filo de la cuchilla no es nada liso, ni siquiera sin cortar nada, sino que tiene pequeñas indentaciones e irregularidades.

Luego diseñaron un montaje experimental que le permitió cortar de manera sistemática pelo, la figura siguiente, de forma que después de cortar un número de veces pelo, pudieran examinar la hoja y ver que había pasado.

Montaje experimental para observar parte del desgaste en la cuchilla. De la figura 2.A del artículo citado.

De hecho, observaron que las irregularidades iniciales en el filo eran lugares donde luego se iban eliminando partes de la cuchilla, como se vé en la figura siguiente:

Borde de una cuchilla sin usar (arriba) y tras realizar algunos cortes (abajo) Se puede apreciar con claridad la falta de trozos del filo tras realizar cortes. Adaptado de la figura 1.3 del artículo citado.

De todas maneras, dado que en su montaje experimental podían cambiar el ángulo, comprobaron que si la cuchilla entraba con un ángulo ortogonal al pelo, la cuchilla ni se deformaba ni presentaba las indentaciones que se ven en la figura anterior. Para poder ver estos problemas, tuvieron que inclinar la cuchilla hasta que tuviera un ángulo de 21º con la horizontal. En esta posición, parte de la fuerza que realiza la cuchilla está fuera del plano principal del movimiento, lo que conlleva deformaciones plásticas de la misma, y en último término, la rotura del filo ya vista.

De hecho, observaron que esta ruptura del filo tiene lugar generalmente en los lados del pelo, y que es independiente de factores como el ángulo relativo entre el pelo y la cuchilla o el diámetro del pelo.

Posteriormente, realizaron simulaciones con programas de elementos finitos(2) para tratar de entender mejor sus resultados experimentales.

Con ellos, pudieron confirmar que la región donde se producían las deformaciones mecánicas era la frontera del pelo y que se empezaban a producir para ángulos mayores de 8,5º de inclinación entre la cuchilla y la dirección ortogonal al pelo.

Por otra parte, para ángulos más pequeños también se producían roturas del filo, que no se podían explicar con este modelo, donde la inclinación del ángulo de entrada de la cuchilla era fundamental para producir la fuerza que generaba la deformación. Cuando los ángulos son muy pequeños, se observó que la aparición de tensiones que conducían a la rotura del filo era debido a las diferencias de composición entre los diversos granos del acero, que respondían de manera distinta a la tensión producida por el corte del pelo, lo que generaba estas tensiones entre los granos capaces de romper el filo.

Como resumen de los elementos que hacen falta para que el filo de la cuchilla se desbaste antes de que aparezcan los problemas de desgaste, los investigadores encontraron que tiene que darse tres condiciones simultáneamente, explicitadas en el dibujo posterior:

  • una cantidad de pelo que se doble tan grande como para generar fuerzas con componentes no ortogonales grandes,
  • que el proceso de creación de la cuchilla sea tal que induzca irregularidades en el filo con granos de diversas composiciones,
  • que la posición del pelo sea tal que el lado del mismo se encuentre una de estas irregularidades, y además de forma que el material más blando esté en el lado correcto del filo.
Explicación gráfica de las tres condiciones necesarias para la ruptura de una cuchilla. De arriba a abajo, las columnas muestran como el ángulo de incidencia de la cuchilla en el pelo, la irregularidad y las diferentes composiciones de la cuchilla tienen que coincidir para poder romper el filo. De la figura 4 del artículo citado.

Obviamente, que se cumplan estas tres condiciones a la vez es difícil, por eso las cuchillas aguantan varios usos antes de desbastar su filo. La cuestión es que, como comentan acertadamente en el artículo, el hecho de que la rotura inicial de pequeños fragmentos de la cuchilla se produzca por la aparición simultánea de varios criterios dificulta mucho el análisis a posteriori de las razones de la rotura del filo.

Finalizan el artículo comentando que la práctica habitual de la metalurgia es utilizar la ley de Archard(3), donde hay una correlación lineal entre la dureza y la resistencia al desgaste. Dados sus resultados, afirman que probablemente sea una buena idea tratar de homogeneizar el metal empleado y reducir el tamaño de las irregularidades que producen los procesos de fabricación para aumentar la resistencia al desgaste, además de emplear materiales cada vez más duros.

El artículo original se publicó en la revista Science, vol. 369: How hair deforms steel.

(1) En inglés se dice «martensitic», y es una forma de endurecer el acero mediante el aumento de su contenido en carbono y enfriamiento rápido. La wikipedia en inglés tiene un artículo muy decente sobre el proceso: Wiki-Martensite.

(2) El método de elementos finitos es un algoritmo para resolver con ordenador ecuaciones muy complicadas de resolver analíticamente que se basa en dividir el sistema en una multitud de pequeños subsistemas que se resuelven iterativamente. La wikipedia tiene un artículo en español bastante interesante: Wiki-Elementos finitos.

(3) La ley que correlaciona dureza con desgaste, el artículo de la wikipedia es corto, pero suficiente para hacerse una idea: Wiki – Ecuación de Archard.

Se puede trasferir el resultado del ejercicio usando componentes de la sangre.

En una investigación reciente publicada en Science, unos investigadores han logrado que los efectos del envejecimiento revirtieran en ratones mayores que no hacían ejercicio.

Comienzan el artículo hablando de la habilidad que tiene el ejercicio físico para revertir o disminuir las consecuencias de la edad avanzada en todo tipo de animales. Y comentan que es, por lo tanto, importante encontrar terapias que imiten este tipo de mejoras producidas por el ejercicio físico.

Siguen explicando que el efecto beneficioso del ejercicio en ratones de edad es muy similar al que se obtiene con transfusiones de sangre de ratones jóvenes.

Siguiendo esta línea de investigación, estos investigadores encontraron que la administración de plasma de ratones viejos que hacían ejercicio a los que no lo hacían también mejoraba de manera clara su salud. De hecho, identificaron a un compuesto producido por el cuerpo cuando se hace ejercicio como el causante de la mejora observada. El compuesto se produce en el hígado.

El procedimiento que siguieron fue el siguiente: primero, tener dos tipos de ratones mayores; uno al que se les proporcionó una rueda y otro a los que se les proporcionó material para hacer nidos. A los dos grupos se les extrajo sangre y, de ella, se extrajo sólo el plasma. Después, a un tercer grupo de ratones «ancianetes» se les inyectaron ambos grupos de plasmas, observando que se observaba mejoría solamente en los ratones que recibían el plasma de los ratones que hacían ejercicio.

Dado que también se mejoraba la salud de los ratones que recibían transfusiones de ratones jóvenes, quisieron encontrar qué factor exacto era el que mejoraba la salud de los roedores. Entonces, trataron de encontrar qué elementos dentro de la sangre eran los que causaban el efecto principal de luchar contra el envejecimiento. Dado que vieron que cerca del 60% o más de los factores que se expresan debido al envejecimiento tenían su origen en el hígado, buscaron aquellos factores que se expresaban allí. De todos los factores que se expresan, encontraron que dos de ellos estaban presentes en abundancia. De los dos, decidieron centrarse en la presencia de una enzima, llamada Gpld1 que no había estado previamente enlazada con el envejecimiento.

Confirmaron posteriormente que su concentración aumentaba en el plasma de los ratones que hacían ejercicio, independientemente de su edad. De hecho, esta concentración del compuesto Gpld1 se correlacionaba con menos errores de memoria al hallar la salida a un laberinto, como muestra la figura siguiente:

Correlación entre la concentración del factor Gpld1 en la sangre y la ausencia de errores en ejercicios de memoria. De la figura 2 E del artículo citado.

Después quisieron encontrar la fuente de este factor en el cuerpo de los ratones, y correlacionaron la expresión de sus genes con el hígado. Este resultado es consistente con investigaciones precias citadas en el artículo que indican que es éste órgano el responsable de su generación. Por otra parte, observaron que la generación del ARN(1) que expresa este factor en el cuerpo no cambian en función de la edad, o administración del mismo en ninguno de los ratones examinados. Pero sí observaron que el ARN se expresaba más después de hacer ejercicio, lo que les induce a pensar que justamente es el ejercicio el desencadenante de este factor Gpld1 en el hígado, y no otro.

Trataron luego de entender la ruta metabólica seguida por el factor Gpld1 en el cuerpo, sin demasiado éxito, dado que no fueron capaces de entender del todo cómo lograba sus resultados. Sí pudieron observar que no es a través del paso directo al cerebro, puesto que este factor apenas aparecía expresado en el cerebro.

Sigue después una sección previa a la discusión final del artículo en la que comentan que es necesario para que este factor Gpld1 trabaje que haya un sustrato en el cuerpo, pero debo reconocer que debido a mi falta de conocimientos de anatomía, no terminé de entender ni qué sustrato es, ni dónde debe estar.

El punto interesante de este artículo es que el uso de sangre o plasma de animales que hayan hecho ejercicio si se transfiere mediante transfusión del plasma sanguíneo, favorece también a animales que no hayan hecho ningún ejercicio.

El lector de ciencia-ficción ciberpunk que anida en mi no puede evitar pensar que, dado este resultado, en poco tiempo habrá un trabajo que sea hacer ejercicio para que te extraigan plasma los ricachos vagos que prefieren pagar antes que sudar para «envejecer» mejor…

El artículo citado se publicó en Julio de 2020 en Science, volumen 369: Horowitz et al., Science 369, 167–173 (2020).

(1) El ARN es el «producto» que se segrega dentro de las células para producir cualquier material o factor que la célula produzca. Así, si hay una gran cantidad de ARN que esté asociado a un factor determinado, quiere decir que cuanto más ARN de este tipo, más factor producirá la célula dentro del órgano.

Se logra convertir la energía cinética delas gotas de agua en electricidad

En un artículo publicado en la revista Nature, un grupo de investigadores logran mejorar sistemas previos que ya existían para recolectar la energía cinética de gotas de agua cayendo y transformarla de manera más eficiente en electricidad.

Basan sus resultados en investigaciones previas en las que pudieron demostrar la inducción de carga por gotas de agua en la superficie de materiales fluorados(1) usando teflón como material principal superior.

Como indica la figura siguiente, el dispositivo está formado por una capa exterior de teflón en contacto con un electrodo de aluminio, que conecta eléctricamente esta capa exterior con una inferior de un óxido de estaño e indio, ITO por sus siglas en inglés, este último una tierra rara muy cara.

Construcción del dispositivo capaz de usar gotas de lluvia para producir electricidad.
De la figura 1 del artículo citado.

Como se ve en la figura, la capa del óxido y el electrodo de aluminio están conectado y no debería pasar electricidad a través de ellos, a menos que se acumule carga de alguna manera en alguna de las superficies. Y eso es lo que pasa al caer gotas de agua en la parte del teflón, que carga eléctrica se acumula según van cayendo gotas de agua hasta que el valor de la carga eléctrica alcanza un valor de saturación de en torno 50 nC, como indica la figura de abajo.

Carga obtenida en la capa de teflón según el número de gotas de agua. La escala de gotas es del orden de 10.000, saturando el valor máximo de carga obtenido en sus dispositivos para unas 16.000 gotas, aproximadamente.
De la figura 1 c del artículo citado.

Independientemente del mecanismo por el que se produce la carga eléctrica, está claro que hay un valor de saturación de la misma cerca de los 50 nC que comenté antes.

Cada uno de los dispositivos fabricados, hicieron tres en una línea, podía sostener un voltaje de en torno a 140 V con una corriente de 270 µA. Con una resistencia de alrededor de 330 kiloOhmnios, logran unas densidades de potencia de cerca de 50 W/m². Por comparación, lo que se había logrado hasta ahora con dispositivos de este tipo, pero con superficie de aluminio directamente, eran unos voltajes 295 e intensidades de corriente 2.600 veces más pequeñas. No está nada mal.

Los sistemas fotovoltaicos actuales comerciales obtienen potencias del orden de los 200 W/m²(2), lo que quiere decir que están ya en camino de convertirse en una alternativa razonable de generación de energía.

Su eficiencia de conversión de la energía cinética de la gota que cae es del orden del 2%. Las primeras células solares comerciales tenían eficiencias de ese orden de magnitud, desde el 2 al 8%, como indica la figura siguiente, extraída de la entrada de la Wikipedia sobre paneles fotovoltaicos.

De National Renewable Energy Laboratory (NREL) – National Renewable Energy Laboratory (NREL), Golden, COUnited States Department of Energywebsiteimagepdf imageexplanatory notes, Dominio público, Enlace

Los investigadores prosiguen en su artículo buscando las razones del incremento tan fuerte en la eficiencia respecto a sistemas anteriores. Pudieron observar experimentalmente que las cargas eléctricas transportadas por las gotas no variaban al impactar en el material, con lo que su cambio no era la causa de la mejora observada.

Entonces, fijaron su atención en la variación de la corriente y cargas en el dispositivo a lo largo del tiempo, notando que ambos parámetros oscilaban en función de si la gota tocaba el electrodo de aluminio o no. Cuando la gota comenzaba a tocar el electrodo de aluminio, se producía una transferencia de corriente desde la superficie del teflón hasta el electrodo de óxido ITO, mientras que cuando se retiraba la gota, sucedía al revés y la corriente primero se volvía negativa para alcanzar un valor final de cero. Este resultado se comprueba en la figura de abajo, donde se ve la dinámica de la corriente producida por una gota en un dispositivo.

Dinámica de la corriente eléctrica en el dispositivo al caerle una gota. Se observa como la corriente sube muy rápidamente cuando la gota toca el electrodo de aluminio y se hace negativa al retirarse la gota del mismo, sobre todo en la ampliación de escala de la derecha, parte c de la figura.
De la figura 2 b c del artículo citado.

Los autores del artículo proponen, basado en este comportamiento y en el hecho de que la posición del electrodo de aluminio que conecta la superficie de teflón con el óxido ITO no afecta a la eficiencia del dispositivo, que la corriente se transfiere desde el ITO hasta el teflón y viceversa en ciclos reversibles. La reversibilidad del sistema se apoya en que no han podido observar que la eficiencia del dispositivo varía con el tiempo, lo que quiere decir que no hay elementos que se «gasten» en el tiempo.

Tratando de entender mejor qué lleva su dispositivo a ser tan eficiente, usaron el número de Weber(3) de las gotas que caen sobre él. El resultado se puede resumir en la figura siguiente, extraída del artículo:

Carga obtenida en función del número de Weber de la gota. Noten que hay una cierta saturación de la carga para un valor del orden de 100 en una carga de 50 µC, como ya había comentado antes.
De la figura 2 e del artículo citado.

Esto querría decir que es importante que para lograr incrementos de carga, es más importante la energía cinética de las gotas que su tensión superficial.

Dado que es un sistema eléctrico, los investigadores usaron la teoría de circuitos y los datos que ya poseían para tratar de modelarlo. Y lo lograron con un sistema con tres condensadores:

  • Uno superficial con las superficies de agua y teflón,
  • otro del mismo tipo entre las superficies del agua y el aluminio,
  • el tercero, volumétrico, con el teflón como dieléctrico y las superficies agua/teflón y teflón/óxido ITO como electrodos.

De los tres, en principio el tercero sería el más pequeño y el que se carga gracias a los otros dos «condensadores» que se forman por la interacción de la gua con las superficies citadas. Si este modelo fuera adecuado, podrían estimar la carga máxima. Haciendo los cálculos, los investigadores obtuvieron un valor para las dimensiones de su dispositivo cercano a los 50 µC medidos, lo que les dá confianza en que su modelización es correcta. Por otra parte, en ese caso el voltaje que se obtiene debería ser directamente proporcional al ancho del teflón, lo que la figura de abajo confirma claramente.

Relación lineal del voltaje con el ancho del teflón en su dispositivo y como la carga acumulada es independiente del mismo. Ambos datos apuntan que su modelo eléctrico del dispositivo es acertado.
De la figura 3 c del artículo citado.

Los investigadores comentan que la forma de funcionar del dispositivo se confirma con simulaciones moleculares que realizaron, donde pudieron observar que las cargas iónicas que llevara el agua se separan en las superficies del teflón y el electrodo de aluminio, una vez que en la simulación añadían cargas estáticas en el teflón y el aluminio.

Por último, además de un sistema de laboratorio, hicieron un prototipo que probaron con agua de lluvia y agua de mar, para observar su eficiencia. Comprobaron que la eficiencia con los dos últimos tipos de agua, el sistema era menos eficiente porque generaba menos voltaje, aunque aún tenía eficiencias relativamente aceptables. El prototipo desarrollado y los voltajes obtenidos con los diversos tipos de agua están en la figura siguiente.

La figura superior muestra el dispositivo empleado, donde el depósito superior almacena el agua, independientemente de su origen, el regulador de flujo del medio hace que las gotas caigan en los dispositivos que generan la electricidad, los llamados DEGs (4). La figura inferior muestra que los tres tipos de agua empleados, el más eficiente es el gua de grifo, «tap water» en inglés y el menos eficiente, el agua de mar, «sea water».
De la figura 4 b d, del artículo citado.

Dos detalles me llamaron la atención sobre el artículo. El primero, que dado que la generación principal de carga está relacionada con la electricidad estática a través del efecto triboeléctrico(5), y esta no está nada clara, los propios autores del artículo tiene que pasar muy por alto la acumulación de carga inicial en su dispositivo. La otra, que a pesar de no tener claro el motivo por lo que algo funciona, por qué funciona, eso no necesariamente es un obstáculo para hacerlo mejor, porque hay elementos del modelo que explica cómo funciona que pueden soslayarse.

El artículo salió publicado en la revista Nature, volumen 578 y está disponible en abierto en la dirección de la revista: Nature, 578, 392–396(2020).

(1) Un material fluorado es un polímero en el que se han sustituido algunos átomos de carbono por átomos de flúor. Uno de los más conocidos es el teflón empleado en este artículo, cuya fórmula química es (CF2 – CF2)n

(2) Esta cifra se ha obtenido suponiendo una eficiencia total del panel del 20%, bastante cercana a los mejores paneles solares y una irradiancia solar de 1.000 W/m², valor ideal. Los valores reales de potencia solar serán algo más bajos, probablemente cercanos a los 160 W/m² porque los rendimientos habituales son del 16 por ciento en muchos paneles de bajo rendimiento.

(3) El número de Weber es una cantidad adimensional que relaciona las fuerzas de inercia, energía mecánica debida a la velocidad, de un fluido con la tensión superficial, o fuerza debidas a la superficie de contacto de dos fluidos, por ejemplo, agua y aire. Su definición, donde aparecen la densidad del fluido, una longitud característica (en este caso el diámetro de las gotas que caen) y su tensión superficial está tanto en el artículo citado como en la entrada de la Wikipedia sobre el número de Weber.

(4) DEGs es la abreviatura en inglés de generador de energía eléctrica basado en gotas («Droplet-based Electrical Generator».)

(5) Efecto triboeléctrico es la generación de energía eléctrica debido al contacto con de un material con otro. Está muy relacionado con la electricidad estática y es un tanto misterioso en su origen último. El artículo de la Wikipedia sobre efecto triboeléctrico está muy bien: Wikipedia- Efecto triboeléctrico.

¿Es el Software libre resistente a todo tipo de usuarios?

El software libre, producido bajo los principios de las cuatro libertades de ejecución, estudio, modificación y distribución(1), ocupa un lugar cada vez más importante en nuestras vidas, al ser el que soporta una gran cantidad de puntos fundamentales de la red internet actual. Por lo tanto, una cuestión relevante es cuán fácil o difícil es que un determinado software libre pueda seguir adelante en el tiempo según sus usuarios, que también suelen ser los que lo mantienen.

En el artículo que comento, empiezan en la introducción repitiendo que debido a su naturaleza, el mantenimiento de una base grande de usuarios comprometidos y capaces de modificar y ajustar ese software según se necesite es fundamental para el éxito de cualquier programa de este estilo.

Continúan señalando que debido a su naturaleza abierta y al éxito del modelo, hay cada vez más programas similares desarrollándose a la vez, lo que supone que hay una competición muy fuerte entre los diversos programas por captar y atraer los usuarios. Personalmente creo que con frecuencia varios de estos proyectos se unen o termina quedándose solo uno, pero el que se queda ha ganado la «competición», desde luego.

En cualquier caso, la robustez(2) de su red es muy importante. Y por eso los autores de este artículo se pusieron a estudiarla para las redes típicas de generación y mantenimiento de software libre.

Continúan diciendo que la mayor parte de los estudios sobre la robustez de redes se refería a redes físicas, como las de transmisión eléctrica, transporte, etc. Así, hay menos estudios sobre redes virtuales, si bien al aumentar tanto la importancia y cantidad del software libre, algunos estudios se han realizado. En su revisión rápida de la introducción, los autores de este artículo citan trabajos sobre software libre en los que encontraron algunas características de estas redes de trabajo, que se pueden resumir así:

  • Cambian su capacidad de resistencia a ataques externos según el tipo de escala que tenga la red,
  • Para que un proyecto pueda sobrevivir, es fundamental que su sistema de reclutamiento y mantenimiento de personal sea efectivo,
  • Su propia estructura de centro fuerte y una gran periferia más débil de usuarios la hace muy resistente a ataques externos, pero deja el proyecto en riesgo de anquilosarse si lo hace el centro,
  • Si un usuario de la red que posee una gran parte del conocimiento del programa se marcha, el proyecto sufre y puede llegar a abandonarse.

Además, también citan dos artículos que analizaban el código desde el punto de vista de si el software libre está mejor o peor codificado que otros tipos. Pero todos estos trabajos sobre la robustez se centran en algún punto concreto, mientras que los autores de este artículo pretenden centrarse precisamente en la robustez en sí de las redes de software libre.

Centrándose más en materia, los autores del artículo comentan que los contribuyentes a proyectos de software libre reconocen que es muy importante para que el proyecto saga adelante que se intercambie información técnica o de habilidades de programación, mientras que otro tipo de datos, como felicitaciones, no es tan importante. Además, hay un conjunto importante de usuarios llamados «vaqueros de grupa»(3), que ni contribuyen ni colaboran al proyecto, la gran mayoría de usuarios, entre los que me encuentro.

Este trabajo se centra en el problema que puede suponer para un proyecto de este tipo la pérdida de usuarios con conocimiento. Uno de los problemas con los que se encuentran es que la mayoría de las investigaciones sobre la robustez de redes se centran en redes estáticas, mientras que por su propia naturaleza las redes que producen software libre son muy dinámicas, con los miembros cambiando a lo largo del tiempo mucho de manera muy fluida. Además, la mayoría de estudios sobre la robustez de redes emplean algún tipo de medida que tiene en cuenta la propia estructura de la red, no el conocimiento de sus miembros, que en redes de programación es fundamental, puesto que la pérdida de demasiado conocimiento causa que el proyecto fracase.

Para ello, emplearon redes de producción abierta de coches de la empresa Local Motors, que tiene una filosofía abierta sobre su fabricación y desarrollo de productos. Construyeron una base de datos de 11 proyectos de su web durante 8 años. Para construir la red, tuvieron que observar las 25472 comunicaciones de sus 1689 usuarios. Un trabajo complicado, que se tradujo en una red con nodos, los usuarios que poseen conocimiento, y filos, las formas en las que ese conocimiento se transmite por los nodos.

Al observar la evolución histórica delas diversas redes de la compañía, representada en la figura 1, pudieron dividirlas en tres estados: comienzo, crecimiento y madurez. En los tres estados, la redes son del tipo «mundo pequeño», lo que quiere decir que la colaboración se produce entre agrupaciones pequeñas de los nodos de la red, más que entre todos los nodos. También observaron que son redes libres de escala, es decir, que sus características fundamentales no varían según el tamaño de la red.

Evolución temporal de la red que estudiaron. Figura 1 del artículo citado.

Al tratar de separar los usuarios (nodos) de la red, observaron tres comportamientos típicos: los innovadores, los diseñadores importantes y los usuarios comunes. Con la red inicial, apenas había usuarios diseñadores o comunes, en comparación con las redes en crecimiento y maduras. De manera bastante lógica, es este último tipo de red la que tiene una mayor proporción de usuarios diseñadores y comunes frente a innovadores.

También pudieron contar el número de usuarios por tipo que se unían a la red o que la dejaban, observando una gran variabilidad temporal, que se puede ajustar por una ley de potencias del estilo:

y = a * xb,

tanto para los usuarios que llegan como para los que se marchan.

Luego tratan de ver como las pérdidas de usuarios podrían afectar a la red, para lo que definen dos tipos principales de pérdidas, las aleatorias y voluntarias. Las aleatorias son nodos que simplemente, cambian dentro de la red, pero que pueden volver a la misma, mientras que las voluntarias son personas que por cualquier motivo deciden dejar el grupo, llevándose su conocimiento con ellos.

Tras definir estos valores, hacen simulaciones en los que representan la pérdida de estos tres tipos de usuarios para las tres redes, inicial, en crecimiento y madura, con el propósito de observar cuán resistentes son.

Cuando la red es inicial, sus resultados demuestran que la misma es muy sensible a la pérdida de usuarios innovadores, que pueden hacer que la red incluso caiga si son demasiados. Por la misma razón, además de evitar que se vayan por la pérdida de conocimiento que supone para la propia red, es importante tratar de que diseminen rápidamente su conocimiento para que se transmita lo antes posible.

Para las redes en crecimiento la situación es parecida, en el sentido de que la pérdida de usuarios deliberada puede hacer que la red deje de funcionar. Sin embargo, las pérdidas aleatorias de usuarios no le afectan tanto, siendo una estructura muy resistente a ellas.

En las redes maduras, la influencia de los usuarios innovadores se incrementa, en el sentido de que cuando ellos desparecen, la red sufre mucho más que en los casos anteriores, también debido a que todos los usuarios comparten mucho más conocimiento que en otros estados de las redes. Por ello, en este tipo de redes es fundamental la distribución de tareas que logre una mayor implicación de los miembros de la misma.

El artículo termina con una serie de recomendaciones para que las comunidades de este estilo puedan crecer y prosperar según el estado en el que se encuentra la comunidad, que se pueden resumir en las siguientes ideas:

  • Para los gestores de la comunidad:
    1. para comunidades iniciales, lograr que los usuarios con conocimiento aumenten al interaccionar en la red e incrementar el número de usuarios.
    2. Para una comunidad en crecimiento, hay que establecer mecanismos de protección de los usuarios que saben, para evitar su pérdida.
    3. Si la comunidad es madura, se deben establecer mecanismos para estimular los usuarios diseñadores e innovadores, para tratar de evitar su pérdida.
  • Para los usuarios:
    1. Tratar de tener una gran diversidad de usuarios,
    2. animar a los innovadores y diseñadores a compartir conocimiento, para incrementar su número,
    3. animar a los usuarios normales a aceptar desafíos, con la idea de que se conviertan en usuarios experimentados.

El artículo se publicó en la revista Physica A, Statistial Mechanics and ist Applications, 15 February 2020, 122888.

(1) En la página de la asociación para el software libre explican (en inglés) estos cuatro principios: What is free software?

(2) Es mi traducción de la palabra «robustness» que emplean en el artículo. Se trata de la habilidad de cualquier sistema en red de resistir perturbaciones o falos, internos o externos, sin dejar de cumplir su función. La Wikipedia en inglés tiene un artículo decente sobre el tema: Robustness of complex networks.

(3) En realidad en inglés los llaman «free riders», pero me parece que se conserva mejor el sentido si se traduce pensando en vaqueros, entendidos estos como personas que cabalgan. Además, es mucho más divertido.

Los metales también son fluidos, aunque algo raritos.

Cuando les explico a mis alumnos el concepto de medio continuo, siempre trato de que se den cuenta de que los fluidos no sólo son los líquidos y gases a los que estamos acostumbrados, que otros elementos pueden ser fluidos bajo circunstancias favorables. Por ejemplo, el metal mercurio fluye a temperatura y presión habituales. Y hay aleaciones de metales que calentados con el calor de la mano, empiezan a fluir porque su temperatura de fusión es muy baja, por debajo de la corporal, como por ejemplo el galio(1). Además, determinadas aleaciones que tienen una gran utilidad industrial, o que pueden tenerla en el futuro, son líquidas a temperaturas no tan altas.

Una de estas aleaciones es la de plomo con litio, que es líquida a temperaturas del orden de los cientos de grados y que se pretende usar para recoger la energía de los futuros reactores de fusión. La idea es que esta aleación se caliente un montón en el núcleo del reactor y que después intercambie parte de ese calor con un intercambiador externo, que moverá una turbina para producir energía eléctrica.

Para poder hacer todo esto, además de estudiar la forma de lograr fusión con generación positiva de energía, hay que tener claro cómo se mueve el fluido formado por la aleación de plomo y litio. Pero hay un problema: al ser dos metales, son muy sensibles a los campos eléctricos y magnéticos, de forma que las ecuaciones y números adimensionales habituales en la mecánica de fluidos no son suficientes, hay que usar lo que se denomina magneto-hidrodinámica. Es decir, la unión de las ecuaciones que gobiernan el movimiento de los fluidos con las que presentan el movimiento de las cargas eléctricas. Y eso es lo que hicieron, al menos en parte, en un estudio muy interesante en el que hicieron fluir esta aleación por una tubería de acero calentada por debajo.

Comienzan el artículo diciendo que los metales líquidos se han propuesto como enfriadores y generadores de helio, esto último el litio(2). Se pretende emplear estas aleaciones por su alta capacidad térmica, que pueden absorber mucho calor de la reacción de fusión, y su alto punto de ebullición, que necesitan temperaturas muy altas para ponerse a hervir, es decir, a transformarse en gas metálico. Al ser metales, como ya comenté antes, tienen que tenerse en cuenta los efectos de las cargas eléctricas y los campos magnéticos, y de hecho varios estudios, según los autores del artículo, lo han hecho así. Por otra parte, los movimientos de transporte de calor mediante fluidos(3) para estos metales bajo la acción de un campo magnético son importántisimos en la metalurgia y el crecimiento de cristales. No deberíamos olvidar que los metales son cristales, y que sus propiedades dependen en gran manera de qué tipo de cristal forma al enfriarse el metal, que a su vez depende de manera muy fuerte de los flujos de la fase líquida del metal, con lo que la investigación de estos autores tiene muchos usos, amén del simple placer de saber más sobre un sistema tan interesante como son los líquidos con propiedades eléctricas.

La introducción sigue comentando que una gran cantidad de estudios numéricos se han hecho para poder definir varios parámetros de la dinámica de estos líquidos, junto con varios estudios experimentales, especialmente con líquidos que se parecen mucho a los metales, pero que no lo son.

Continúan después explicando las fuerzas principales que actúan sobre la convección en un líquido que responde a campos magnéticos: la fuerzas electromagnéticas, la de flotación(4) y las de inercia, o movimiento, cuando el fluido posee viscosidad.

Las fuerzas electromagnéticas por un lado, aumentan la disipación de parte de la energía cinética del fluido debido al rozamiento forzado por los campos magnéticos, lo que reduce su inestabilidad, y por otro genera estructuras que provocan sus propios tipos de inestabilidades.

Las fuerzas de flotación hacen que el fluido se «organice» en columnas para conectar las regiones más calientes y las más frías, mientras que las fuerzas de inercia facilitan el movimiento del fluido a lo largo del flujo.

Los investigadores trataron de observar el efecto de cada una de estas fuerzas independientemente en la dinámica del fluido, para lo que usaron una instalación experimental interesante.

Sistema experimental empleado. Se observan las termocuplas empleadas para medir la temperatura de las termocuplas, los calentadores del fluido y el aislamiento para poder tener el metal a una temperatura más o menos constante. De la figura 1 del artículo citado.

Para poder tener datos de tanto la temperatura como el campo eléctrico, las termocuplas (distribuyeron 123 en todo el experimento) se usaban de doble forma: la punta de la misma proporcionaba información sobre la temperatura del fluido, mientras que el aislamiento que la rodeaba se empleaba para medir el potencial eléctrico al que estaba sometido. Además, usaron medidores de flujo y como se muestra en la figura superior, tenían platos calentadores capaces de proporcionar una gran cantidad de energía calorífica al fluido. Posteriormente, los autores del artículo dedican una cierta cantidad de espacio a explicar cómo realizaron los experimentos que no reseño, centrándome más en los resultados principales. Para poder estudiar una gran cantidad de valores, variaron los parámetros de velocidad, campo magnético y flujo de calor según la tabla siguiente:

Parámetro Valores
Velocidad(cm/s) 1, 2, 3, 4, 5, 10, 15, 20
Campo magnético (T) 0; 0,5; 1; 1,5
Flujo de calor (W/cm²) 0, 2, 4, 6

Uno de los resultados experimentales que observan, y que les permite confirmar que su sistema de medidas es adecuado, es que al aumentar la velocidad del fluido y cambiando el campo magnético aplicado, aumenta la desigualdad en la distribución de temperaturas a la salida del conducto. Cuando este campo se hace cero, apenas hay cambios en la distribución de temperaturas del fluido, aparte de una disminución de las diferencias entre las temperaturas de entrada y salida del conducto al aumentar la velocidad del fluido.

Para poder extender sus resultados y aplicarlos a situaciones muy distintas de las estudiadas experimentalmente, emplearon números adimensionales. Como querían estudiar el efectos de tres fuerzas, usaron los tres números siguientes:

Donde Ha es el número de Hartmann, Re el de Reynolds y Gr el de Grashof. Thw es la media de la temperatura de la pared, T0 la del fluido.

Ha² proporciona la relación entre las fuerzas electromagnéticas y viscosas, o de rozamiento, el de Reynolds relaciona las fuerzas de inercia o movimiento con las viscosas y el de Grashof si la fuerza de flotación domina a la de rozamiento o viscosa. Además, para poder cuantificar el efecto de la convección, se precisa el número de Richardson, definido como Gr/Re², y que proporciona la relación entre las fuerzas de flotación y las viscosas. Lo que pudieron observar es que hay tres regímenes de movimiento, cada uno dominado por una de las fuerzas.

Así, en el régimen donde la fuerza de flotabilidad domina el movimiento del fluido, precisamente por ser la fuerza dominante la de flotabilidad, se forman células convectivas que se alteran con la presencia del campo magnético y en función de la velocidad, pero siempre son los elementos dominantes del movimiento del fluido.

Cuando el campo magnético es lo suficientemente alto, más de 0,5 Tesla en este experimento, entonces el fluido está dominado por la fuerza electromagnética, lo que hace que es fluido la temperatura del fluido se estratifique, con capas claras de diferentes temperaturas. en principio, este tipo de flujos son inestables a números de Reynolds suficientemente altos, pero no pudieron observarlo en sus experimentos, precisamente porque el número de Reynolds que podían obtener era muy bajo. Cuando las velocidades que empleaban para el fluido eran altas, mayores de 10 cm/s, entonces entraban en un régimen dominado por las fuerzas de inercia. En ese caso, las influencias tanto del campo magnético como de los flujos de calor eran muy bajas en el movimiento final, de tipo turbulento y con temperaturas casi uniformes a lo largo de todo el tubo, con pequeños gradientes cerca de la pared. También observaron que en este régimen de movimiento son las fuerzas de inercia las que dominan la transferencia de calor dentro del fluido. De hecho, para poder cuantificar las diferencias entre flujos y transferencias de calor en los diferentes regímenes de movimiento que observaron, usaron otro número adimensional, el número de Nusselt(5), que describe la relación entre convección y conducción para la transferencia de calor. El empleo de este número les llevó a poder hacer el siguiente gráfico:

Valores del número de Nusselt en función del de Richardson con varios números de Hartmann. Adaptado de la figura 6 del artículo citado.

En él se observa que las diferencias en el número de Richardson pueden explicar los tres tipos de regímenes vistos anteriormente. Cuando este número es muy pequeño, Ri < 0,1; entonces las fuerzas de inercia dominan el movimiento, puesto que el flujo de calor presenta una dependencia leve con el campo magnético. Si el número es muy grande, mayor de 10, entonces la presencia del campo magnético es determinante y el papel de la convección natural es mucho más importante también. Ambos fenómenos se reflejan en que los diversos valores del campo magnético apenas cambian el valor del número de Nusselt, pero su presencia o ausencia, Ha distinto o igual a cero respectivamente, sí que cambia el valor de Nu mucho. Por último, hay una gran zona intermedia, con valores del número de Richardson entre estos dos extremos donde ni la inercia ni las fuerzas de flotación dominan el régimen del fluido, pero ambas son importantes.

El artículo continúa con distintas secciones donde presenta simulaciones con ordenador que confirman sus resultados y una sección donde discute los tres regímenes de movimiento que se observaron y confirma lo que ya dijeron antes sobre la influencia de cada tipo de fuerza en su régimen correspondiente.

El artículo se publicó en la revista Physics of Fluids, volumen 32 067107 (2020).

(1) Una web dónde explican un poco la historia de este metal y sus propiedades es esta entrada: Galio, el metal que se derrite en la mano.

(2) En inglés, el término es «breeder». Lo que quieren decir es que el litio , al ser golpeado por un neutrón, se transforma en tritio (H³) el combustible del reactor de fusión. Y como en el proceso de fusión de forman una gran cantidad de neutrones, pues podría formar el mismo combustible la propia reacción de fusión.

(3) Generalmente llamados «convectivos».

(4) Las fuerzas de flotación , «buoyancy forces» en inglés, son las debidas a diferencias de temperatura dentro del fluido, que a su vez altera la densidad del mismo, lo que provoca cambios en el movimiento del fluido. Es de todos sabido que el aire caliente tiende a subir y el frío a bajar, por ejemplo.

(5) El artículo de la wikipedia es bastante aceptable sobre el tema: Número de Nusselt – Wikipedia.

Los móviles inteligentes se emplean para pensar menos.

Antes de comenzar con este comentario, un pequeño apunte personal. Como todo ser humano, soy algo paradójico. Por un lado, me apasiona la ciencia ficción y la tecnología, me encanta saber cómo funcionan las nuevas tecnologías que se desarrollan y tratar de probar varias de ellas, aparatos nuevos, etc. Por el otro, no dejo de ver y observar los graves inconvenientes que cualquier tecnología trae al ser humano, y concretamente, soy incapaz de sentir la acrítica alegría que observo frecuentemente sobre la introducción de los teléfonos inteligentes en nuestras vidas y sus efectos, siempre vistos desde sólo el punto de vista positivo. Por eso, este artículo que quiero resumir es perfecto: como sucede con frecuencia en ciencia, comienza con una pregunta: ¿afecta de alguna manera medible la posesión de un teléfono móvil al uso de la inteligencia? La respuesta, que desarrollaré, es que sí: el uso de teléfonos inteligentes fomenta la búsqueda de respuestas rápidas y fáciles sugeridas por el móvil en lugar de pensar de manera independiente y analítica, al menos para gente predispuesta a ello.

Comienzan en la introducción con una cita de McLuhan bastante famosa que se puede traducir, más o menos, como: «El medio es el mensaje». Es decir, que la información que nos trasmitimos, luego nuestra cultura, no es independiente del medio que se escoja para trasmitirla. Por ello, afirma que dado que la cantidad de móviles inteligentes ha explosionado en los últimos años, y que su número no para de aumentar, parece claro que se han convertido en un mensaje. Mensaje que en el artículo pretenden ayudar a descifrar.

Después de esta introducción, comienzan por definir la «mente extendida», el concepto que indica que la mente humana actúa acoplada con un ambiente exterior, de forma que influencia y se vé influenciada en su actividad cognitiva por ese ambiente. Luego dicen que dentro de esa mente extendida, es muy importante el concepto de «sistema cognitivo extendido». Un elemento tecnológico que permite realizar una función externamente a la mente que sin esa tecnología tendría que realizarse de manera interna. Un ejemplo sencillo es apuntar un número para recordarlo en un papel. En ese sentido, como apuntan los investigadores, los teléfonos móviles son un sistema cognitivo extendido muy poderoso y que se extiende ahora a una parte muy importante de la población humana total sobre la tierra. Concretamente, el número de usuarios de teléfonos inteligentes en la Tierra ahora mismo ronda la mitad de la población total (49%, 3.800 millones de teléfonos sobre un total de 7.800 millones de personas(1)). Y dado que una parte importante de la «inteligencia» de los móviles viene del hecho de que están conectados a Internet, y que ésta se usa y comprende como una memoria externa de fácil acceso, los investigadores comentan los sorprendentemente escasos artículos sobre el uso de los móviles como sistema cognitivo extendido.

En un apartado posterior reafirman, con una impresionante colección de once referencias, la teoría ampliamente aceptada de que los seres humanos somos «avaros cognitivos», es decir, que si podemos escoger una solución intuitiva a cualquier problema complejo, no lo pensamos y usamos la respuesta intuitiva. Esto nos lleva a descansar nuestros procesos mentales en soluciones más sencillas y atajos mentales de manera desproporcionadamente alta respecto a su eficiencia real.

Así, formulan la hipótesis de que dado que tenemos una tendencia general a buscar soluciones intuitivas y rápidas en vez de usar nuestro cerebro en procesos cognitivos más complicados, con la llegada de los teléfonos móviles es posible que su uso se vea correlacionado con el menor empleo de inteligencia analítica y menor inteligencia. Para comprobar esta hipótesis, realizaron tres estudios, que describen a continuación. Como aquí comienzan ya con temas muy técnicos, resumiré solamente las partes más fundamentales.

El primer estudio se llevó a cabo con ciudadanos norteamericanos de ambos sexos. Querían comprobar si el uso, o la tenencia, de un teléfono inteligente se correlacionaba con medidas de la inteligencia.

Observaron que el uso frecuente de estos dispositivos tenía una correlación positiva con valores más pequeños de empleo de cognición, es decir, las personas que empleaban más teléfonos móviles usaban menos el cerebro para resolución razonada de problemas, confiando en su lugar en resultados intuitivos.

Usando también un conjunto de norteamericanos, comprobaron su desempeño en funciones cognitivas analíticas, y las compararon con el uso de los móviles inteligentes. También añadieron el uso de ordenadores y redes sociales, tanto en ordenadores como en móviles. Es decir, en lugar de comprobar la disposición a usar el análisis en vez de la intuición, comprobaron la calidad de los análisis que hacían los encuestados. Los resultados son curiosos y confirman las hipótesis del primer estudio. Como en el estudio anterior, aquellos participantes que usaban más los móviles tenían una menor capacidad analítica, por lo que quedaba confirmado que el uso de estos dispositivos implica una mayor «tacañería cognitiva». Además, dado que el uso del ordenador no cambiaba demasiado en este grupo respecto los que menos usaban el móvil, quedó claro que no es que los que decían que usaban mucho el móvil no lo decían porque sobrestimaban su uso del mismo, sino que realmente lo usaban más.

Por otra parte, comentan en la introducción del tercer estudio que hay una gran cantidad de evidencia científica que indica que cuanto más se usa el móvil, peores son los resultados académicos entre los estudiantes universitarios, al menos. La principal razón que se esgrime en todos esos estudios es que los móviles actúan como distractor, no que se correlacionen con una disminución de las capacidades cognitivas. Por eso, el tercer estudio que hicieron lo realizaron con estudiantes de universidad, tratando de comprobar si la tendencia al aburrimiento, que ciertamente implica una menor tendencia al uso de funciones cognitivas superiores (son aburridas), podría explicar sus resultados. Los dos estudios presentados antes implicaban que el uso de los móviles, sobre todo para solución de problemas y búsqueda de información, está relacionado con la menor capacidad cognitiva.

Para ello, emplearon estudiantes de universidad canadienses, porque los autores son de una Universidad canadiense. Y los resultados siguieron en la línea de lo que habían visto en los dos estudios anteriores: el uso de los teléfonos móviles esa asociado con una menor capacidad cognitiva y una mayor tendencia al uso de soluciones intuitivas. Sin embargo, no observaron correlación entre la tendencia la aburrimiento y resultados académicos, como se observaba en estudios anteriores. La razón que esgrimen es que quizás lo que realmente correlaciona con menores resultados académicos es el uso en general de aparatos electrónicos o quizás que los resultados académicos de los encuestados fueron proporcionados directamente por ellos mismos.

En la sección siguiente, donde hacen un análisis general de sus resultados, comienzan indicando que los mismos proveen evidencias de que la tendencia a confiar más en resultados intuitivos que en el resultado del pensamiento relacionada con el mayor uso del móvil para buscar información es un signo de una mayor tendencia a la «tacañería cognitiva».

También dicen que hay algunos resultados negativos importantes. Entre ellos, que la correlación que encuentran entre uso intensivo del móvil y menor desempeño cognitivo sólo se produce para ese uso intensivo, si éste no se da, no hay ningún tipo de correlación.

Otro resultado es que, dado que la gente menos tendente a usar el pensamiento analítico es la que más usa el teléfono móvil para buscar respuestas, indicaría en principio que el tener un sentimiento de duda sobre algo incrementa el uso del móvil como herramienta de búsqueda de información, sustituyendo el uso del pensamiento analítico.

Deducen que dada la correlación negativa entre inteligencia y uso del móvil encontrada en sus experimentos, parece lógico suponer que gente más capaz intelectualmente usaría menos la ayuda externa del móvil para realizar tareas complejas, por tener mejores capacidades. Pero que tal idea deberá ser testada en otra ocasión.

En un pequeño párrafo antes de las conclusiones finales, hacen hincapié en las limitaciones de su estudio, que encuentran una clara correlación entre el uso muy frecuente de los teléfonos móviles para buscar información y una menor habilidad cognitiva. Pero correlación no implica causalidad, es decir, que aunque descartaron alguna otra explicación posible, no pueden descartar que haya alguna otra variable que no han comprobado que explique estos resultados. Personalmente, estoy convencido de que sí que es verdad que un uso excesivo del móvil provoque problemas cognitivos, pero ciertamente esto es una convicción no demostrada de manera inequívoca.

En las conclusiones finales comentan que su estudio es un primer paso para un tema fascinante que apenas se está estudiando: el efecto que tiene sobre la psicología humana la nueva cantidad de ayudantes electrónicos capaces de responder a varias cuestiones, o al menos de simularlo bien. Dicen que dados sus resultados, parecería más bien que tales ayudantes pueden reducir la brecha entre los más y los menos inteligentes, pero también advierten que su investigación no es capaz de predecir el efecto que el uso frecuente de tales ayudantes tiene en nuestra capacidad cognitiva futura.

El enlace al artículo publicado en la revista Computer in human Behaviour es: Computers in Human Behavior 48 (2015) 473–480.

(1) Fuentes: Número de usuarios de móviles. Población total de la tierra.

Bacterias alteradas para convertirlas en factorías químicas controladas por luz.

Me gusta la ciencia ficción. Siempre lo ha hecho y junto con la ciencia es una de mis actividades favoritas. Hace algunos años, cuando empezaba a leer ciencia ficción, se imaginaban sistemas de tamaños planetarios para fabricar cosas, porque leía sobre todo obras escritas en los 70 y 80. Cuando me acerqué más a las obras escritas en los 90, comencé a ver que había autores que imaginaban no grandes factorías o fábricas para producir los bienes físicos que necesitamos o nos gustan, sino pequeñas. De tamaño celular, de hecho. Se imaginaban que mediante nanorobots o células alteradas genéticamente, produciríamos una gran cantidad de productos en estos sistemas pequeños, abaratando y simplificando considerablemente su producción. Los resultados que este artículo presenta nos acercan definitivamente a esa idea, pero sin manipulación genética.

Lo que han logrado es hacer que bacterias que normalmente sintetizan hidrocarburos basadas en el consumo de azúcares puedan producir esos mismos hidrocarburos basándose en la exposición a luz. Comienzan en la introducción diciendo que intentos previos de lograr el uso de estos microbios para la producción de hidrocarburos mediante energía solar se basaron en la purificación y refino de las enzimas necesarias y su uso fuera de las células, pero que este sistema no permitía la renovación que se da en el interior de la célula de las enzimas, con lo que su duración es limitada.

Otra estrategia empleada anteriormente consistió en el uso de cepas específicas dentro de las bacteria para producir los químicos deseados, pero así se limita el rango de productos a producir además de que hay problemas debido a la toxicidad de estos productos para las células en si.

Los autores comentan que ha habido una investigación muy activa tratando de encontrar la manera de activar rutas enzimáticas definidas dentro de la célula desde fuera, usando campos magnéticos, luz y otros métodos no demasiado invasivos de interacción exterior con las células objetivo.

Y ellos lo han logrado, como se muestra en la siguiente figura:

Uso de bacterias para fabricación de diversos productos químicos usando como materias primas agua, luz y aire mediante la selectividad por puntos cuánticos(1). Además, se puede seleccionar el producto de salida deseado según la longitud de onda empleada. El arco iris de la derecha es la selectividad de cada punto cuántico a un color específico, que selecciona el producto de salida. Adaptado de la fig. 1 del artículo citado.

Como indica la figura, las materias primas a emplear son siempre las mismas: agua,luz y aire. Lo que cambia en función de la longitud de onda(el color) de la luz con la que se ilumina el grupo de bacterias es el producto de salida. Es importante resaltar que las bacterias empleadas en esta investigación no realizan la fotosíntesis de manera natural, es decir, no usan la luz del sol para producir ningún elemento químico de los que necesitan, empleando en su lugar azúcares. Por otra parte, debido a la naturaleza biológica de la formación de los productos, su eficiencia no pasa del 15 – 18 %, pero la falta de residuos peligrosos en su formación y facilidad de uso y manipulación compensan el problema de la falta de eficiencia.

Por otra parte, como su método no precisa de la manipulación genética de las enzimas, en principio podría usarse para activar funciones concretas de las células tanto para poder investigar esas funciones como para generar terapias concretas.

El esquema general está basado en el uso de puntos cuánticos(1) con una alta selectividad doble. Por un lado, a una longitud de onda o color específico, y por otro, a una región enzimática de la bacteria concreta. Así, al rodear el ambiente de la bacteria con puntos cuánticos concretos, éstos se unen a zonas específicas de las enzimas de su interior, lo que cuando el nanopunto se excita por la luz de su longitud de onda escogida, activa la enzima para la producción del producto químico deseado.

Por lo tanto, lo primero que hicieron los investigadores fue hacer una cuidadosa selección de los nanopuntos, basándose tanto en su tamaño, directamente relacionado con la longitud de onda a la que son sensibles, como su cubierta y formas externas, que generan una selectividad del nanopunto por enzimas específicas dentro de la bacteria.

Luego, comprobaron que los nanopuntos que habían encontrado se fijaban dónde querían sintetizando el producto en el laboratorio y viendo que los puntos cuánticos se fijaban a ese producto sólo. Usando otros nanopuntos distintos, también biocompatibles y con capacidad de penetrar la pared celular, pero con una selectividad distinta comprobaron que sólo los que ellos se habían diseñado se fijaban dentro de la célula al lugar escogido. Los nanopuntos que seleccionaron están compuestos por Cadmio y azufre con un recubrimiento de zinc y azufre, lo que favoreció su selectividad con la enzima que necesitaban, como se observa en la figura siguiente:

Representación de la unión selectiva de los nanopuntos escogidos a la enzima objetivo. Se observa que se seleccionan a través de la zona exterior de la enzima. Adaptado de la fig. (2) del artículo citado.

Lo que se observa en la figura es que al escoger la composición, forma y tamaño de los nanopuntos, fueron capaces de seleccionar muy bien la parte de la enzima a la que se ligaban los nanopuntos.

El artículo continúa explicando los diverso métodos empleados para confirmar que la ligazón de los nanopuntos se produjo sólo con las enzimas seleccionadas, desde comprobar que se producían los productos seleccionados según la ruta metabólica prevista con la adicción al agua en la que estaban las bacterias productos que interrumpen esa ruta y comprobar que así se paraba la producción, hasta comprobaciones en el laboratorio de la ligazón mediante técnicas de espectroscopía que permiten comprobar si hay o no determinados enlaces químicos presentes en la muestra.

También es muy importante comprobar que las bacterias que absorben los puntos cuánticos no se mueren, son viables a pesar de su presencia en el interior de las células. Para ello, los científicos autores de este experimento emplearon varios métodos. Primero, comprobaron el crecimiento celular tras aumentar la concentración de los nanopuntos en su entorno y observaron que con aquellos que se diseñaron correctamente, las células apenas inhibían su crecimiento, mientras que con otro tipo de nanopuntos acababan parando el crecimiento de las bacterias, como muestra la siguiente figura:

Inhibición del crecimiento (izquierda) y viabilidad(derecha) de las células en función de la concentración de las nanoestructuras. Adaptado del artículo citado.

Tanto la supervivencia de las células como su crecimiento indican que los nanopuntos que fabricaron no impiden que las células se reproduzcan. El empleo de otro tipo de comprobaciones les llevó a la misma conclusión: los puntos cuánticos diseñados adecuadamente no le causan problemas en su crecimiento o supervivencia.

Luego comprobaron que, efectivamente, la producción de los productos que querían se hacía tras activar las células con la luz adecuada. Y vieron que al iluminar las bacterias que estaban en el medio con los nanopuntos adecuados, produjeron amoniaco y que al dejar las bacterias en una atmósfera de argón, que no permite la producción de amoniaco, no lo producían, como se ve en la figura siguiente:

Producción de amoniaco y etano, según la bacteria, en función del tipo de nanopuntos (arriba) y de la atmósfera en la que estén las bacterias(abajo). Adpatado de la fig. (4) del artículo citado.

La producción de amoniaco y etano aumenta con los nanopuntos adecuados y sólo si hay la materia prima necesaria, indicando por lo tanto que se producen en el interior de la célula siguiendo las rutas metabólicas previstas.

Después de demostrar que saben cómo lograr que las bacterias produzcan los productos que ellos quieren mediante estos dos productos finales, ajustaron los nanopuntos para que fueran sensibles a distintas longitudes de onda y produjeron diversos productos finales, viendo que los rendimientos obtenidos eran una clara función de la facilidades de la propia ruta metabólica en el interior de la célula para fabricar estos productos: si bien las bacterias son fábricas muy versátiles, esta versatilidad no es infinita, por lo que si la bacteria no tiene los instrumentos para producir un determinado compuesto, es decir, las rutas metabólicas necesarias en su interior, pues no puede producirlo.

La verdad es que es un resultado impresionante, sobre todo por las posibilidades que ofrece: si realmente se puede escoger un gran conjunto de materiales a producir con el mismo tipo de bacterias según los materiales disueltos en su medio de cultivo, se puede soñar con generar fábricas de producción a la carta simplemente cambiando el nanopolvo disuelto y la luz con la que se ilumina.

El artículo original está publicado en la revista Journal of American Chemical Society, J. Am. Chem. Soc. 2019, 141, 26, 10272–10282.

(1)Punto cuántico o nanopolvo: Estructura tridimensional tan pequeña que se comporta como un pozo cuántico, con una altísima selectividad a una frecuencia de la luz de terminada, que absorbe o emite.

Hacernos más jóvenes es posible, sin magia pero con medicamentos.

Debido tanto a su interés intrínseco (¿quién no querría ser más joven o incluso revertir los estragos del tiempo?) tanto económico y social (dado que la sociedad en su conjunto aumenta su edad, parece una buena idea tratar de lograr que esta vejez sea cada vez más activa, menos «pupas», vaya) el estudio de procesos para revertir o minimizar los efectos de la vejez en el cuerpo humano son numerosos.

Hace cerca de un año unos investigadores han encontrado una combinación de medicamentos capaces de revertir el reloj biológico, produciendo cambios epigenéticos(1) en el cuerpo humano de los diez participantes en el experimento.

En el artículo, comienzan diciendo la importancia de ser capaz de tratar de revertir de alguna manera los efectos de la edad en las poblaciones adultas humanas, debido a su incremento en el mundo desarrollado. Lo cierto es que en todo el mundo, incluido en mundo en desarrollo, el porcentaje de población mayor se incrementa de manera sostenida en los últimos años, como demuestran las pirámides de población del artículo de la web Our World in Data.

Tras citar algunas de las últimas investigaciones que dieron como resultado productos o sistemas capaces de revertir algunos de los efectos de la edad, afirman que el problema es que hasta ahora no hay ningún trabajo publicado que demuestre un efecto de reversión de la edad epigenética(2).

Además, comentan que aquellos mayores que viven muchos años no presentan en años posteriores a los 63 una involución del timo, la glándula que permite la maduración de las células T, los centinelas imprescindibles del sistema inmunológico, sin los cuales la prevalencia de cánceres y todo tipo de enfermedades comienzan a proliferar. De hecho, en el artículo comentan que la involución del timo está asociada directamente al aumento muy fuerte de todas estas enfermedades en adultos mayores.

Por ello, y baśandose en evidencia previa que indicaba que la hormona humana del crecimiento paraba la involución del timo y que de hecho promovía su desarrollo, y para evitar el conocido efecto de la hormona del crecimiento proporcionada a adultos del aumento de la diabetes, combinaron esta hormona del crecimiento con otras dos sustancias.

Estas sustancias, llamadas DHEA y metformina, fueron escogidas por sus efectos regulatorios en la insulina en sangre, motivo por el que se recetan hoy en día.

En la sección de resultados comienzan por describir todos los posibles efectos secundarios negativos que esta combinación de medicamentos podrían tener. No fueron capaces de observar ninguno, y no sería por que no lo buscaran. Trataron de observar el comportamiento de indicadores de cáncer, inflamaciones internas y un montón de otros indicadores que certifican la buena salud. Todos ellos mejoraron o se mantuvieron constantes a lo largo del año de prueba. En cuanto a efectos secundarios en sí, se observaron los típicos de la administración de estas sustancias, que no son demasiado preocupantes.

El efecto en el timo también fue muy bueno, porque en todos los casos se observó un aumento de su cantidad de grasa marrón, que es la que estimula la maduración de las células T. Además, este aumento es mayor cuanto menor sea la cantidad inicial, de forma que realmente revierte los efectos en el cuerpo de tóxicos u otros factores epigenéticos.

Después de describir el efecto, también positivo, del tratamiento sobre todo el sistema inmunológico, pasa a comentar la reducción de la edad epigenética en los participantes en el ensayo. Se observó, como indica la figura de abajo una reducción media de unos dos años en esta edad epigenética tras un año de tratamiento.

Cambio observado en la edad epigenética de los participantes en el experimento en función de los meses desde el inicio del mismo. De la figura 5 (d) del artículo citado al final de esta entrada.

El artículo continua con una sección de interpretación médica de estos resultados, donde resaltan que el efecto buscado de aumento de la función del timo tiene como magnífico (e inesperado) efecto secundario la reversión de múltiples y variados indicadores de senectud o vejez en todos los participantes del estudio.

También discuten los posibles mecanismos por los que se produce esta reversión, pero me parecen excesivamente técnicos para resumirlos aquí. Sin embargo, comenta algo muy importante, a mi juicio. Dicen que los efectos de reducción de edad epigenética son persistentes después de la finalización del experimento, al menos durante los meses posteriores al estudio y dicen que sería interesante comprobar si estos efectos se prolongan más en el tiempo o no, porque por el diseño del mismo, su experimento no ha podido comprobar este punto.

Obviamente, antes de ponernos a chutarnos este cóctel de medicinas como locos, tendrán que hacerse más ensayos clínicos generalizados en un número mayor de pacientes. Sólo diez adultos, y todos ellos hombres, no es un número muy alto que se diga.

El artículo se publicó en abierto en la revista Agin Cell, en el volumen 18 de diciembre de 2019. El enlace al artículo es este.

(1) Epigenético: Cambios que se producen en la expresión del código ADN de cada organismo, pero sin modificar el ADN mismo. Generalmente está asociado a cambios producidos como consecuencia de alteraciones del ambiente que rodea al ser vivo.

(2) Edad epigenética: Un marcador que se emplea para predecir los años de vida que le quedan a un ser vivo, mucho más fiable que la edad natural. Un ser vivo de edad epigenética menor, vivirá más años y en mejor estado de salud general que otro de edad epigenética mayor, pero más joven.

Resuelto el misterio del vuelo de la semilla del diente de león.

El Diente de león es una planta que muchísima gente conoce por su amplia presencia: es una de las plantas perennes más presente en el mundo.

Uno de los elementos más hemoso de la misma es su corona llena de semillas que al soplar con suavidad se dispersan hasta distancias realmente lejanas. Según el artículo citado al final de esta entrada, si bien generalmente llegan hasta unos 2 metros, ¡a veces pueden viajar hasta 150 km!

Y una cuestión que los autores del artículo quisieron plantearse es ¿cómo lo hacen? Es decir, quisieron encontrar qué tipo de estructuras y formas de trayectorias del aire a través de la semilla colaboran en su dispersión. El tipo de semillas de los dientes de león no es tan raro en la naturaleza, y se conocen en general como semillas con vilano, que es la estructura plumosa que sostiene al resto de la estructura: el «palo» central del que cuelga la semilla.

Para poder estudiar esta estructura, tuvieron que construir un túnel de viento especial en el que poder colocar la semilla y observar las corrientes y trayectorias del aire por la forma tan especial de la semilla del diente de león.

Los resultados, además de muy bonitos visualmente, son impresionantes, porque la estructura que se observa es un vórtice separado del vilano. Y lo curioso e impresionante es que el vórtice esté separado y en una región estable. Es algo bien sabido que los objetos sólidos al moverse en un medio fluido, como el aire, generan vórtices. Pero los conocidos hasta ahora eran de dos tipos principales: o bien el vórtice se «pegaba» al sólido, o bien se separaba del mismo en la parte de atrás, para perderse en flujos turbulentos. En el caso de las semillas de diente de león, no hace ni una cosa ni la otra: está formando una estructura estable cerca del vilano, colaborando a su empuje.

La imagen siguiente muestra precisamente ese comportamiento, tanto para la propia semilla, como para un disco plano poroso, que reproduce, más o menos, ese comportamiento.

Imágenes sobre el vórtice generado por una semilla de diente de león. a) Estructura del diente de león, con la vilano(pappus, en inglés), señalado. b) Vilano. c) Uno de los pelos del vilano. d) Esquema del montaje experimental. e) y f) Vórtice que se genera en la semilla, con el viento moviéndose a 0 y 60º de orientación del mismo. g) Vórtice habitual de un disco plano. h) Vórtice del mismo tipo de disco, pero poroso.
De la figura 1 del artículo citado.

Una de las cosas que no está clara es cómo puede afectar tanto al vórtice generado un objeto tan poco sólido. Es decir, el vilano de estas semillas tiene un grado de porosidad muy grande, 0,92 +- 0,08 según el artículo, que en principio, dificulta la transformación del flujo que pasa a través del mismo.

Pero estas semillas tienen un componente importante. Como se puede observar en la figura, cada pelo tiene una estructura muy rugosa, que implica que la capa límite(1) que hace a su alrededor es muy gruesa, tanto que interacción con la de los otros pelos situados a su alrededor, formando un volumen por el que no pasa aire, incrementando notablemente el empuje de la semilla, según pudieron observar en simulaciones los autores del artículo.

De hecho, cálculos sobre el coeficiente de arrastre de la semilla indican un valor 39 +- 5 cm/s, mucho más alto del que puede tener un disco, como se muestra en la siguiente figura:

Coeficiente de arrastre de la semilla respecto del de un disco plano. La diferencia es muy fuerte a favor de las semillas, lo que facilita su dispersión.
De la figura 2 del artículo citado.

En la continuación de sus experimentos, observaron que la formación de este vórtice circular no duraba a lo largo de todos los valores del número de Reynolds(2), si no que había un valor crítico para el mismo a partir del cual se pierde el vórtice. Comprobaciones realizadas por los científicos sobre qué valores tomaba ese valor crítico en función de la porosidad se pueden resumir en la siguiente imagen, donde se observa que para valores del número de Reynolds debajo del crítico por encima del crítico, no se puede generar este vórtice:

Frontera del número de Reynolds que genera el vórtice separado, para el disco poroso(a) y un aumento de otra parte más pequeña(b).
De la figura 4 del artículo citado.

El artículo termina haciendo una revisión del mismo tipo de mecanismos para otros seres del mundo animal, especialmente pequeños insectos.

El artículo esa disponible en la dirección:

Nature volume 562, pages414–418 (2018)

(1) Capa límite: Cuando un sólido se sitúa en una corriente de fluido, se puede observar que suficientemente alejados del sólido, el flujo del fluido no se ve afectado por el sólido. La superficie alrededor del sólido donde se observan cambios en el flujo del fluido es lo que se llama «capa límite». El artículo de la Wikipedia es bastan bueno: capa límite (Wikipedia)

(2) Número de Reynolds: Una cantidad adimensional que relaciona las energías debido al rozamiento con el fluido y la debida a la velocidad. En el caso de este artículo, se escribe como UD/v, con U la velocidad del aire, D el diámetro del vilano y v la viscosidad del mismo. El artículo de la Wikipedia es bueno: número de Reynolds (Wikipedia)