Se logra convertir la energía cinética delas gotas de agua en electricidad

En un artículo publicado en la revista Nature, un grupo de investigadores logran mejorar sistemas previos que ya existían para recolectar la energía cinética de gotas de agua cayendo y transformarla de manera más eficiente en electricidad.

Basan sus resultados en investigaciones previas en las que pudieron demostrar la inducción de carga por gotas de agua en la superficie de materiales fluorados(1) usando teflón como material principal superior.

Como indica la figura siguiente, el dispositivo está formado por una capa exterior de teflón en contacto con un electrodo de aluminio, que conecta eléctricamente esta capa exterior con una inferior de un óxido de estaño e indio, ITO por sus siglas en inglés, este último una tierra rara muy cara.

Construcción del dispositivo capaz de usar gotas de lluvia para producir electricidad.
De la figura 1 del artículo citado.

Como se ve en la figura, la capa del óxido y el electrodo de aluminio están conectado y no debería pasar electricidad a través de ellos, a menos que se acumule carga de alguna manera en alguna de las superficies. Y eso es lo que pasa al caer gotas de agua en la parte del teflón, que carga eléctrica se acumula según van cayendo gotas de agua hasta que el valor de la carga eléctrica alcanza un valor de saturación de en torno 50 nC, como indica la figura de abajo.

Carga obtenida en la capa de teflón según el número de gotas de agua. La escala de gotas es del orden de 10.000, saturando el valor máximo de carga obtenido en sus dispositivos para unas 16.000 gotas, aproximadamente.
De la figura 1 c del artículo citado.

Independientemente del mecanismo por el que se produce la carga eléctrica, está claro que hay un valor de saturación de la misma cerca de los 50 nC que comenté antes.

Cada uno de los dispositivos fabricados, hicieron tres en una línea, podía sostener un voltaje de en torno a 140 V con una corriente de 270 µA. Con una resistencia de alrededor de 330 kiloOhmnios, logran unas densidades de potencia de cerca de 50 W/m². Por comparación, lo que se había logrado hasta ahora con dispositivos de este tipo, pero con superficie de aluminio directamente, eran unos voltajes 295 e intensidades de corriente 2.600 veces más pequeñas. No está nada mal.

Los sistemas fotovoltaicos actuales comerciales obtienen potencias del orden de los 200 W/m²(2), lo que quiere decir que están ya en camino de convertirse en una alternativa razonable de generación de energía.

Su eficiencia de conversión de la energía cinética de la gota que cae es del orden del 2%. Las primeras células solares comerciales tenían eficiencias de ese orden de magnitud, desde el 2 al 8%, como indica la figura siguiente, extraída de la entrada de la Wikipedia sobre paneles fotovoltaicos.

De National Renewable Energy Laboratory (NREL) – National Renewable Energy Laboratory (NREL), Golden, COUnited States Department of Energywebsiteimagepdf imageexplanatory notes, Dominio público, Enlace

Los investigadores prosiguen en su artículo buscando las razones del incremento tan fuerte en la eficiencia respecto a sistemas anteriores. Pudieron observar experimentalmente que las cargas eléctricas transportadas por las gotas no variaban al impactar en el material, con lo que su cambio no era la causa de la mejora observada.

Entonces, fijaron su atención en la variación de la corriente y cargas en el dispositivo a lo largo del tiempo, notando que ambos parámetros oscilaban en función de si la gota tocaba el electrodo de aluminio o no. Cuando la gota comenzaba a tocar el electrodo de aluminio, se producía una transferencia de corriente desde la superficie del teflón hasta el electrodo de óxido ITO, mientras que cuando se retiraba la gota, sucedía al revés y la corriente primero se volvía negativa para alcanzar un valor final de cero. Este resultado se comprueba en la figura de abajo, donde se ve la dinámica de la corriente producida por una gota en un dispositivo.

Dinámica de la corriente eléctrica en el dispositivo al caerle una gota. Se observa como la corriente sube muy rápidamente cuando la gota toca el electrodo de aluminio y se hace negativa al retirarse la gota del mismo, sobre todo en la ampliación de escala de la derecha, parte c de la figura.
De la figura 2 b c del artículo citado.

Los autores del artículo proponen, basado en este comportamiento y en el hecho de que la posición del electrodo de aluminio que conecta la superficie de teflón con el óxido ITO no afecta a la eficiencia del dispositivo, que la corriente se transfiere desde el ITO hasta el teflón y viceversa en ciclos reversibles. La reversibilidad del sistema se apoya en que no han podido observar que la eficiencia del dispositivo varía con el tiempo, lo que quiere decir que no hay elementos que se «gasten» en el tiempo.

Tratando de entender mejor qué lleva su dispositivo a ser tan eficiente, usaron el número de Weber(3) de las gotas que caen sobre él. El resultado se puede resumir en la figura siguiente, extraída del artículo:

Carga obtenida en función del número de Weber de la gota. Noten que hay una cierta saturación de la carga para un valor del orden de 100 en una carga de 50 µC, como ya había comentado antes.
De la figura 2 e del artículo citado.

Esto querría decir que es importante que para lograr incrementos de carga, es más importante la energía cinética de las gotas que su tensión superficial.

Dado que es un sistema eléctrico, los investigadores usaron la teoría de circuitos y los datos que ya poseían para tratar de modelarlo. Y lo lograron con un sistema con tres condensadores:

  • Uno superficial con las superficies de agua y teflón,
  • otro del mismo tipo entre las superficies del agua y el aluminio,
  • el tercero, volumétrico, con el teflón como dieléctrico y las superficies agua/teflón y teflón/óxido ITO como electrodos.

De los tres, en principio el tercero sería el más pequeño y el que se carga gracias a los otros dos «condensadores» que se forman por la interacción de la gua con las superficies citadas. Si este modelo fuera adecuado, podrían estimar la carga máxima. Haciendo los cálculos, los investigadores obtuvieron un valor para las dimensiones de su dispositivo cercano a los 50 µC medidos, lo que les dá confianza en que su modelización es correcta. Por otra parte, en ese caso el voltaje que se obtiene debería ser directamente proporcional al ancho del teflón, lo que la figura de abajo confirma claramente.

Relación lineal del voltaje con el ancho del teflón en su dispositivo y como la carga acumulada es independiente del mismo. Ambos datos apuntan que su modelo eléctrico del dispositivo es acertado.
De la figura 3 c del artículo citado.

Los investigadores comentan que la forma de funcionar del dispositivo se confirma con simulaciones moleculares que realizaron, donde pudieron observar que las cargas iónicas que llevara el agua se separan en las superficies del teflón y el electrodo de aluminio, una vez que en la simulación añadían cargas estáticas en el teflón y el aluminio.

Por último, además de un sistema de laboratorio, hicieron un prototipo que probaron con agua de lluvia y agua de mar, para observar su eficiencia. Comprobaron que la eficiencia con los dos últimos tipos de agua, el sistema era menos eficiente porque generaba menos voltaje, aunque aún tenía eficiencias relativamente aceptables. El prototipo desarrollado y los voltajes obtenidos con los diversos tipos de agua están en la figura siguiente.

La figura superior muestra el dispositivo empleado, donde el depósito superior almacena el agua, independientemente de su origen, el regulador de flujo del medio hace que las gotas caigan en los dispositivos que generan la electricidad, los llamados DEGs (4). La figura inferior muestra que los tres tipos de agua empleados, el más eficiente es el gua de grifo, «tap water» en inglés y el menos eficiente, el agua de mar, «sea water».
De la figura 4 b d, del artículo citado.

Dos detalles me llamaron la atención sobre el artículo. El primero, que dado que la generación principal de carga está relacionada con la electricidad estática a través del efecto triboeléctrico(5), y esta no está nada clara, los propios autores del artículo tiene que pasar muy por alto la acumulación de carga inicial en su dispositivo. La otra, que a pesar de no tener claro el motivo por lo que algo funciona, por qué funciona, eso no necesariamente es un obstáculo para hacerlo mejor, porque hay elementos del modelo que explica cómo funciona que pueden soslayarse.

El artículo salió publicado en la revista Nature, volumen 578 y está disponible en abierto en la dirección de la revista: Nature, 578, 392–396(2020).

(1) Un material fluorado es un polímero en el que se han sustituido algunos átomos de carbono por átomos de flúor. Uno de los más conocidos es el teflón empleado en este artículo, cuya fórmula química es (CF2 – CF2)n

(2) Esta cifra se ha obtenido suponiendo una eficiencia total del panel del 20%, bastante cercana a los mejores paneles solares y una irradiancia solar de 1.000 W/m², valor ideal. Los valores reales de potencia solar serán algo más bajos, probablemente cercanos a los 160 W/m² porque los rendimientos habituales son del 16 por ciento en muchos paneles de bajo rendimiento.

(3) El número de Weber es una cantidad adimensional que relaciona las fuerzas de inercia, energía mecánica debida a la velocidad, de un fluido con la tensión superficial, o fuerza debidas a la superficie de contacto de dos fluidos, por ejemplo, agua y aire. Su definición, donde aparecen la densidad del fluido, una longitud característica (en este caso el diámetro de las gotas que caen) y su tensión superficial está tanto en el artículo citado como en la entrada de la Wikipedia sobre el número de Weber.

(4) DEGs es la abreviatura en inglés de generador de energía eléctrica basado en gotas («Droplet-based Electrical Generator».)

(5) Efecto triboeléctrico es la generación de energía eléctrica debido al contacto con de un material con otro. Está muy relacionado con la electricidad estática y es un tanto misterioso en su origen último. El artículo de la Wikipedia sobre efecto triboeléctrico está muy bien: Wikipedia- Efecto triboeléctrico.

¿Es el Software libre resistente a todo tipo de usuarios?

El software libre, producido bajo los principios de las cuatro libertades de ejecución, estudio, modificación y distribución(1), ocupa un lugar cada vez más importante en nuestras vidas, al ser el que soporta una gran cantidad de puntos fundamentales de la red internet actual. Por lo tanto, una cuestión relevante es cuán fácil o difícil es que un determinado software libre pueda seguir adelante en el tiempo según sus usuarios, que también suelen ser los que lo mantienen.

En el artículo que comento, empiezan en la introducción repitiendo que debido a su naturaleza, el mantenimiento de una base grande de usuarios comprometidos y capaces de modificar y ajustar ese software según se necesite es fundamental para el éxito de cualquier programa de este estilo.

Continúan señalando que debido a su naturaleza abierta y al éxito del modelo, hay cada vez más programas similares desarrollándose a la vez, lo que supone que hay una competición muy fuerte entre los diversos programas por captar y atraer los usuarios. Personalmente creo que con frecuencia varios de estos proyectos se unen o termina quedándose solo uno, pero el que se queda ha ganado la «competición», desde luego.

En cualquier caso, la robustez(2) de su red es muy importante. Y por eso los autores de este artículo se pusieron a estudiarla para las redes típicas de generación y mantenimiento de software libre.

Continúan diciendo que la mayor parte de los estudios sobre la robustez de redes se refería a redes físicas, como las de transmisión eléctrica, transporte, etc. Así, hay menos estudios sobre redes virtuales, si bien al aumentar tanto la importancia y cantidad del software libre, algunos estudios se han realizado. En su revisión rápida de la introducción, los autores de este artículo citan trabajos sobre software libre en los que encontraron algunas características de estas redes de trabajo, que se pueden resumir así:

  • Cambian su capacidad de resistencia a ataques externos según el tipo de escala que tenga la red,
  • Para que un proyecto pueda sobrevivir, es fundamental que su sistema de reclutamiento y mantenimiento de personal sea efectivo,
  • Su propia estructura de centro fuerte y una gran periferia más débil de usuarios la hace muy resistente a ataques externos, pero deja el proyecto en riesgo de anquilosarse si lo hace el centro,
  • Si un usuario de la red que posee una gran parte del conocimiento del programa se marcha, el proyecto sufre y puede llegar a abandonarse.

Además, también citan dos artículos que analizaban el código desde el punto de vista de si el software libre está mejor o peor codificado que otros tipos. Pero todos estos trabajos sobre la robustez se centran en algún punto concreto, mientras que los autores de este artículo pretenden centrarse precisamente en la robustez en sí de las redes de software libre.

Centrándose más en materia, los autores del artículo comentan que los contribuyentes a proyectos de software libre reconocen que es muy importante para que el proyecto saga adelante que se intercambie información técnica o de habilidades de programación, mientras que otro tipo de datos, como felicitaciones, no es tan importante. Además, hay un conjunto importante de usuarios llamados «vaqueros de grupa»(3), que ni contribuyen ni colaboran al proyecto, la gran mayoría de usuarios, entre los que me encuentro.

Este trabajo se centra en el problema que puede suponer para un proyecto de este tipo la pérdida de usuarios con conocimiento. Uno de los problemas con los que se encuentran es que la mayoría de las investigaciones sobre la robustez de redes se centran en redes estáticas, mientras que por su propia naturaleza las redes que producen software libre son muy dinámicas, con los miembros cambiando a lo largo del tiempo mucho de manera muy fluida. Además, la mayoría de estudios sobre la robustez de redes emplean algún tipo de medida que tiene en cuenta la propia estructura de la red, no el conocimiento de sus miembros, que en redes de programación es fundamental, puesto que la pérdida de demasiado conocimiento causa que el proyecto fracase.

Para ello, emplearon redes de producción abierta de coches de la empresa Local Motors, que tiene una filosofía abierta sobre su fabricación y desarrollo de productos. Construyeron una base de datos de 11 proyectos de su web durante 8 años. Para construir la red, tuvieron que observar las 25472 comunicaciones de sus 1689 usuarios. Un trabajo complicado, que se tradujo en una red con nodos, los usuarios que poseen conocimiento, y filos, las formas en las que ese conocimiento se transmite por los nodos.

Al observar la evolución histórica delas diversas redes de la compañía, representada en la figura 1, pudieron dividirlas en tres estados: comienzo, crecimiento y madurez. En los tres estados, la redes son del tipo «mundo pequeño», lo que quiere decir que la colaboración se produce entre agrupaciones pequeñas de los nodos de la red, más que entre todos los nodos. También observaron que son redes libres de escala, es decir, que sus características fundamentales no varían según el tamaño de la red.

Evolución temporal de la red que estudiaron. Figura 1 del artículo citado.

Al tratar de separar los usuarios (nodos) de la red, observaron tres comportamientos típicos: los innovadores, los diseñadores importantes y los usuarios comunes. Con la red inicial, apenas había usuarios diseñadores o comunes, en comparación con las redes en crecimiento y maduras. De manera bastante lógica, es este último tipo de red la que tiene una mayor proporción de usuarios diseñadores y comunes frente a innovadores.

También pudieron contar el número de usuarios por tipo que se unían a la red o que la dejaban, observando una gran variabilidad temporal, que se puede ajustar por una ley de potencias del estilo:

y = a * xb,

tanto para los usuarios que llegan como para los que se marchan.

Luego tratan de ver como las pérdidas de usuarios podrían afectar a la red, para lo que definen dos tipos principales de pérdidas, las aleatorias y voluntarias. Las aleatorias son nodos que simplemente, cambian dentro de la red, pero que pueden volver a la misma, mientras que las voluntarias son personas que por cualquier motivo deciden dejar el grupo, llevándose su conocimiento con ellos.

Tras definir estos valores, hacen simulaciones en los que representan la pérdida de estos tres tipos de usuarios para las tres redes, inicial, en crecimiento y madura, con el propósito de observar cuán resistentes son.

Cuando la red es inicial, sus resultados demuestran que la misma es muy sensible a la pérdida de usuarios innovadores, que pueden hacer que la red incluso caiga si son demasiados. Por la misma razón, además de evitar que se vayan por la pérdida de conocimiento que supone para la propia red, es importante tratar de que diseminen rápidamente su conocimiento para que se transmita lo antes posible.

Para las redes en crecimiento la situación es parecida, en el sentido de que la pérdida de usuarios deliberada puede hacer que la red deje de funcionar. Sin embargo, las pérdidas aleatorias de usuarios no le afectan tanto, siendo una estructura muy resistente a ellas.

En las redes maduras, la influencia de los usuarios innovadores se incrementa, en el sentido de que cuando ellos desparecen, la red sufre mucho más que en los casos anteriores, también debido a que todos los usuarios comparten mucho más conocimiento que en otros estados de las redes. Por ello, en este tipo de redes es fundamental la distribución de tareas que logre una mayor implicación de los miembros de la misma.

El artículo termina con una serie de recomendaciones para que las comunidades de este estilo puedan crecer y prosperar según el estado en el que se encuentra la comunidad, que se pueden resumir en las siguientes ideas:

  • Para los gestores de la comunidad:
    1. para comunidades iniciales, lograr que los usuarios con conocimiento aumenten al interaccionar en la red e incrementar el número de usuarios.
    2. Para una comunidad en crecimiento, hay que establecer mecanismos de protección de los usuarios que saben, para evitar su pérdida.
    3. Si la comunidad es madura, se deben establecer mecanismos para estimular los usuarios diseñadores e innovadores, para tratar de evitar su pérdida.
  • Para los usuarios:
    1. Tratar de tener una gran diversidad de usuarios,
    2. animar a los innovadores y diseñadores a compartir conocimiento, para incrementar su número,
    3. animar a los usuarios normales a aceptar desafíos, con la idea de que se conviertan en usuarios experimentados.

El artículo se publicó en la revista Physica A, Statistial Mechanics and ist Applications, 15 February 2020, 122888.

(1) En la página de la asociación para el software libre explican (en inglés) estos cuatro principios: What is free software?

(2) Es mi traducción de la palabra «robustness» que emplean en el artículo. Se trata de la habilidad de cualquier sistema en red de resistir perturbaciones o falos, internos o externos, sin dejar de cumplir su función. La Wikipedia en inglés tiene un artículo decente sobre el tema: Robustness of complex networks.

(3) En realidad en inglés los llaman «free riders», pero me parece que se conserva mejor el sentido si se traduce pensando en vaqueros, entendidos estos como personas que cabalgan. Además, es mucho más divertido.

Los metales también son fluidos, aunque algo raritos.

Cuando les explico a mis alumnos el concepto de medio continuo, siempre trato de que se den cuenta de que los fluidos no sólo son los líquidos y gases a los que estamos acostumbrados, que otros elementos pueden ser fluidos bajo circunstancias favorables. Por ejemplo, el metal mercurio fluye a temperatura y presión habituales. Y hay aleaciones de metales que calentados con el calor de la mano, empiezan a fluir porque su temperatura de fusión es muy baja, por debajo de la corporal, como por ejemplo el galio(1). Además, determinadas aleaciones que tienen una gran utilidad industrial, o que pueden tenerla en el futuro, son líquidas a temperaturas no tan altas.

Una de estas aleaciones es la de plomo con litio, que es líquida a temperaturas del orden de los cientos de grados y que se pretende usar para recoger la energía de los futuros reactores de fusión. La idea es que esta aleación se caliente un montón en el núcleo del reactor y que después intercambie parte de ese calor con un intercambiador externo, que moverá una turbina para producir energía eléctrica.

Para poder hacer todo esto, además de estudiar la forma de lograr fusión con generación positiva de energía, hay que tener claro cómo se mueve el fluido formado por la aleación de plomo y litio. Pero hay un problema: al ser dos metales, son muy sensibles a los campos eléctricos y magnéticos, de forma que las ecuaciones y números adimensionales habituales en la mecánica de fluidos no son suficientes, hay que usar lo que se denomina magneto-hidrodinámica. Es decir, la unión de las ecuaciones que gobiernan el movimiento de los fluidos con las que presentan el movimiento de las cargas eléctricas. Y eso es lo que hicieron, al menos en parte, en un estudio muy interesante en el que hicieron fluir esta aleación por una tubería de acero calentada por debajo.

Comienzan el artículo diciendo que los metales líquidos se han propuesto como enfriadores y generadores de helio, esto último el litio(2). Se pretende emplear estas aleaciones por su alta capacidad térmica, que pueden absorber mucho calor de la reacción de fusión, y su alto punto de ebullición, que necesitan temperaturas muy altas para ponerse a hervir, es decir, a transformarse en gas metálico. Al ser metales, como ya comenté antes, tienen que tenerse en cuenta los efectos de las cargas eléctricas y los campos magnéticos, y de hecho varios estudios, según los autores del artículo, lo han hecho así. Por otra parte, los movimientos de transporte de calor mediante fluidos(3) para estos metales bajo la acción de un campo magnético son importántisimos en la metalurgia y el crecimiento de cristales. No deberíamos olvidar que los metales son cristales, y que sus propiedades dependen en gran manera de qué tipo de cristal forma al enfriarse el metal, que a su vez depende de manera muy fuerte de los flujos de la fase líquida del metal, con lo que la investigación de estos autores tiene muchos usos, amén del simple placer de saber más sobre un sistema tan interesante como son los líquidos con propiedades eléctricas.

La introducción sigue comentando que una gran cantidad de estudios numéricos se han hecho para poder definir varios parámetros de la dinámica de estos líquidos, junto con varios estudios experimentales, especialmente con líquidos que se parecen mucho a los metales, pero que no lo son.

Continúan después explicando las fuerzas principales que actúan sobre la convección en un líquido que responde a campos magnéticos: la fuerzas electromagnéticas, la de flotación(4) y las de inercia, o movimiento, cuando el fluido posee viscosidad.

Las fuerzas electromagnéticas por un lado, aumentan la disipación de parte de la energía cinética del fluido debido al rozamiento forzado por los campos magnéticos, lo que reduce su inestabilidad, y por otro genera estructuras que provocan sus propios tipos de inestabilidades.

Las fuerzas de flotación hacen que el fluido se «organice» en columnas para conectar las regiones más calientes y las más frías, mientras que las fuerzas de inercia facilitan el movimiento del fluido a lo largo del flujo.

Los investigadores trataron de observar el efecto de cada una de estas fuerzas independientemente en la dinámica del fluido, para lo que usaron una instalación experimental interesante.

Sistema experimental empleado. Se observan las termocuplas empleadas para medir la temperatura de las termocuplas, los calentadores del fluido y el aislamiento para poder tener el metal a una temperatura más o menos constante. De la figura 1 del artículo citado.

Para poder tener datos de tanto la temperatura como el campo eléctrico, las termocuplas (distribuyeron 123 en todo el experimento) se usaban de doble forma: la punta de la misma proporcionaba información sobre la temperatura del fluido, mientras que el aislamiento que la rodeaba se empleaba para medir el potencial eléctrico al que estaba sometido. Además, usaron medidores de flujo y como se muestra en la figura superior, tenían platos calentadores capaces de proporcionar una gran cantidad de energía calorífica al fluido. Posteriormente, los autores del artículo dedican una cierta cantidad de espacio a explicar cómo realizaron los experimentos que no reseño, centrándome más en los resultados principales. Para poder estudiar una gran cantidad de valores, variaron los parámetros de velocidad, campo magnético y flujo de calor según la tabla siguiente:

Parámetro Valores
Velocidad(cm/s) 1, 2, 3, 4, 5, 10, 15, 20
Campo magnético (T) 0; 0,5; 1; 1,5
Flujo de calor (W/cm²) 0, 2, 4, 6

Uno de los resultados experimentales que observan, y que les permite confirmar que su sistema de medidas es adecuado, es que al aumentar la velocidad del fluido y cambiando el campo magnético aplicado, aumenta la desigualdad en la distribución de temperaturas a la salida del conducto. Cuando este campo se hace cero, apenas hay cambios en la distribución de temperaturas del fluido, aparte de una disminución de las diferencias entre las temperaturas de entrada y salida del conducto al aumentar la velocidad del fluido.

Para poder extender sus resultados y aplicarlos a situaciones muy distintas de las estudiadas experimentalmente, emplearon números adimensionales. Como querían estudiar el efectos de tres fuerzas, usaron los tres números siguientes:

Donde Ha es el número de Hartmann, Re el de Reynolds y Gr el de Grashof. Thw es la media de la temperatura de la pared, T0 la del fluido.

Ha² proporciona la relación entre las fuerzas electromagnéticas y viscosas, o de rozamiento, el de Reynolds relaciona las fuerzas de inercia o movimiento con las viscosas y el de Grashof si la fuerza de flotación domina a la de rozamiento o viscosa. Además, para poder cuantificar el efecto de la convección, se precisa el número de Richardson, definido como Gr/Re², y que proporciona la relación entre las fuerzas de flotación y las viscosas. Lo que pudieron observar es que hay tres regímenes de movimiento, cada uno dominado por una de las fuerzas.

Así, en el régimen donde la fuerza de flotabilidad domina el movimiento del fluido, precisamente por ser la fuerza dominante la de flotabilidad, se forman células convectivas que se alteran con la presencia del campo magnético y en función de la velocidad, pero siempre son los elementos dominantes del movimiento del fluido.

Cuando el campo magnético es lo suficientemente alto, más de 0,5 Tesla en este experimento, entonces el fluido está dominado por la fuerza electromagnética, lo que hace que es fluido la temperatura del fluido se estratifique, con capas claras de diferentes temperaturas. en principio, este tipo de flujos son inestables a números de Reynolds suficientemente altos, pero no pudieron observarlo en sus experimentos, precisamente porque el número de Reynolds que podían obtener era muy bajo. Cuando las velocidades que empleaban para el fluido eran altas, mayores de 10 cm/s, entonces entraban en un régimen dominado por las fuerzas de inercia. En ese caso, las influencias tanto del campo magnético como de los flujos de calor eran muy bajas en el movimiento final, de tipo turbulento y con temperaturas casi uniformes a lo largo de todo el tubo, con pequeños gradientes cerca de la pared. También observaron que en este régimen de movimiento son las fuerzas de inercia las que dominan la transferencia de calor dentro del fluido. De hecho, para poder cuantificar las diferencias entre flujos y transferencias de calor en los diferentes regímenes de movimiento que observaron, usaron otro número adimensional, el número de Nusselt(5), que describe la relación entre convección y conducción para la transferencia de calor. El empleo de este número les llevó a poder hacer el siguiente gráfico:

Valores del número de Nusselt en función del de Richardson con varios números de Hartmann. Adaptado de la figura 6 del artículo citado.

En él se observa que las diferencias en el número de Richardson pueden explicar los tres tipos de regímenes vistos anteriormente. Cuando este número es muy pequeño, Ri < 0,1; entonces las fuerzas de inercia dominan el movimiento, puesto que el flujo de calor presenta una dependencia leve con el campo magnético. Si el número es muy grande, mayor de 10, entonces la presencia del campo magnético es determinante y el papel de la convección natural es mucho más importante también. Ambos fenómenos se reflejan en que los diversos valores del campo magnético apenas cambian el valor del número de Nusselt, pero su presencia o ausencia, Ha distinto o igual a cero respectivamente, sí que cambia el valor de Nu mucho. Por último, hay una gran zona intermedia, con valores del número de Richardson entre estos dos extremos donde ni la inercia ni las fuerzas de flotación dominan el régimen del fluido, pero ambas son importantes.

El artículo continúa con distintas secciones donde presenta simulaciones con ordenador que confirman sus resultados y una sección donde discute los tres regímenes de movimiento que se observaron y confirma lo que ya dijeron antes sobre la influencia de cada tipo de fuerza en su régimen correspondiente.

El artículo se publicó en la revista Physics of Fluids, volumen 32 067107 (2020).

(1) Una web dónde explican un poco la historia de este metal y sus propiedades es esta entrada: Galio, el metal que se derrite en la mano.

(2) En inglés, el término es «breeder». Lo que quieren decir es que el litio , al ser golpeado por un neutrón, se transforma en tritio (H³) el combustible del reactor de fusión. Y como en el proceso de fusión de forman una gran cantidad de neutrones, pues podría formar el mismo combustible la propia reacción de fusión.

(3) Generalmente llamados «convectivos».

(4) Las fuerzas de flotación , «buoyancy forces» en inglés, son las debidas a diferencias de temperatura dentro del fluido, que a su vez altera la densidad del mismo, lo que provoca cambios en el movimiento del fluido. Es de todos sabido que el aire caliente tiende a subir y el frío a bajar, por ejemplo.

(5) El artículo de la wikipedia es bastante aceptable sobre el tema: Número de Nusselt – Wikipedia.

Los móviles inteligentes se emplean para pensar menos.

Antes de comenzar con este comentario, un pequeño apunte personal. Como todo ser humano, soy algo paradójico. Por un lado, me apasiona la ciencia ficción y la tecnología, me encanta saber cómo funcionan las nuevas tecnologías que se desarrollan y tratar de probar varias de ellas, aparatos nuevos, etc. Por el otro, no dejo de ver y observar los graves inconvenientes que cualquier tecnología trae al ser humano, y concretamente, soy incapaz de sentir la acrítica alegría que observo frecuentemente sobre la introducción de los teléfonos inteligentes en nuestras vidas y sus efectos, siempre vistos desde sólo el punto de vista positivo. Por eso, este artículo que quiero resumir es perfecto: como sucede con frecuencia en ciencia, comienza con una pregunta: ¿afecta de alguna manera medible la posesión de un teléfono móvil al uso de la inteligencia? La respuesta, que desarrollaré, es que sí: el uso de teléfonos inteligentes fomenta la búsqueda de respuestas rápidas y fáciles sugeridas por el móvil en lugar de pensar de manera independiente y analítica, al menos para gente predispuesta a ello.

Comienzan en la introducción con una cita de McLuhan bastante famosa que se puede traducir, más o menos, como: «El medio es el mensaje». Es decir, que la información que nos trasmitimos, luego nuestra cultura, no es independiente del medio que se escoja para trasmitirla. Por ello, afirma que dado que la cantidad de móviles inteligentes ha explosionado en los últimos años, y que su número no para de aumentar, parece claro que se han convertido en un mensaje. Mensaje que en el artículo pretenden ayudar a descifrar.

Después de esta introducción, comienzan por definir la «mente extendida», el concepto que indica que la mente humana actúa acoplada con un ambiente exterior, de forma que influencia y se vé influenciada en su actividad cognitiva por ese ambiente. Luego dicen que dentro de esa mente extendida, es muy importante el concepto de «sistema cognitivo extendido». Un elemento tecnológico que permite realizar una función externamente a la mente que sin esa tecnología tendría que realizarse de manera interna. Un ejemplo sencillo es apuntar un número para recordarlo en un papel. En ese sentido, como apuntan los investigadores, los teléfonos móviles son un sistema cognitivo extendido muy poderoso y que se extiende ahora a una parte muy importante de la población humana total sobre la tierra. Concretamente, el número de usuarios de teléfonos inteligentes en la Tierra ahora mismo ronda la mitad de la población total (49%, 3.800 millones de teléfonos sobre un total de 7.800 millones de personas(1)). Y dado que una parte importante de la «inteligencia» de los móviles viene del hecho de que están conectados a Internet, y que ésta se usa y comprende como una memoria externa de fácil acceso, los investigadores comentan los sorprendentemente escasos artículos sobre el uso de los móviles como sistema cognitivo extendido.

En un apartado posterior reafirman, con una impresionante colección de once referencias, la teoría ampliamente aceptada de que los seres humanos somos «avaros cognitivos», es decir, que si podemos escoger una solución intuitiva a cualquier problema complejo, no lo pensamos y usamos la respuesta intuitiva. Esto nos lleva a descansar nuestros procesos mentales en soluciones más sencillas y atajos mentales de manera desproporcionadamente alta respecto a su eficiencia real.

Así, formulan la hipótesis de que dado que tenemos una tendencia general a buscar soluciones intuitivas y rápidas en vez de usar nuestro cerebro en procesos cognitivos más complicados, con la llegada de los teléfonos móviles es posible que su uso se vea correlacionado con el menor empleo de inteligencia analítica y menor inteligencia. Para comprobar esta hipótesis, realizaron tres estudios, que describen a continuación. Como aquí comienzan ya con temas muy técnicos, resumiré solamente las partes más fundamentales.

El primer estudio se llevó a cabo con ciudadanos norteamericanos de ambos sexos. Querían comprobar si el uso, o la tenencia, de un teléfono inteligente se correlacionaba con medidas de la inteligencia.

Observaron que el uso frecuente de estos dispositivos tenía una correlación positiva con valores más pequeños de empleo de cognición, es decir, las personas que empleaban más teléfonos móviles usaban menos el cerebro para resolución razonada de problemas, confiando en su lugar en resultados intuitivos.

Usando también un conjunto de norteamericanos, comprobaron su desempeño en funciones cognitivas analíticas, y las compararon con el uso de los móviles inteligentes. También añadieron el uso de ordenadores y redes sociales, tanto en ordenadores como en móviles. Es decir, en lugar de comprobar la disposición a usar el análisis en vez de la intuición, comprobaron la calidad de los análisis que hacían los encuestados. Los resultados son curiosos y confirman las hipótesis del primer estudio. Como en el estudio anterior, aquellos participantes que usaban más los móviles tenían una menor capacidad analítica, por lo que quedaba confirmado que el uso de estos dispositivos implica una mayor «tacañería cognitiva». Además, dado que el uso del ordenador no cambiaba demasiado en este grupo respecto los que menos usaban el móvil, quedó claro que no es que los que decían que usaban mucho el móvil no lo decían porque sobrestimaban su uso del mismo, sino que realmente lo usaban más.

Por otra parte, comentan en la introducción del tercer estudio que hay una gran cantidad de evidencia científica que indica que cuanto más se usa el móvil, peores son los resultados académicos entre los estudiantes universitarios, al menos. La principal razón que se esgrime en todos esos estudios es que los móviles actúan como distractor, no que se correlacionen con una disminución de las capacidades cognitivas. Por eso, el tercer estudio que hicieron lo realizaron con estudiantes de universidad, tratando de comprobar si la tendencia al aburrimiento, que ciertamente implica una menor tendencia al uso de funciones cognitivas superiores (son aburridas), podría explicar sus resultados. Los dos estudios presentados antes implicaban que el uso de los móviles, sobre todo para solución de problemas y búsqueda de información, está relacionado con la menor capacidad cognitiva.

Para ello, emplearon estudiantes de universidad canadienses, porque los autores son de una Universidad canadiense. Y los resultados siguieron en la línea de lo que habían visto en los dos estudios anteriores: el uso de los teléfonos móviles esa asociado con una menor capacidad cognitiva y una mayor tendencia al uso de soluciones intuitivas. Sin embargo, no observaron correlación entre la tendencia la aburrimiento y resultados académicos, como se observaba en estudios anteriores. La razón que esgrimen es que quizás lo que realmente correlaciona con menores resultados académicos es el uso en general de aparatos electrónicos o quizás que los resultados académicos de los encuestados fueron proporcionados directamente por ellos mismos.

En la sección siguiente, donde hacen un análisis general de sus resultados, comienzan indicando que los mismos proveen evidencias de que la tendencia a confiar más en resultados intuitivos que en el resultado del pensamiento relacionada con el mayor uso del móvil para buscar información es un signo de una mayor tendencia a la «tacañería cognitiva».

También dicen que hay algunos resultados negativos importantes. Entre ellos, que la correlación que encuentran entre uso intensivo del móvil y menor desempeño cognitivo sólo se produce para ese uso intensivo, si éste no se da, no hay ningún tipo de correlación.

Otro resultado es que, dado que la gente menos tendente a usar el pensamiento analítico es la que más usa el teléfono móvil para buscar respuestas, indicaría en principio que el tener un sentimiento de duda sobre algo incrementa el uso del móvil como herramienta de búsqueda de información, sustituyendo el uso del pensamiento analítico.

Deducen que dada la correlación negativa entre inteligencia y uso del móvil encontrada en sus experimentos, parece lógico suponer que gente más capaz intelectualmente usaría menos la ayuda externa del móvil para realizar tareas complejas, por tener mejores capacidades. Pero que tal idea deberá ser testada en otra ocasión.

En un pequeño párrafo antes de las conclusiones finales, hacen hincapié en las limitaciones de su estudio, que encuentran una clara correlación entre el uso muy frecuente de los teléfonos móviles para buscar información y una menor habilidad cognitiva. Pero correlación no implica causalidad, es decir, que aunque descartaron alguna otra explicación posible, no pueden descartar que haya alguna otra variable que no han comprobado que explique estos resultados. Personalmente, estoy convencido de que sí que es verdad que un uso excesivo del móvil provoque problemas cognitivos, pero ciertamente esto es una convicción no demostrada de manera inequívoca.

En las conclusiones finales comentan que su estudio es un primer paso para un tema fascinante que apenas se está estudiando: el efecto que tiene sobre la psicología humana la nueva cantidad de ayudantes electrónicos capaces de responder a varias cuestiones, o al menos de simularlo bien. Dicen que dados sus resultados, parecería más bien que tales ayudantes pueden reducir la brecha entre los más y los menos inteligentes, pero también advierten que su investigación no es capaz de predecir el efecto que el uso frecuente de tales ayudantes tiene en nuestra capacidad cognitiva futura.

El enlace al artículo publicado en la revista Computer in human Behaviour es: Computers in Human Behavior 48 (2015) 473–480.

(1) Fuentes: Número de usuarios de móviles. Población total de la tierra.

Importancia de las bacterias en la formación de espumas en plantas residuales

Hace ya tiempo llegué no me acuerdo como a este artículo, en el que explican la importancia de tener lo mejor posible controladas las espumas de origen biológico en plantas de tratamiento de aguas residuales. Se publicó en la web iagua.es. Y la verdad es que es una lectura sencilla, pero densa, por lo que lo cuelgo aquí con la esperanza de que alguien más lo lea:

No profanar el sueño de las espumas. Andrés Zornoza