¿Es el Software libre resistente a todo tipo de usuarios?

El software libre, producido bajo los principios de las cuatro libertades de ejecución, estudio, modificación y distribución(1), ocupa un lugar cada vez más importante en nuestras vidas, al ser el que soporta una gran cantidad de puntos fundamentales de la red internet actual. Por lo tanto, una cuestión relevante es cuán fácil o difícil es que un determinado software libre pueda seguir adelante en el tiempo según sus usuarios, que también suelen ser los que lo mantienen.

En el artículo que comento, empiezan en la introducción repitiendo que debido a su naturaleza, el mantenimiento de una base grande de usuarios comprometidos y capaces de modificar y ajustar ese software según se necesite es fundamental para el éxito de cualquier programa de este estilo.

Continúan señalando que debido a su naturaleza abierta y al éxito del modelo, hay cada vez más programas similares desarrollándose a la vez, lo que supone que hay una competición muy fuerte entre los diversos programas por captar y atraer los usuarios. Personalmente creo que con frecuencia varios de estos proyectos se unen o termina quedándose solo uno, pero el que se queda ha ganado la «competición», desde luego.

En cualquier caso, la robustez(2) de su red es muy importante. Y por eso los autores de este artículo se pusieron a estudiarla para las redes típicas de generación y mantenimiento de software libre.

Continúan diciendo que la mayor parte de los estudios sobre la robustez de redes se refería a redes físicas, como las de transmisión eléctrica, transporte, etc. Así, hay menos estudios sobre redes virtuales, si bien al aumentar tanto la importancia y cantidad del software libre, algunos estudios se han realizado. En su revisión rápida de la introducción, los autores de este artículo citan trabajos sobre software libre en los que encontraron algunas características de estas redes de trabajo, que se pueden resumir así:

  • Cambian su capacidad de resistencia a ataques externos según el tipo de escala que tenga la red,
  • Para que un proyecto pueda sobrevivir, es fundamental que su sistema de reclutamiento y mantenimiento de personal sea efectivo,
  • Su propia estructura de centro fuerte y una gran periferia más débil de usuarios la hace muy resistente a ataques externos, pero deja el proyecto en riesgo de anquilosarse si lo hace el centro,
  • Si un usuario de la red que posee una gran parte del conocimiento del programa se marcha, el proyecto sufre y puede llegar a abandonarse.

Además, también citan dos artículos que analizaban el código desde el punto de vista de si el software libre está mejor o peor codificado que otros tipos. Pero todos estos trabajos sobre la robustez se centran en algún punto concreto, mientras que los autores de este artículo pretenden centrarse precisamente en la robustez en sí de las redes de software libre.

Centrándose más en materia, los autores del artículo comentan que los contribuyentes a proyectos de software libre reconocen que es muy importante para que el proyecto saga adelante que se intercambie información técnica o de habilidades de programación, mientras que otro tipo de datos, como felicitaciones, no es tan importante. Además, hay un conjunto importante de usuarios llamados «vaqueros de grupa»(3), que ni contribuyen ni colaboran al proyecto, la gran mayoría de usuarios, entre los que me encuentro.

Este trabajo se centra en el problema que puede suponer para un proyecto de este tipo la pérdida de usuarios con conocimiento. Uno de los problemas con los que se encuentran es que la mayoría de las investigaciones sobre la robustez de redes se centran en redes estáticas, mientras que por su propia naturaleza las redes que producen software libre son muy dinámicas, con los miembros cambiando a lo largo del tiempo mucho de manera muy fluida. Además, la mayoría de estudios sobre la robustez de redes emplean algún tipo de medida que tiene en cuenta la propia estructura de la red, no el conocimiento de sus miembros, que en redes de programación es fundamental, puesto que la pérdida de demasiado conocimiento causa que el proyecto fracase.

Para ello, emplearon redes de producción abierta de coches de la empresa Local Motors, que tiene una filosofía abierta sobre su fabricación y desarrollo de productos. Construyeron una base de datos de 11 proyectos de su web durante 8 años. Para construir la red, tuvieron que observar las 25472 comunicaciones de sus 1689 usuarios. Un trabajo complicado, que se tradujo en una red con nodos, los usuarios que poseen conocimiento, y filos, las formas en las que ese conocimiento se transmite por los nodos.

Al observar la evolución histórica delas diversas redes de la compañía, representada en la figura 1, pudieron dividirlas en tres estados: comienzo, crecimiento y madurez. En los tres estados, la redes son del tipo «mundo pequeño», lo que quiere decir que la colaboración se produce entre agrupaciones pequeñas de los nodos de la red, más que entre todos los nodos. También observaron que son redes libres de escala, es decir, que sus características fundamentales no varían según el tamaño de la red.

Evolución temporal de la red que estudiaron. Figura 1 del artículo citado.

Al tratar de separar los usuarios (nodos) de la red, observaron tres comportamientos típicos: los innovadores, los diseñadores importantes y los usuarios comunes. Con la red inicial, apenas había usuarios diseñadores o comunes, en comparación con las redes en crecimiento y maduras. De manera bastante lógica, es este último tipo de red la que tiene una mayor proporción de usuarios diseñadores y comunes frente a innovadores.

También pudieron contar el número de usuarios por tipo que se unían a la red o que la dejaban, observando una gran variabilidad temporal, que se puede ajustar por una ley de potencias del estilo:

y = a * xb,

tanto para los usuarios que llegan como para los que se marchan.

Luego tratan de ver como las pérdidas de usuarios podrían afectar a la red, para lo que definen dos tipos principales de pérdidas, las aleatorias y voluntarias. Las aleatorias son nodos que simplemente, cambian dentro de la red, pero que pueden volver a la misma, mientras que las voluntarias son personas que por cualquier motivo deciden dejar el grupo, llevándose su conocimiento con ellos.

Tras definir estos valores, hacen simulaciones en los que representan la pérdida de estos tres tipos de usuarios para las tres redes, inicial, en crecimiento y madura, con el propósito de observar cuán resistentes son.

Cuando la red es inicial, sus resultados demuestran que la misma es muy sensible a la pérdida de usuarios innovadores, que pueden hacer que la red incluso caiga si son demasiados. Por la misma razón, además de evitar que se vayan por la pérdida de conocimiento que supone para la propia red, es importante tratar de que diseminen rápidamente su conocimiento para que se transmita lo antes posible.

Para las redes en crecimiento la situación es parecida, en el sentido de que la pérdida de usuarios deliberada puede hacer que la red deje de funcionar. Sin embargo, las pérdidas aleatorias de usuarios no le afectan tanto, siendo una estructura muy resistente a ellas.

En las redes maduras, la influencia de los usuarios innovadores se incrementa, en el sentido de que cuando ellos desparecen, la red sufre mucho más que en los casos anteriores, también debido a que todos los usuarios comparten mucho más conocimiento que en otros estados de las redes. Por ello, en este tipo de redes es fundamental la distribución de tareas que logre una mayor implicación de los miembros de la misma.

El artículo termina con una serie de recomendaciones para que las comunidades de este estilo puedan crecer y prosperar según el estado en el que se encuentra la comunidad, que se pueden resumir en las siguientes ideas:

  • Para los gestores de la comunidad:
    1. para comunidades iniciales, lograr que los usuarios con conocimiento aumenten al interaccionar en la red e incrementar el número de usuarios.
    2. Para una comunidad en crecimiento, hay que establecer mecanismos de protección de los usuarios que saben, para evitar su pérdida.
    3. Si la comunidad es madura, se deben establecer mecanismos para estimular los usuarios diseñadores e innovadores, para tratar de evitar su pérdida.
  • Para los usuarios:
    1. Tratar de tener una gran diversidad de usuarios,
    2. animar a los innovadores y diseñadores a compartir conocimiento, para incrementar su número,
    3. animar a los usuarios normales a aceptar desafíos, con la idea de que se conviertan en usuarios experimentados.

El artículo se publicó en la revista Physica A, Statistial Mechanics and ist Applications, 15 February 2020, 122888.

(1) En la página de la asociación para el software libre explican (en inglés) estos cuatro principios: What is free software?

(2) Es mi traducción de la palabra «robustness» que emplean en el artículo. Se trata de la habilidad de cualquier sistema en red de resistir perturbaciones o falos, internos o externos, sin dejar de cumplir su función. La Wikipedia en inglés tiene un artículo decente sobre el tema: Robustness of complex networks.

(3) En realidad en inglés los llaman «free riders», pero me parece que se conserva mejor el sentido si se traduce pensando en vaqueros, entendidos estos como personas que cabalgan. Además, es mucho más divertido.

Los metales también son fluidos, aunque algo raritos.

Cuando les explico a mis alumnos el concepto de medio continuo, siempre trato de que se den cuenta de que los fluidos no sólo son los líquidos y gases a los que estamos acostumbrados, que otros elementos pueden ser fluidos bajo circunstancias favorables. Por ejemplo, el metal mercurio fluye a temperatura y presión habituales. Y hay aleaciones de metales que calentados con el calor de la mano, empiezan a fluir porque su temperatura de fusión es muy baja, por debajo de la corporal, como por ejemplo el galio(1). Además, determinadas aleaciones que tienen una gran utilidad industrial, o que pueden tenerla en el futuro, son líquidas a temperaturas no tan altas.

Una de estas aleaciones es la de plomo con litio, que es líquida a temperaturas del orden de los cientos de grados y que se pretende usar para recoger la energía de los futuros reactores de fusión. La idea es que esta aleación se caliente un montón en el núcleo del reactor y que después intercambie parte de ese calor con un intercambiador externo, que moverá una turbina para producir energía eléctrica.

Para poder hacer todo esto, además de estudiar la forma de lograr fusión con generación positiva de energía, hay que tener claro cómo se mueve el fluido formado por la aleación de plomo y litio. Pero hay un problema: al ser dos metales, son muy sensibles a los campos eléctricos y magnéticos, de forma que las ecuaciones y números adimensionales habituales en la mecánica de fluidos no son suficientes, hay que usar lo que se denomina magneto-hidrodinámica. Es decir, la unión de las ecuaciones que gobiernan el movimiento de los fluidos con las que presentan el movimiento de las cargas eléctricas. Y eso es lo que hicieron, al menos en parte, en un estudio muy interesante en el que hicieron fluir esta aleación por una tubería de acero calentada por debajo.

Comienzan el artículo diciendo que los metales líquidos se han propuesto como enfriadores y generadores de helio, esto último el litio(2). Se pretende emplear estas aleaciones por su alta capacidad térmica, que pueden absorber mucho calor de la reacción de fusión, y su alto punto de ebullición, que necesitan temperaturas muy altas para ponerse a hervir, es decir, a transformarse en gas metálico. Al ser metales, como ya comenté antes, tienen que tenerse en cuenta los efectos de las cargas eléctricas y los campos magnéticos, y de hecho varios estudios, según los autores del artículo, lo han hecho así. Por otra parte, los movimientos de transporte de calor mediante fluidos(3) para estos metales bajo la acción de un campo magnético son importántisimos en la metalurgia y el crecimiento de cristales. No deberíamos olvidar que los metales son cristales, y que sus propiedades dependen en gran manera de qué tipo de cristal forma al enfriarse el metal, que a su vez depende de manera muy fuerte de los flujos de la fase líquida del metal, con lo que la investigación de estos autores tiene muchos usos, amén del simple placer de saber más sobre un sistema tan interesante como son los líquidos con propiedades eléctricas.

La introducción sigue comentando que una gran cantidad de estudios numéricos se han hecho para poder definir varios parámetros de la dinámica de estos líquidos, junto con varios estudios experimentales, especialmente con líquidos que se parecen mucho a los metales, pero que no lo son.

Continúan después explicando las fuerzas principales que actúan sobre la convección en un líquido que responde a campos magnéticos: la fuerzas electromagnéticas, la de flotación(4) y las de inercia, o movimiento, cuando el fluido posee viscosidad.

Las fuerzas electromagnéticas por un lado, aumentan la disipación de parte de la energía cinética del fluido debido al rozamiento forzado por los campos magnéticos, lo que reduce su inestabilidad, y por otro genera estructuras que provocan sus propios tipos de inestabilidades.

Las fuerzas de flotación hacen que el fluido se «organice» en columnas para conectar las regiones más calientes y las más frías, mientras que las fuerzas de inercia facilitan el movimiento del fluido a lo largo del flujo.

Los investigadores trataron de observar el efecto de cada una de estas fuerzas independientemente en la dinámica del fluido, para lo que usaron una instalación experimental interesante.

Sistema experimental empleado. Se observan las termocuplas empleadas para medir la temperatura de las termocuplas, los calentadores del fluido y el aislamiento para poder tener el metal a una temperatura más o menos constante. De la figura 1 del artículo citado.

Para poder tener datos de tanto la temperatura como el campo eléctrico, las termocuplas (distribuyeron 123 en todo el experimento) se usaban de doble forma: la punta de la misma proporcionaba información sobre la temperatura del fluido, mientras que el aislamiento que la rodeaba se empleaba para medir el potencial eléctrico al que estaba sometido. Además, usaron medidores de flujo y como se muestra en la figura superior, tenían platos calentadores capaces de proporcionar una gran cantidad de energía calorífica al fluido. Posteriormente, los autores del artículo dedican una cierta cantidad de espacio a explicar cómo realizaron los experimentos que no reseño, centrándome más en los resultados principales. Para poder estudiar una gran cantidad de valores, variaron los parámetros de velocidad, campo magnético y flujo de calor según la tabla siguiente:

Parámetro Valores
Velocidad(cm/s) 1, 2, 3, 4, 5, 10, 15, 20
Campo magnético (T) 0; 0,5; 1; 1,5
Flujo de calor (W/cm²) 0, 2, 4, 6

Uno de los resultados experimentales que observan, y que les permite confirmar que su sistema de medidas es adecuado, es que al aumentar la velocidad del fluido y cambiando el campo magnético aplicado, aumenta la desigualdad en la distribución de temperaturas a la salida del conducto. Cuando este campo se hace cero, apenas hay cambios en la distribución de temperaturas del fluido, aparte de una disminución de las diferencias entre las temperaturas de entrada y salida del conducto al aumentar la velocidad del fluido.

Para poder extender sus resultados y aplicarlos a situaciones muy distintas de las estudiadas experimentalmente, emplearon números adimensionales. Como querían estudiar el efectos de tres fuerzas, usaron los tres números siguientes:

Donde Ha es el número de Hartmann, Re el de Reynolds y Gr el de Grashof. Thw es la media de la temperatura de la pared, T0 la del fluido.

Ha² proporciona la relación entre las fuerzas electromagnéticas y viscosas, o de rozamiento, el de Reynolds relaciona las fuerzas de inercia o movimiento con las viscosas y el de Grashof si la fuerza de flotación domina a la de rozamiento o viscosa. Además, para poder cuantificar el efecto de la convección, se precisa el número de Richardson, definido como Gr/Re², y que proporciona la relación entre las fuerzas de flotación y las viscosas. Lo que pudieron observar es que hay tres regímenes de movimiento, cada uno dominado por una de las fuerzas.

Así, en el régimen donde la fuerza de flotabilidad domina el movimiento del fluido, precisamente por ser la fuerza dominante la de flotabilidad, se forman células convectivas que se alteran con la presencia del campo magnético y en función de la velocidad, pero siempre son los elementos dominantes del movimiento del fluido.

Cuando el campo magnético es lo suficientemente alto, más de 0,5 Tesla en este experimento, entonces el fluido está dominado por la fuerza electromagnética, lo que hace que es fluido la temperatura del fluido se estratifique, con capas claras de diferentes temperaturas. en principio, este tipo de flujos son inestables a números de Reynolds suficientemente altos, pero no pudieron observarlo en sus experimentos, precisamente porque el número de Reynolds que podían obtener era muy bajo. Cuando las velocidades que empleaban para el fluido eran altas, mayores de 10 cm/s, entonces entraban en un régimen dominado por las fuerzas de inercia. En ese caso, las influencias tanto del campo magnético como de los flujos de calor eran muy bajas en el movimiento final, de tipo turbulento y con temperaturas casi uniformes a lo largo de todo el tubo, con pequeños gradientes cerca de la pared. También observaron que en este régimen de movimiento son las fuerzas de inercia las que dominan la transferencia de calor dentro del fluido. De hecho, para poder cuantificar las diferencias entre flujos y transferencias de calor en los diferentes regímenes de movimiento que observaron, usaron otro número adimensional, el número de Nusselt(5), que describe la relación entre convección y conducción para la transferencia de calor. El empleo de este número les llevó a poder hacer el siguiente gráfico:

Valores del número de Nusselt en función del de Richardson con varios números de Hartmann. Adaptado de la figura 6 del artículo citado.

En él se observa que las diferencias en el número de Richardson pueden explicar los tres tipos de regímenes vistos anteriormente. Cuando este número es muy pequeño, Ri < 0,1; entonces las fuerzas de inercia dominan el movimiento, puesto que el flujo de calor presenta una dependencia leve con el campo magnético. Si el número es muy grande, mayor de 10, entonces la presencia del campo magnético es determinante y el papel de la convección natural es mucho más importante también. Ambos fenómenos se reflejan en que los diversos valores del campo magnético apenas cambian el valor del número de Nusselt, pero su presencia o ausencia, Ha distinto o igual a cero respectivamente, sí que cambia el valor de Nu mucho. Por último, hay una gran zona intermedia, con valores del número de Richardson entre estos dos extremos donde ni la inercia ni las fuerzas de flotación dominan el régimen del fluido, pero ambas son importantes.

El artículo continúa con distintas secciones donde presenta simulaciones con ordenador que confirman sus resultados y una sección donde discute los tres regímenes de movimiento que se observaron y confirma lo que ya dijeron antes sobre la influencia de cada tipo de fuerza en su régimen correspondiente.

El artículo se publicó en la revista Physics of Fluids, volumen 32 067107 (2020).

(1) Una web dónde explican un poco la historia de este metal y sus propiedades es esta entrada: Galio, el metal que se derrite en la mano.

(2) En inglés, el término es «breeder». Lo que quieren decir es que el litio , al ser golpeado por un neutrón, se transforma en tritio (H³) el combustible del reactor de fusión. Y como en el proceso de fusión de forman una gran cantidad de neutrones, pues podría formar el mismo combustible la propia reacción de fusión.

(3) Generalmente llamados «convectivos».

(4) Las fuerzas de flotación , «buoyancy forces» en inglés, son las debidas a diferencias de temperatura dentro del fluido, que a su vez altera la densidad del mismo, lo que provoca cambios en el movimiento del fluido. Es de todos sabido que el aire caliente tiende a subir y el frío a bajar, por ejemplo.

(5) El artículo de la wikipedia es bastante aceptable sobre el tema: Número de Nusselt – Wikipedia.

Los móviles inteligentes se emplean para pensar menos.

Antes de comenzar con este comentario, un pequeño apunte personal. Como todo ser humano, soy algo paradójico. Por un lado, me apasiona la ciencia ficción y la tecnología, me encanta saber cómo funcionan las nuevas tecnologías que se desarrollan y tratar de probar varias de ellas, aparatos nuevos, etc. Por el otro, no dejo de ver y observar los graves inconvenientes que cualquier tecnología trae al ser humano, y concretamente, soy incapaz de sentir la acrítica alegría que observo frecuentemente sobre la introducción de los teléfonos inteligentes en nuestras vidas y sus efectos, siempre vistos desde sólo el punto de vista positivo. Por eso, este artículo que quiero resumir es perfecto: como sucede con frecuencia en ciencia, comienza con una pregunta: ¿afecta de alguna manera medible la posesión de un teléfono móvil al uso de la inteligencia? La respuesta, que desarrollaré, es que sí: el uso de teléfonos inteligentes fomenta la búsqueda de respuestas rápidas y fáciles sugeridas por el móvil en lugar de pensar de manera independiente y analítica, al menos para gente predispuesta a ello.

Comienzan en la introducción con una cita de McLuhan bastante famosa que se puede traducir, más o menos, como: «El medio es el mensaje». Es decir, que la información que nos trasmitimos, luego nuestra cultura, no es independiente del medio que se escoja para trasmitirla. Por ello, afirma que dado que la cantidad de móviles inteligentes ha explosionado en los últimos años, y que su número no para de aumentar, parece claro que se han convertido en un mensaje. Mensaje que en el artículo pretenden ayudar a descifrar.

Después de esta introducción, comienzan por definir la «mente extendida», el concepto que indica que la mente humana actúa acoplada con un ambiente exterior, de forma que influencia y se vé influenciada en su actividad cognitiva por ese ambiente. Luego dicen que dentro de esa mente extendida, es muy importante el concepto de «sistema cognitivo extendido». Un elemento tecnológico que permite realizar una función externamente a la mente que sin esa tecnología tendría que realizarse de manera interna. Un ejemplo sencillo es apuntar un número para recordarlo en un papel. En ese sentido, como apuntan los investigadores, los teléfonos móviles son un sistema cognitivo extendido muy poderoso y que se extiende ahora a una parte muy importante de la población humana total sobre la tierra. Concretamente, el número de usuarios de teléfonos inteligentes en la Tierra ahora mismo ronda la mitad de la población total (49%, 3.800 millones de teléfonos sobre un total de 7.800 millones de personas(1)). Y dado que una parte importante de la «inteligencia» de los móviles viene del hecho de que están conectados a Internet, y que ésta se usa y comprende como una memoria externa de fácil acceso, los investigadores comentan los sorprendentemente escasos artículos sobre el uso de los móviles como sistema cognitivo extendido.

En un apartado posterior reafirman, con una impresionante colección de once referencias, la teoría ampliamente aceptada de que los seres humanos somos «avaros cognitivos», es decir, que si podemos escoger una solución intuitiva a cualquier problema complejo, no lo pensamos y usamos la respuesta intuitiva. Esto nos lleva a descansar nuestros procesos mentales en soluciones más sencillas y atajos mentales de manera desproporcionadamente alta respecto a su eficiencia real.

Así, formulan la hipótesis de que dado que tenemos una tendencia general a buscar soluciones intuitivas y rápidas en vez de usar nuestro cerebro en procesos cognitivos más complicados, con la llegada de los teléfonos móviles es posible que su uso se vea correlacionado con el menor empleo de inteligencia analítica y menor inteligencia. Para comprobar esta hipótesis, realizaron tres estudios, que describen a continuación. Como aquí comienzan ya con temas muy técnicos, resumiré solamente las partes más fundamentales.

El primer estudio se llevó a cabo con ciudadanos norteamericanos de ambos sexos. Querían comprobar si el uso, o la tenencia, de un teléfono inteligente se correlacionaba con medidas de la inteligencia.

Observaron que el uso frecuente de estos dispositivos tenía una correlación positiva con valores más pequeños de empleo de cognición, es decir, las personas que empleaban más teléfonos móviles usaban menos el cerebro para resolución razonada de problemas, confiando en su lugar en resultados intuitivos.

Usando también un conjunto de norteamericanos, comprobaron su desempeño en funciones cognitivas analíticas, y las compararon con el uso de los móviles inteligentes. También añadieron el uso de ordenadores y redes sociales, tanto en ordenadores como en móviles. Es decir, en lugar de comprobar la disposición a usar el análisis en vez de la intuición, comprobaron la calidad de los análisis que hacían los encuestados. Los resultados son curiosos y confirman las hipótesis del primer estudio. Como en el estudio anterior, aquellos participantes que usaban más los móviles tenían una menor capacidad analítica, por lo que quedaba confirmado que el uso de estos dispositivos implica una mayor «tacañería cognitiva». Además, dado que el uso del ordenador no cambiaba demasiado en este grupo respecto los que menos usaban el móvil, quedó claro que no es que los que decían que usaban mucho el móvil no lo decían porque sobrestimaban su uso del mismo, sino que realmente lo usaban más.

Por otra parte, comentan en la introducción del tercer estudio que hay una gran cantidad de evidencia científica que indica que cuanto más se usa el móvil, peores son los resultados académicos entre los estudiantes universitarios, al menos. La principal razón que se esgrime en todos esos estudios es que los móviles actúan como distractor, no que se correlacionen con una disminución de las capacidades cognitivas. Por eso, el tercer estudio que hicieron lo realizaron con estudiantes de universidad, tratando de comprobar si la tendencia al aburrimiento, que ciertamente implica una menor tendencia al uso de funciones cognitivas superiores (son aburridas), podría explicar sus resultados. Los dos estudios presentados antes implicaban que el uso de los móviles, sobre todo para solución de problemas y búsqueda de información, está relacionado con la menor capacidad cognitiva.

Para ello, emplearon estudiantes de universidad canadienses, porque los autores son de una Universidad canadiense. Y los resultados siguieron en la línea de lo que habían visto en los dos estudios anteriores: el uso de los teléfonos móviles esa asociado con una menor capacidad cognitiva y una mayor tendencia al uso de soluciones intuitivas. Sin embargo, no observaron correlación entre la tendencia la aburrimiento y resultados académicos, como se observaba en estudios anteriores. La razón que esgrimen es que quizás lo que realmente correlaciona con menores resultados académicos es el uso en general de aparatos electrónicos o quizás que los resultados académicos de los encuestados fueron proporcionados directamente por ellos mismos.

En la sección siguiente, donde hacen un análisis general de sus resultados, comienzan indicando que los mismos proveen evidencias de que la tendencia a confiar más en resultados intuitivos que en el resultado del pensamiento relacionada con el mayor uso del móvil para buscar información es un signo de una mayor tendencia a la «tacañería cognitiva».

También dicen que hay algunos resultados negativos importantes. Entre ellos, que la correlación que encuentran entre uso intensivo del móvil y menor desempeño cognitivo sólo se produce para ese uso intensivo, si éste no se da, no hay ningún tipo de correlación.

Otro resultado es que, dado que la gente menos tendente a usar el pensamiento analítico es la que más usa el teléfono móvil para buscar respuestas, indicaría en principio que el tener un sentimiento de duda sobre algo incrementa el uso del móvil como herramienta de búsqueda de información, sustituyendo el uso del pensamiento analítico.

Deducen que dada la correlación negativa entre inteligencia y uso del móvil encontrada en sus experimentos, parece lógico suponer que gente más capaz intelectualmente usaría menos la ayuda externa del móvil para realizar tareas complejas, por tener mejores capacidades. Pero que tal idea deberá ser testada en otra ocasión.

En un pequeño párrafo antes de las conclusiones finales, hacen hincapié en las limitaciones de su estudio, que encuentran una clara correlación entre el uso muy frecuente de los teléfonos móviles para buscar información y una menor habilidad cognitiva. Pero correlación no implica causalidad, es decir, que aunque descartaron alguna otra explicación posible, no pueden descartar que haya alguna otra variable que no han comprobado que explique estos resultados. Personalmente, estoy convencido de que sí que es verdad que un uso excesivo del móvil provoque problemas cognitivos, pero ciertamente esto es una convicción no demostrada de manera inequívoca.

En las conclusiones finales comentan que su estudio es un primer paso para un tema fascinante que apenas se está estudiando: el efecto que tiene sobre la psicología humana la nueva cantidad de ayudantes electrónicos capaces de responder a varias cuestiones, o al menos de simularlo bien. Dicen que dados sus resultados, parecería más bien que tales ayudantes pueden reducir la brecha entre los más y los menos inteligentes, pero también advierten que su investigación no es capaz de predecir el efecto que el uso frecuente de tales ayudantes tiene en nuestra capacidad cognitiva futura.

El enlace al artículo publicado en la revista Computer in human Behaviour es: Computers in Human Behavior 48 (2015) 473–480.

(1) Fuentes: Número de usuarios de móviles. Población total de la tierra.

Importancia de las bacterias en la formación de espumas en plantas residuales

Hace ya tiempo llegué no me acuerdo como a este artículo, en el que explican la importancia de tener lo mejor posible controladas las espumas de origen biológico en plantas de tratamiento de aguas residuales. Se publicó en la web iagua.es. Y la verdad es que es una lectura sencilla, pero densa, por lo que lo cuelgo aquí con la esperanza de que alguien más lo lea:

No profanar el sueño de las espumas. Andrés Zornoza

Bacterias alteradas para convertirlas en factorías químicas controladas por luz.

Me gusta la ciencia ficción. Siempre lo ha hecho y junto con la ciencia es una de mis actividades favoritas. Hace algunos años, cuando empezaba a leer ciencia ficción, se imaginaban sistemas de tamaños planetarios para fabricar cosas, porque leía sobre todo obras escritas en los 70 y 80. Cuando me acerqué más a las obras escritas en los 90, comencé a ver que había autores que imaginaban no grandes factorías o fábricas para producir los bienes físicos que necesitamos o nos gustan, sino pequeñas. De tamaño celular, de hecho. Se imaginaban que mediante nanorobots o células alteradas genéticamente, produciríamos una gran cantidad de productos en estos sistemas pequeños, abaratando y simplificando considerablemente su producción. Los resultados que este artículo presenta nos acercan definitivamente a esa idea, pero sin manipulación genética.

Lo que han logrado es hacer que bacterias que normalmente sintetizan hidrocarburos basadas en el consumo de azúcares puedan producir esos mismos hidrocarburos basándose en la exposición a luz. Comienzan en la introducción diciendo que intentos previos de lograr el uso de estos microbios para la producción de hidrocarburos mediante energía solar se basaron en la purificación y refino de las enzimas necesarias y su uso fuera de las células, pero que este sistema no permitía la renovación que se da en el interior de la célula de las enzimas, con lo que su duración es limitada.

Otra estrategia empleada anteriormente consistió en el uso de cepas específicas dentro de las bacteria para producir los químicos deseados, pero así se limita el rango de productos a producir además de que hay problemas debido a la toxicidad de estos productos para las células en si.

Los autores comentan que ha habido una investigación muy activa tratando de encontrar la manera de activar rutas enzimáticas definidas dentro de la célula desde fuera, usando campos magnéticos, luz y otros métodos no demasiado invasivos de interacción exterior con las células objetivo.

Y ellos lo han logrado, como se muestra en la siguiente figura:

Uso de bacterias para fabricación de diversos productos químicos usando como materias primas agua, luz y aire mediante la selectividad por puntos cuánticos(1). Además, se puede seleccionar el producto de salida deseado según la longitud de onda empleada. El arco iris de la derecha es la selectividad de cada punto cuántico a un color específico, que selecciona el producto de salida. Adaptado de la fig. 1 del artículo citado.

Como indica la figura, las materias primas a emplear son siempre las mismas: agua,luz y aire. Lo que cambia en función de la longitud de onda(el color) de la luz con la que se ilumina el grupo de bacterias es el producto de salida. Es importante resaltar que las bacterias empleadas en esta investigación no realizan la fotosíntesis de manera natural, es decir, no usan la luz del sol para producir ningún elemento químico de los que necesitan, empleando en su lugar azúcares. Por otra parte, debido a la naturaleza biológica de la formación de los productos, su eficiencia no pasa del 15 – 18 %, pero la falta de residuos peligrosos en su formación y facilidad de uso y manipulación compensan el problema de la falta de eficiencia.

Por otra parte, como su método no precisa de la manipulación genética de las enzimas, en principio podría usarse para activar funciones concretas de las células tanto para poder investigar esas funciones como para generar terapias concretas.

El esquema general está basado en el uso de puntos cuánticos(1) con una alta selectividad doble. Por un lado, a una longitud de onda o color específico, y por otro, a una región enzimática de la bacteria concreta. Así, al rodear el ambiente de la bacteria con puntos cuánticos concretos, éstos se unen a zonas específicas de las enzimas de su interior, lo que cuando el nanopunto se excita por la luz de su longitud de onda escogida, activa la enzima para la producción del producto químico deseado.

Por lo tanto, lo primero que hicieron los investigadores fue hacer una cuidadosa selección de los nanopuntos, basándose tanto en su tamaño, directamente relacionado con la longitud de onda a la que son sensibles, como su cubierta y formas externas, que generan una selectividad del nanopunto por enzimas específicas dentro de la bacteria.

Luego, comprobaron que los nanopuntos que habían encontrado se fijaban dónde querían sintetizando el producto en el laboratorio y viendo que los puntos cuánticos se fijaban a ese producto sólo. Usando otros nanopuntos distintos, también biocompatibles y con capacidad de penetrar la pared celular, pero con una selectividad distinta comprobaron que sólo los que ellos se habían diseñado se fijaban dentro de la célula al lugar escogido. Los nanopuntos que seleccionaron están compuestos por Cadmio y azufre con un recubrimiento de zinc y azufre, lo que favoreció su selectividad con la enzima que necesitaban, como se observa en la figura siguiente:

Representación de la unión selectiva de los nanopuntos escogidos a la enzima objetivo. Se observa que se seleccionan a través de la zona exterior de la enzima. Adaptado de la fig. (2) del artículo citado.

Lo que se observa en la figura es que al escoger la composición, forma y tamaño de los nanopuntos, fueron capaces de seleccionar muy bien la parte de la enzima a la que se ligaban los nanopuntos.

El artículo continúa explicando los diverso métodos empleados para confirmar que la ligazón de los nanopuntos se produjo sólo con las enzimas seleccionadas, desde comprobar que se producían los productos seleccionados según la ruta metabólica prevista con la adicción al agua en la que estaban las bacterias productos que interrumpen esa ruta y comprobar que así se paraba la producción, hasta comprobaciones en el laboratorio de la ligazón mediante técnicas de espectroscopía que permiten comprobar si hay o no determinados enlaces químicos presentes en la muestra.

También es muy importante comprobar que las bacterias que absorben los puntos cuánticos no se mueren, son viables a pesar de su presencia en el interior de las células. Para ello, los científicos autores de este experimento emplearon varios métodos. Primero, comprobaron el crecimiento celular tras aumentar la concentración de los nanopuntos en su entorno y observaron que con aquellos que se diseñaron correctamente, las células apenas inhibían su crecimiento, mientras que con otro tipo de nanopuntos acababan parando el crecimiento de las bacterias, como muestra la siguiente figura:

Inhibición del crecimiento (izquierda) y viabilidad(derecha) de las células en función de la concentración de las nanoestructuras. Adaptado del artículo citado.

Tanto la supervivencia de las células como su crecimiento indican que los nanopuntos que fabricaron no impiden que las células se reproduzcan. El empleo de otro tipo de comprobaciones les llevó a la misma conclusión: los puntos cuánticos diseñados adecuadamente no le causan problemas en su crecimiento o supervivencia.

Luego comprobaron que, efectivamente, la producción de los productos que querían se hacía tras activar las células con la luz adecuada. Y vieron que al iluminar las bacterias que estaban en el medio con los nanopuntos adecuados, produjeron amoniaco y que al dejar las bacterias en una atmósfera de argón, que no permite la producción de amoniaco, no lo producían, como se ve en la figura siguiente:

Producción de amoniaco y etano, según la bacteria, en función del tipo de nanopuntos (arriba) y de la atmósfera en la que estén las bacterias(abajo). Adpatado de la fig. (4) del artículo citado.

La producción de amoniaco y etano aumenta con los nanopuntos adecuados y sólo si hay la materia prima necesaria, indicando por lo tanto que se producen en el interior de la célula siguiendo las rutas metabólicas previstas.

Después de demostrar que saben cómo lograr que las bacterias produzcan los productos que ellos quieren mediante estos dos productos finales, ajustaron los nanopuntos para que fueran sensibles a distintas longitudes de onda y produjeron diversos productos finales, viendo que los rendimientos obtenidos eran una clara función de la facilidades de la propia ruta metabólica en el interior de la célula para fabricar estos productos: si bien las bacterias son fábricas muy versátiles, esta versatilidad no es infinita, por lo que si la bacteria no tiene los instrumentos para producir un determinado compuesto, es decir, las rutas metabólicas necesarias en su interior, pues no puede producirlo.

La verdad es que es un resultado impresionante, sobre todo por las posibilidades que ofrece: si realmente se puede escoger un gran conjunto de materiales a producir con el mismo tipo de bacterias según los materiales disueltos en su medio de cultivo, se puede soñar con generar fábricas de producción a la carta simplemente cambiando el nanopolvo disuelto y la luz con la que se ilumina.

El artículo original está publicado en la revista Journal of American Chemical Society, J. Am. Chem. Soc. 2019, 141, 26, 10272–10282.

(1)Punto cuántico o nanopolvo: Estructura tridimensional tan pequeña que se comporta como un pozo cuántico, con una altísima selectividad a una frecuencia de la luz de terminada, que absorbe o emite.

Hacernos más jóvenes es posible, sin magia pero con medicamentos.

Debido tanto a su interés intrínseco (¿quién no querría ser más joven o incluso revertir los estragos del tiempo?) tanto económico y social (dado que la sociedad en su conjunto aumenta su edad, parece una buena idea tratar de lograr que esta vejez sea cada vez más activa, menos «pupas», vaya) el estudio de procesos para revertir o minimizar los efectos de la vejez en el cuerpo humano son numerosos.

Hace cerca de un año unos investigadores han encontrado una combinación de medicamentos capaces de revertir el reloj biológico, produciendo cambios epigenéticos(1) en el cuerpo humano de los diez participantes en el experimento.

En el artículo, comienzan diciendo la importancia de ser capaz de tratar de revertir de alguna manera los efectos de la edad en las poblaciones adultas humanas, debido a su incremento en el mundo desarrollado. Lo cierto es que en todo el mundo, incluido en mundo en desarrollo, el porcentaje de población mayor se incrementa de manera sostenida en los últimos años, como demuestran las pirámides de población del artículo de la web Our World in Data.

Tras citar algunas de las últimas investigaciones que dieron como resultado productos o sistemas capaces de revertir algunos de los efectos de la edad, afirman que el problema es que hasta ahora no hay ningún trabajo publicado que demuestre un efecto de reversión de la edad epigenética(2).

Además, comentan que aquellos mayores que viven muchos años no presentan en años posteriores a los 63 una involución del timo, la glándula que permite la maduración de las células T, los centinelas imprescindibles del sistema inmunológico, sin los cuales la prevalencia de cánceres y todo tipo de enfermedades comienzan a proliferar. De hecho, en el artículo comentan que la involución del timo está asociada directamente al aumento muy fuerte de todas estas enfermedades en adultos mayores.

Por ello, y baśandose en evidencia previa que indicaba que la hormona humana del crecimiento paraba la involución del timo y que de hecho promovía su desarrollo, y para evitar el conocido efecto de la hormona del crecimiento proporcionada a adultos del aumento de la diabetes, combinaron esta hormona del crecimiento con otras dos sustancias.

Estas sustancias, llamadas DHEA y metformina, fueron escogidas por sus efectos regulatorios en la insulina en sangre, motivo por el que se recetan hoy en día.

En la sección de resultados comienzan por describir todos los posibles efectos secundarios negativos que esta combinación de medicamentos podrían tener. No fueron capaces de observar ninguno, y no sería por que no lo buscaran. Trataron de observar el comportamiento de indicadores de cáncer, inflamaciones internas y un montón de otros indicadores que certifican la buena salud. Todos ellos mejoraron o se mantuvieron constantes a lo largo del año de prueba. En cuanto a efectos secundarios en sí, se observaron los típicos de la administración de estas sustancias, que no son demasiado preocupantes.

El efecto en el timo también fue muy bueno, porque en todos los casos se observó un aumento de su cantidad de grasa marrón, que es la que estimula la maduración de las células T. Además, este aumento es mayor cuanto menor sea la cantidad inicial, de forma que realmente revierte los efectos en el cuerpo de tóxicos u otros factores epigenéticos.

Después de describir el efecto, también positivo, del tratamiento sobre todo el sistema inmunológico, pasa a comentar la reducción de la edad epigenética en los participantes en el ensayo. Se observó, como indica la figura de abajo una reducción media de unos dos años en esta edad epigenética tras un año de tratamiento.

Cambio observado en la edad epigenética de los participantes en el experimento en función de los meses desde el inicio del mismo. De la figura 5 (d) del artículo citado al final de esta entrada.

El artículo continua con una sección de interpretación médica de estos resultados, donde resaltan que el efecto buscado de aumento de la función del timo tiene como magnífico (e inesperado) efecto secundario la reversión de múltiples y variados indicadores de senectud o vejez en todos los participantes del estudio.

También discuten los posibles mecanismos por los que se produce esta reversión, pero me parecen excesivamente técnicos para resumirlos aquí. Sin embargo, comenta algo muy importante, a mi juicio. Dicen que los efectos de reducción de edad epigenética son persistentes después de la finalización del experimento, al menos durante los meses posteriores al estudio y dicen que sería interesante comprobar si estos efectos se prolongan más en el tiempo o no, porque por el diseño del mismo, su experimento no ha podido comprobar este punto.

Obviamente, antes de ponernos a chutarnos este cóctel de medicinas como locos, tendrán que hacerse más ensayos clínicos generalizados en un número mayor de pacientes. Sólo diez adultos, y todos ellos hombres, no es un número muy alto que se diga.

El artículo se publicó en abierto en la revista Agin Cell, en el volumen 18 de diciembre de 2019. El enlace al artículo es este.

(1) Epigenético: Cambios que se producen en la expresión del código ADN de cada organismo, pero sin modificar el ADN mismo. Generalmente está asociado a cambios producidos como consecuencia de alteraciones del ambiente que rodea al ser vivo.

(2) Edad epigenética: Un marcador que se emplea para predecir los años de vida que le quedan a un ser vivo, mucho más fiable que la edad natural. Un ser vivo de edad epigenética menor, vivirá más años y en mejor estado de salud general que otro de edad epigenética mayor, pero más joven.

Resuelto el misterio del vuelo de la semilla del diente de león.

El Diente de león es una planta que muchísima gente conoce por su amplia presencia: es una de las plantas perennes más presente en el mundo.

Uno de los elementos más hemoso de la misma es su corona llena de semillas que al soplar con suavidad se dispersan hasta distancias realmente lejanas. Según el artículo citado al final de esta entrada, si bien generalmente llegan hasta unos 2 metros, ¡a veces pueden viajar hasta 150 km!

Y una cuestión que los autores del artículo quisieron plantearse es ¿cómo lo hacen? Es decir, quisieron encontrar qué tipo de estructuras y formas de trayectorias del aire a través de la semilla colaboran en su dispersión. El tipo de semillas de los dientes de león no es tan raro en la naturaleza, y se conocen en general como semillas con vilano, que es la estructura plumosa que sostiene al resto de la estructura: el «palo» central del que cuelga la semilla.

Para poder estudiar esta estructura, tuvieron que construir un túnel de viento especial en el que poder colocar la semilla y observar las corrientes y trayectorias del aire por la forma tan especial de la semilla del diente de león.

Los resultados, además de muy bonitos visualmente, son impresionantes, porque la estructura que se observa es un vórtice separado del vilano. Y lo curioso e impresionante es que el vórtice esté separado y en una región estable. Es algo bien sabido que los objetos sólidos al moverse en un medio fluido, como el aire, generan vórtices. Pero los conocidos hasta ahora eran de dos tipos principales: o bien el vórtice se «pegaba» al sólido, o bien se separaba del mismo en la parte de atrás, para perderse en flujos turbulentos. En el caso de las semillas de diente de león, no hace ni una cosa ni la otra: está formando una estructura estable cerca del vilano, colaborando a su empuje.

La imagen siguiente muestra precisamente ese comportamiento, tanto para la propia semilla, como para un disco plano poroso, que reproduce, más o menos, ese comportamiento.

Imágenes sobre el vórtice generado por una semilla de diente de león. a) Estructura del diente de león, con la vilano(pappus, en inglés), señalado. b) Vilano. c) Uno de los pelos del vilano. d) Esquema del montaje experimental. e) y f) Vórtice que se genera en la semilla, con el viento moviéndose a 0 y 60º de orientación del mismo. g) Vórtice habitual de un disco plano. h) Vórtice del mismo tipo de disco, pero poroso.
De la figura 1 del artículo citado.

Una de las cosas que no está clara es cómo puede afectar tanto al vórtice generado un objeto tan poco sólido. Es decir, el vilano de estas semillas tiene un grado de porosidad muy grande, 0,92 +- 0,08 según el artículo, que en principio, dificulta la transformación del flujo que pasa a través del mismo.

Pero estas semillas tienen un componente importante. Como se puede observar en la figura, cada pelo tiene una estructura muy rugosa, que implica que la capa límite(1) que hace a su alrededor es muy gruesa, tanto que interacción con la de los otros pelos situados a su alrededor, formando un volumen por el que no pasa aire, incrementando notablemente el empuje de la semilla, según pudieron observar en simulaciones los autores del artículo.

De hecho, cálculos sobre el coeficiente de arrastre de la semilla indican un valor 39 +- 5 cm/s, mucho más alto del que puede tener un disco, como se muestra en la siguiente figura:

Coeficiente de arrastre de la semilla respecto del de un disco plano. La diferencia es muy fuerte a favor de las semillas, lo que facilita su dispersión.
De la figura 2 del artículo citado.

En la continuación de sus experimentos, observaron que la formación de este vórtice circular no duraba a lo largo de todos los valores del número de Reynolds(2), si no que había un valor crítico para el mismo a partir del cual se pierde el vórtice. Comprobaciones realizadas por los científicos sobre qué valores tomaba ese valor crítico en función de la porosidad se pueden resumir en la siguiente imagen, donde se observa que para valores del número de Reynolds debajo del crítico por encima del crítico, no se puede generar este vórtice:

Frontera del número de Reynolds que genera el vórtice separado, para el disco poroso(a) y un aumento de otra parte más pequeña(b).
De la figura 4 del artículo citado.

El artículo termina haciendo una revisión del mismo tipo de mecanismos para otros seres del mundo animal, especialmente pequeños insectos.

El artículo esa disponible en la dirección:

Nature volume 562, pages414–418 (2018)

(1) Capa límite: Cuando un sólido se sitúa en una corriente de fluido, se puede observar que suficientemente alejados del sólido, el flujo del fluido no se ve afectado por el sólido. La superficie alrededor del sólido donde se observan cambios en el flujo del fluido es lo que se llama «capa límite». El artículo de la Wikipedia es bastan bueno: capa límite (Wikipedia)

(2) Número de Reynolds: Una cantidad adimensional que relaciona las energías debido al rozamiento con el fluido y la debida a la velocidad. En el caso de este artículo, se escribe como UD/v, con U la velocidad del aire, D el diámetro del vilano y v la viscosidad del mismo. El artículo de la Wikipedia es bueno: número de Reynolds (Wikipedia)

Utilización eficiente de luz solar para lograr temperaturas medias

En una investigación publicada en la revista ACS Nano en el año 2019, unos investigadores lograron emplear aerogeles(1) para poder generar temperaturas medias usando luz solar, cerca de 200 ºC, sin necesidad de concentrarla ni de sistemas de vacío.

Como ellos mismos explican en la introducción, debido al uso de combustibles fósiles por parte de la humanidad hemos cambiado lo suficiente la composición de gases de la atmósfera como para cambiar la capacidad de la misma de absorber y emitir luz solar, provocando su calentamiento. Lo que se suele llamar «efecto invernadero».

Pero este efecto no tiene porqué ser negativo si no calentamos toda la Tierra, pero sólo un volumen muy limitado y mucho más. En ese caso, tendríamos un sistema llamado termo-solar, capaz de calentar un volumen hasta temperaturas del orden de 120 o 220 ºC, que es muy útil en muchas aplicaciones básicas: calefacción, cocina, etc.

Hasta ahora, la mayoría de los sistemas de este estilo tenían bastante complejidad. La razón es que para poder usar la relativamente baja poca potencia del Sol sin concentrar (~1 kW/m²), se usaban concentradores solares. Pero estos dispositivos son caros y tiene que realizar un seguimiento de la posición del Sol para poder enfocar correctamente la luz. Y de hecho, según afirman en el artículo sistemas de última generación de este tipo demostraron su capacidad para generar vapor de agua. Pero todos estos sistemas están sujetos a las pérdidas producidas por los fenómenos de conducción, convección y radiación. Los aerogeles no tienen estos problemas, dado que apenas conducen el calor, no radian el infrarrojo por su estructura interna, que impide que con grosores considerables la radiación infrarroja pase, y al no ser un fluido no pueden transmitir radiación por convección, puesto que sus partículas no se mueven.

Por supuesto, en general, todas estas ventajas tiene un grave problema: su estructura interna los hace también muy poco transparentes, con altísimos coeficientes de dispersión de luz solar que impiden su uso como elementos fundamentales de un colector solar. Hasta ahora.

La clave está en modificar el tamaño de los nanogranos que forman el aerogel, reduciéndolo para aumentar su transparencia.

El artículo explica un poco el fundamento de los colectores solares, introduciendo para ello el concepto de «selectividad de invernadero»(2), es decir, como se observa en la siguiente figura, la capacidad de permitir el paso de las longitudes de onda del visible e impedir que circulen las longitudes de onda infrarroja.

Concepto de selectividad de invernadero. La «Optical depth» del eje izquierdo es la capacidad del material de permitir el paso de la longitud de onda del eje horizontal. Cuanto más grande, menos deja pasar. (Del artículo citado.)

Como se observa en la figura, si un determinado material permite que la luz visible pase a través suyo, mientras que impide el paso de la radiación infrarroja, con el tiempo se acabará calentando mucho más que el ambiente. Este proceso permitirá que el objeto situado justo debajo del material pueda transferir este calor. Los sistemas más habituales de lograr este material consisten en la modificación estructural y acumulación de diversas capas de materiales, todos ellos complicados. Por ejemplo, estrategias empeladas anteriormente, según cuentan en el artículo, han sido acumulación de múltiples capas de metal-conductor, cristales fotónicos(3) y otros.

Con el uso de los aerogeles, la selectividad de longitudes de onda se obtiene por la acumulación de volumen de material. El aerogel tiene permite el paso de luz solar, pero las longitudes de onda más largas del infrarrojo se ven dispersadas en volúmenes relativamente grandes del material, lo que provoca que no puedan atravesarlo.

La clave está en que lograron hacer un aerogel de baja dispersión y alta transparencia para la luz visible. Como explican en el artículo, debido a su estructura interna nanoporosa y la falta de movimiento de sus partículas, son grandes aislantes, dado que eliminan a la vez la posibilidad de conducción por el sólido, por los nanoporos, y la convección gaseosa, por la falta de movimiento de los mismos. Sin embargo, esa misma estructura provoca que los aerogeles normales dispersen una gran cantidad de luz visible y ultravioleta, dándoles su característico color azulado.

Lo cierto es que la dispersión de la luz visible se debe sobre todo al tamaño de los nanoporos del aerogel, mientras que la falta de transmisión del infrarrojo se debe a su densidad, ofreciendo la oportunidad que los autores del artículo aprovecharon, de ajustar una sola independientemente.

Para poder modificar el tamaño de los poros del aerogel, tuvieron que desarrollar una nueva manera de sintetizar el material, mediante modificaciones de la composición de los disolventes que emplearon. El resultado final es que su aerogel tiene una transmitancia del 95% con 10 mm de ancho.

Con este material construyeron un prototipo de convertidor solar que está esquematizado en la siguiente figura:

Prototipo del convertidor solar donde de observe el aerogel de baja dispersión como elemento aislante. El «blackbody absorber» es una pintura especial, que simultáneamente absorbe todo el espectro visible y aguanta altas temperaturas. (Del artículo citado)

Con esta estructura lograron una temperatura estable máxima, que la temperatura por debajo de la cual se puede extraer calor, de 265 ºC. Este valor es unos 100 ºC más alto de lo que se puede conseguir con aerogeles no optimizados y comparable a otro tipo de convertidores, con sistemas de vacío y superficies muy complicadas. Para comprobar como funcionaba en condiciones de campo, hicieron un pequeño sistema que obtuvo los resultados de la siguiente figura:

Temperatura en el colector solar e irradiancia solar a lo largo de la mañana. Se consigue mantener el calor a pesar de la presencia abundante de nubes en la última parte la misma. La temperatura externa es la línea punteada cerca de los 0 ºC. Era invierno, después de todo.

El artículo original se titula «Harnessing Heat Beyond 200°C fromUnconcentrated Sunlight with NonevacuatedTransparent Aerogels» y se puede encontrar en: ACS Nano 2019, 13, 7, 7508–7516

(1) Aerogel: Sustancia coloidal similar a los geles más habituales, donde se sustituye el líquido de los geles por un gas, proporcionando un material muy poco denso, pero extraordinariamente resistente tanto al calor como a la tensión. Se pueden hacer de varios compuestos base, pero en este artículo, su base principal es el Silicio, debido a las propiedades ópticas que se alcanzan.

(2) Así lo traduje yo. EL artículo en inglés habla de «Greenhouse selectivity».

(3) Cristales fotónicos: Estructuras de tamaño nanométrico que alteran la reflectividad y transmisión de la luz a través suyo debido a su pequeño tamaño. en la Wikipedia en inglés: Photonic Crystal.

Proceso de electrolísis de agua residual ayudado por microbios.

Se ha logrado por parte de unos investigadores sistemas de generación de hidrógeno mediante electrolísis con luz solar que es económicamente viable.

Comienzan al introducción de su artículo señalando la importancia de los sectores industriales de agua y la energía, refiriéndose a su producción y distribución, que están unidas de manera muy clara: es muy frecuente que para producir energía haga falta agua, y viceversa. Además de que cualquier actividad humana precisa, como mínimo, justamente estos dos componentes.

Incide después en el pricipal talón de aquiles de cualquier fuente renovable, y muy especialmente de la solar: su intermitencia y , algo que se suele decir poco, su <<difusividad>>, es decir, que tiene una densidad energética muy baja. Una posible solución es la conversión de energía solar en algún tipo de combustible líquido con mayores densidades de energía y capaz de almacenarse, para modular la intermitencia. Al mismo tiemp, ese combustible no debe emitir CO2 a la atmósfera, porque sino no sirve para luchar contra el calentamiento del planeta producido, precisamente por el aumento de niveles de este gas (y otros) por la actividad humana.

Por ello, el hidrógeno es un candidato ideal, con otra características: ya existe una industria del hidrógeno, con lo que los problemas relativos a su almacenamitento y distribución están solucionados, aunque sea a pequeña escala. Pero actualmente tiene un problema: casi todo el hidrógeno que produce la humanidad es de origen fósil. Es decir, se produce hidrógeno basándose en hidrocarburos, derivados del petróleo. Por eso hacen falta métodos capaces de producirlo de manera más limpia, sin emitir CO2. Y estos investigadores lo han logrado, al lograr producir H2 (gas hidrógeno neutro) mediante energía solar y un ánodo biológico a partir de agua residual, en un nuevo proceso de fotosíntesis artifical(1).

El problema es que los sistema de fotosíntesis artificial necesitan generar unos 1,9 V de potencial en el sistema en contacto con las moléculas de agua para romper el enlace entre el hidrógeno y el oxígeno. Y ese valor de potencial sólo lo tienen semiconductores de banda ancha(2), que no absorben bien el espectro solar. Otros materiales presentan sus propios problemas, como altos costes o materiales muy caros por escasos, dificultad de fabricación, etc.

Por otra parte, la mayoría de los sistemas que se han desarrollado hasta ahora utilizan sobre todo agua ultra pura, que exige un proceso previo que implica un gasto de energía importante. Por ello, el uso de aguas residuales es mucho más interesante, por que tienen que ser procesadas para su vuelta al ambiente de manera razonablemente segura, lo que también cuesta energía y no siempre se produce. Por ello, el usar las aguas residuales como material para la fotosíntesis artificial en lugar de agua pura es una idea muy interesante.

La solución que han adoptado en este artículo los investigadores es usar microbios para ayudar an la fotosíntesis artificial. Se trata de usar los microbios para oxidar la materia orgánica del agua, más que el el agua en sí. El potencial de oxidación que los microbios necesitan para tratar residuos orgánicos disueltos en el agua es tan bajo, que permitiría el uso de semiconductores basados en Si para ayudar a los microbios, lo que abarata notablemente el sistema, porque el Silicio es barato y abundante. Además, el ancho de banda de este material se ajusta bastante bien al espectro solar, de manera que puede usarse con luz solar directa.

Comentan que intentos anteriores de emplear este sistema no lograron una efciencia mínima de conversión de H2, que ellos fijan en 10 mA por cm2, además de no usar aguas residuales directamente.

Su sistema funciona usando lo que se denomina <<Silicio negro>>(3) para el fotocátodo, pero con una estructura interna un poco especial. Los investigadores la descrben como de queso suizo, y quieren señalar que las columnas habituales en las estrucutras del silicio negro estan muy retorcidas y torcidas, de manera que parecen una espcie de queso con agujeros. La razón de utilizar esta estructura es que el silicio negro, debido precisamente a su esttructura de pilares, se oxida muy rápidamente, lo que impide su uso industrial; pero el uso de la estructura de este trabajo hace que no tengan que proteger el material, sino que sea estable frente a oxidaciones por un tiempo muy largo: 90 horas de funcionamiento sin una degradación fuerte del material.

En el ánodo han empleado microbios electroactivos, es decir, microbios que bajo ciertas condiciones, generan energía eléctrica por oxidación de materia orgánica.

Otro de los elementos importantes del sistema desarrollado por estos investigadores es que no precisa de ningún tipo de voltaje externo, más allá del producido por la luz solar.

Con lo cual, con la estructura mostrada en la figura siguiente, lograron por un lado una estabilidad muy larga de la producción de Hidrógeno, sin necesidad de voltajes externos y con el beneficio añadido de que trataron una gran cantidad de agua residual.

Esquema del sistema empleado para tratar aguas residuales y producir hidrógeno. Extraído del artículo citado.

Yendo de izquierda a derecha, la luz solar incide en el Silicio oscuro, el fotocátodo, generando electrones que se unen a los iones positivos del hidrógeno molecular para producir el gas. En los dos bioánodos del centro, los microbios oxidan los contaminantes del agua, generando los iones de Hidrógeno. En el cátodo de aire de la izquierda, se unen con grupos hidroxilos para formar agua limpia.

Usando diversas técnicas de imagen, pudieron observar su silicio negro, y comprobar como era muy distinto del más habitual, al tener sus pilares no completamente rectos, sino ondulados. La siguiente foto muestra ese fenómeno.

Imagen SEM(4) del Silicio negro. Obtenida del artículo citado.

En esta imagen SEM se puede ver con claridad como los diversos pilares de Silicio se han torcido y mezclado, generando la estrucutura que comentaban en forma de queso. También se observa el catalizador MoSx, que ayuda a producir Hidrógeno.

El artículo completo se puede localizar en: Unbiased solar H2 production with current density up to 23 mA cm−2 by Swiss-cheese black Si coupled with wastewater bioanode

Notas:

(1) Fotosíntesis artificial (APS en sus siglas en Inglés) es el proceso de separación de los dos gases del agua, hidrógeno y oxígeno, pero en lugar de con plantas, con sistemas artificiales creeados por el hombre. Su mayor problema es que suelen ser caros y de corta duración.

(2) La banda de un semiconductor es el voltaje (equivalente a la energía) que tiene que tener un fotón si quiere arrancar un electrón del material semiconductor y que circule. La idea para la disociación del agua es la siguiente: El semiconductor produce los electrones de la energía adecuada al exponerse al sol, por la acción de los fotones de la luz solar, y luego esos electrones chocan contra las moléculas de agua, y debido a su energía, la separan en sus moléculas fundamentales.

(3) Silicio negro, black Silicon en inglés, es una forma de nanoestructurar el Silicio que permite una mayor absorción de la luz solar, incrementando dramáticamente la eficiencia de las células solares. Un artículo en inglés donde lo explica muy bien está disponible en la Wikipedia: Black Silicon

(4) SEM: Microscopía Electrónica de barrido. Un sistema de observar muestras de muy pequeño tamaño con gran resolución espacial, porque emplea electrones para realizar la imagen. En la Wikipedia tiene un artículo bastante bueno sobre el tema: SEM(Wikipedia)

Sistemas de recogida de objetos con robótica blanda

Una de las cosas más difíciles de conseguir en robótica es algo que casi todos los humanos poseemos de serie: Un sistema de recogida de objetos capaz de recoger muy diversas formas, pesos y resistencias sin ni romper ni que se le caigan. En nuestro caso, tal sistema se llama mano.

Pero en robótica es muy, muy difícil lograr algo similar, con las capacidades que se precisan, y que, además, sea fácil de controlar. Nuestro cuerpo posee un sistema de control complicadísimo, que es por lo tanto difícil de replicar. Es más, es tan complicado, que tardamos bastante tiempo desde que nacemos hasta que somos capaces de coger casi cualquier cosa. Luego, a pesar de su indudable versatilidad, no es un buen modelo para aplicaciones industriales, que deben ser sencillas de mantener y lo más baratas posible.

Unos investigadores del MIT y otrso centros están un paso más cercano de conseguir ese sujetador universal, fácil de hacer y mantener y que es capaz de agarrar objetos diversos en forma, tamaño y fragilidad. Y de una manera muy inesperada: usando esferas creadas con una superficie plástica arrugada como si fuera un tipo de origami, y la aplicación de vacio mecánico en su interior.

Como la siguiente fotografía muestra, es capaz de agarrar todo tipo de objetos, incluyendo varios alimentos:

La imagen superior muestra tres de los sistemas de sujeción desarrollados, con su <<esqueleto>> de origami delante y el material plástico de bajo coste sobreimpreso. En las imágenes de abajo, de la (b) a la (k), se observa como captura una gran variedad de objetos y formas, incluyendo alimentos muy frágiles. Imagen extraída del artículo citado.

Su principio de funcionamiento, como el de todas las muy buenas ideas, es engañosamente simple: Se trata de que la estructura de su membrana, al colapsarse sobre si misma cuando se hace el vacío en su interior, rodea al objeto que se desea coger, con una fuerza considerable. ¡Puede realizar 120 N de fuerza!

En la siguiente imagen se muestra mejor este funcionamiento:

En la imagen superior se observa un esquema del esqueleto del sistema cuando está sin vacío y con él, mientras que en la inferior se observa el plegamiento dirigido por el origami.. Fíjense que rodea al objeto con el vacío por la estructura en origami del <<esqueleto>>. Imagen obtenida del artículo citado.

Los investigadores emplearon lo que llaman la <<bola mágica>>(1) de origami, un sistema que es bien conocido por los amantes de origami, y que consiste en dobleces tales que una esfera que se aplasta vuelve al estado esférico al cesar la fuerza inicial. Cuando uno de los extremos es fijo, entonces, las tensiones son tales que el otro se cierra o abre sobre sí mismo, produciendo el deseado agarre. Esta bola mágica forma el esqueleto de sus sistema de agarre, con una lámina que lo rodea, que permite formar vacío alrededor del esqueleto como la segunda parte.

El proceso de fabricación está muy bien descrito, y parece engañosamente simple. Emplearon dos tipos de plásticos distitntos, con sus formas de fabricarlos.

Un sistema empleó goma de silicona como material plástico. Entonces, tuvieron que imprimir unos moldes con una impresora 3D, y luego usar esos moldes para hacer las 16 piezes finales de la bola.

En otro de los sistemas decidieron, como en trabajos anteriores, emplear materiales composites(2), de forma que tuvieron que diseñarlo y luego hacerle cortes de precisión con un sistema láser de cortado. Luego, usando sus propiedades de memoria de forma, lo calentaron a la temperatura de plegado y se autoensambló.
El artículo termina en sus páginas finales describiendo las pruebas de agarre de los diversos prototipos que han hecho, pero me parece que es menos interesante.

Si están interesados en leeerlo, pueden hacerlo desde este enlace, porque los autores han dispuesto que sea un artículo abierto: A Vacuum-driven Origami “Magic-ball” Soft Gripper

Notas:

(1) Un enlace donde explican como hacerla es: Origami

(2) Composites: Materiales formados por diversas capas de materiales puros distintos, que juntos forman un material con propiedades que ninguno por separado podría tener. En este caso, es un composite activo, con memoria de forma.