Utilización eficiente de luz solar para lograr temperaturas medias

En una investigación publicada en la revista ACS Nano en el año 2019, unos investigadores lograron emplear aerogeles(1) para poder generar temperaturas medias usando luz solar, cerca de 200 ºC, sin necesidad de concentrarla ni de sistemas de vacío.

Como ellos mismos explican en la introducción, debido al uso de combustibles fósiles por parte de la humanidad hemos cambiado lo suficiente la composición de gases de la atmósfera como para cambiar la capacidad de la misma de absorber y emitir luz solar, provocando su calentamiento. Lo que se suele llamar «efecto invernadero».

Pero este efecto no tiene porqué ser negativo si no calentamos toda la Tierra, pero sólo un volumen muy limitado y mucho más. En ese caso, tendríamos un sistema llamado termo-solar, capaz de calentar un volumen hasta temperaturas del orden de 120 o 220 ºC, que es muy útil en muchas aplicaciones básicas: calefacción, cocina, etc.

Hasta ahora, la mayoría de los sistemas de este estilo tenían bastante complejidad. La razón es que para poder usar la relativamente baja poca potencia del Sol sin concentrar (~1 kW/m²), se usaban concentradores solares. Pero estos dispositivos son caros y tiene que realizar un seguimiento de la posición del Sol para poder enfocar correctamente la luz. Y de hecho, según afirman en el artículo sistemas de última generación de este tipo demostraron su capacidad para generar vapor de agua. Pero todos estos sistemas están sujetos a las pérdidas producidas por los fenómenos de conducción, convección y radiación. Los aerogeles no tienen estos problemas, dado que apenas conducen el calor, no radian el infrarrojo por su estructura interna, que impide que con grosores considerables la radiación infrarroja pase, y al no ser un fluido no pueden transmitir radiación por convección, puesto que sus partículas no se mueven.

Por supuesto, en general, todas estas ventajas tiene un grave problema: su estructura interna los hace también muy poco transparentes, con altísimos coeficientes de dispersión de luz solar que impiden su uso como elementos fundamentales de un colector solar. Hasta ahora.

La clave está en modificar el tamaño de los nanogranos que forman el aerogel, reduciéndolo para aumentar su transparencia.

El artículo explica un poco el fundamento de los colectores solares, introduciendo para ello el concepto de «selectividad de invernadero»(2), es decir, como se observa en la siguiente figura, la capacidad de permitir el paso de las longitudes de onda del visible e impedir que circulen las longitudes de onda infrarroja.

Concepto de selectividad de invernadero. La «Optical depth» del eje izquierdo es la capacidad del material de permitir el paso de la longitud de onda del eje horizontal. Cuanto más grande, menos deja pasar. (Del artículo citado.)

Como se observa en la figura, si un determinado material permite que la luz visible pase a través suyo, mientras que impide el paso de la radiación infrarroja, con el tiempo se acabará calentando mucho más que el ambiente. Este proceso permitirá que el objeto situado justo debajo del material pueda transferir este calor. Los sistemas más habituales de lograr este material consisten en la modificación estructural y acumulación de diversas capas de materiales, todos ellos complicados. Por ejemplo, estrategias empeladas anteriormente, según cuentan en el artículo, han sido acumulación de múltiples capas de metal-conductor, cristales fotónicos(3) y otros.

Con el uso de los aerogeles, la selectividad de longitudes de onda se obtiene por la acumulación de volumen de material. El aerogel tiene permite el paso de luz solar, pero las longitudes de onda más largas del infrarrojo se ven dispersadas en volúmenes relativamente grandes del material, lo que provoca que no puedan atravesarlo.

La clave está en que lograron hacer un aerogel de baja dispersión y alta transparencia para la luz visible. Como explican en el artículo, debido a su estructura interna nanoporosa y la falta de movimiento de sus partículas, son grandes aislantes, dado que eliminan a la vez la posibilidad de conducción por el sólido, por los nanoporos, y la convección gaseosa, por la falta de movimiento de los mismos. Sin embargo, esa misma estructura provoca que los aerogeles normales dispersen una gran cantidad de luz visible y ultravioleta, dándoles su característico color azulado.

Lo cierto es que la dispersión de la luz visible se debe sobre todo al tamaño de los nanoporos del aerogel, mientras que la falta de transmisión del infrarrojo se debe a su densidad, ofreciendo la oportunidad que los autores del artículo aprovecharon, de ajustar una sola independientemente.

Para poder modificar el tamaño de los poros del aerogel, tuvieron que desarrollar una nueva manera de sintetizar el material, mediante modificaciones de la composición de los disolventes que emplearon. El resultado final es que su aerogel tiene una transmitancia del 95% con 10 mm de ancho.

Con este material construyeron un prototipo de convertidor solar que está esquematizado en la siguiente figura:

Prototipo del convertidor solar donde de observe el aerogel de baja dispersión como elemento aislante. El «blackbody absorber» es una pintura especial, que simultáneamente absorbe todo el espectro visible y aguanta altas temperaturas. (Del artículo citado)

Con esta estructura lograron una temperatura estable máxima, que la temperatura por debajo de la cual se puede extraer calor, de 265 ºC. Este valor es unos 100 ºC más alto de lo que se puede conseguir con aerogeles no optimizados y comparable a otro tipo de convertidores, con sistemas de vacío y superficies muy complicadas. Para comprobar como funcionaba en condiciones de campo, hicieron un pequeño sistema que obtuvo los resultados de la siguiente figura:

Temperatura en el colector solar e irradiancia solar a lo largo de la mañana. Se consigue mantener el calor a pesar de la presencia abundante de nubes en la última parte la misma. La temperatura externa es la línea punteada cerca de los 0 ºC. Era invierno, después de todo.

El artículo original se titula «Harnessing Heat Beyond 200°C fromUnconcentrated Sunlight with NonevacuatedTransparent Aerogels» y se puede encontrar en: ACS Nano 2019, 13, 7, 7508–7516

(1) Aerogel: Sustancia coloidal similar a los geles más habituales, donde se sustituye el líquido de los geles por un gas, proporcionando un material muy poco denso, pero extraordinariamente resistente tanto al calor como a la tensión. Se pueden hacer de varios compuestos base, pero en este artículo, su base principal es el Silicio, debido a las propiedades ópticas que se alcanzan.

(2) Así lo traduje yo. EL artículo en inglés habla de «Greenhouse selectivity».

(3) Cristales fotónicos: Estructuras de tamaño nanométrico que alteran la reflectividad y transmisión de la luz a través suyo debido a su pequeño tamaño. en la Wikipedia en inglés: Photonic Crystal.

Proceso de electrolísis de agua residual ayudado por microbios.

Se ha logrado por parte de unos investigadores sistemas de generación de hidrógeno mediante electrolísis con luz solar que es económicamente viable.

Comienzan al introducción de su artículo señalando la importancia de los sectores industriales de agua y la energía, refiriéndose a su producción y distribución, que están unidas de manera muy clara: es muy frecuente que para producir energía haga falta agua, y viceversa. Además de que cualquier actividad humana precisa, como mínimo, justamente estos dos componentes.

Incide después en el pricipal talón de aquiles de cualquier fuente renovable, y muy especialmente de la solar: su intermitencia y , algo que se suele decir poco, su <<difusividad>>, es decir, que tiene una densidad energética muy baja. Una posible solución es la conversión de energía solar en algún tipo de combustible líquido con mayores densidades de energía y capaz de almacenarse, para modular la intermitencia. Al mismo tiemp, ese combustible no debe emitir CO2 a la atmósfera, porque sino no sirve para luchar contra el calentamiento del planeta producido, precisamente por el aumento de niveles de este gas (y otros) por la actividad humana.

Por ello, el hidrógeno es un candidato ideal, con otra características: ya existe una industria del hidrógeno, con lo que los problemas relativos a su almacenamitento y distribución están solucionados, aunque sea a pequeña escala. Pero actualmente tiene un problema: casi todo el hidrógeno que produce la humanidad es de origen fósil. Es decir, se produce hidrógeno basándose en hidrocarburos, derivados del petróleo. Por eso hacen falta métodos capaces de producirlo de manera más limpia, sin emitir CO2. Y estos investigadores lo han logrado, al lograr producir H2 (gas hidrógeno neutro) mediante energía solar y un ánodo biológico a partir de agua residual, en un nuevo proceso de fotosíntesis artifical(1).

El problema es que los sistema de fotosíntesis artificial necesitan generar unos 1,9 V de potencial en el sistema en contacto con las moléculas de agua para romper el enlace entre el hidrógeno y el oxígeno. Y ese valor de potencial sólo lo tienen semiconductores de banda ancha(2), que no absorben bien el espectro solar. Otros materiales presentan sus propios problemas, como altos costes o materiales muy caros por escasos, dificultad de fabricación, etc.

Por otra parte, la mayoría de los sistemas que se han desarrollado hasta ahora utilizan sobre todo agua ultra pura, que exige un proceso previo que implica un gasto de energía importante. Por ello, el uso de aguas residuales es mucho más interesante, por que tienen que ser procesadas para su vuelta al ambiente de manera razonablemente segura, lo que también cuesta energía y no siempre se produce. Por ello, el usar las aguas residuales como material para la fotosíntesis artificial en lugar de agua pura es una idea muy interesante.

La solución que han adoptado en este artículo los investigadores es usar microbios para ayudar an la fotosíntesis artificial. Se trata de usar los microbios para oxidar la materia orgánica del agua, más que el el agua en sí. El potencial de oxidación que los microbios necesitan para tratar residuos orgánicos disueltos en el agua es tan bajo, que permitiría el uso de semiconductores basados en Si para ayudar a los microbios, lo que abarata notablemente el sistema, porque el Silicio es barato y abundante. Además, el ancho de banda de este material se ajusta bastante bien al espectro solar, de manera que puede usarse con luz solar directa.

Comentan que intentos anteriores de emplear este sistema no lograron una efciencia mínima de conversión de H2, que ellos fijan en 10 mA por cm2, además de no usar aguas residuales directamente.

Su sistema funciona usando lo que se denomina <<Silicio negro>>(3) para el fotocátodo, pero con una estructura interna un poco especial. Los investigadores la descrben como de queso suizo, y quieren señalar que las columnas habituales en las estrucutras del silicio negro estan muy retorcidas y torcidas, de manera que parecen una espcie de queso con agujeros. La razón de utilizar esta estructura es que el silicio negro, debido precisamente a su esttructura de pilares, se oxida muy rápidamente, lo que impide su uso industrial; pero el uso de la estructura de este trabajo hace que no tengan que proteger el material, sino que sea estable frente a oxidaciones por un tiempo muy largo: 90 horas de funcionamiento sin una degradación fuerte del material.

En el ánodo han empleado microbios electroactivos, es decir, microbios que bajo ciertas condiciones, generan energía eléctrica por oxidación de materia orgánica.

Otro de los elementos importantes del sistema desarrollado por estos investigadores es que no precisa de ningún tipo de voltaje externo, más allá del producido por la luz solar.

Con lo cual, con la estructura mostrada en la figura siguiente, lograron por un lado una estabilidad muy larga de la producción de Hidrógeno, sin necesidad de voltajes externos y con el beneficio añadido de que trataron una gran cantidad de agua residual.

Esquema del sistema empleado para tratar aguas residuales y producir hidrógeno. Extraído del artículo citado.

Yendo de izquierda a derecha, la luz solar incide en el Silicio oscuro, el fotocátodo, generando electrones que se unen a los iones positivos del hidrógeno molecular para producir el gas. En los dos bioánodos del centro, los microbios oxidan los contaminantes del agua, generando los iones de Hidrógeno. En el cátodo de aire de la izquierda, se unen con grupos hidroxilos para formar agua limpia.

Usando diversas técnicas de imagen, pudieron observar su silicio negro, y comprobar como era muy distinto del más habitual, al tener sus pilares no completamente rectos, sino ondulados. La siguiente foto muestra ese fenómeno.

Imagen SEM(4) del Silicio negro. Obtenida del artículo citado.

En esta imagen SEM se puede ver con claridad como los diversos pilares de Silicio se han torcido y mezclado, generando la estrucutura que comentaban en forma de queso. También se observa el catalizador MoSx, que ayuda a producir Hidrógeno.

El artículo completo se puede localizar en: Unbiased solar H2 production with current density up to 23 mA cm−2 by Swiss-cheese black Si coupled with wastewater bioanode

Notas:

(1) Fotosíntesis artificial (APS en sus siglas en Inglés) es el proceso de separación de los dos gases del agua, hidrógeno y oxígeno, pero en lugar de con plantas, con sistemas artificiales creeados por el hombre. Su mayor problema es que suelen ser caros y de corta duración.

(2) La banda de un semiconductor es el voltaje (equivalente a la energía) que tiene que tener un fotón si quiere arrancar un electrón del material semiconductor y que circule. La idea para la disociación del agua es la siguiente: El semiconductor produce los electrones de la energía adecuada al exponerse al sol, por la acción de los fotones de la luz solar, y luego esos electrones chocan contra las moléculas de agua, y debido a su energía, la separan en sus moléculas fundamentales.

(3) Silicio negro, black Silicon en inglés, es una forma de nanoestructurar el Silicio que permite una mayor absorción de la luz solar, incrementando dramáticamente la eficiencia de las células solares. Un artículo en inglés donde lo explica muy bien está disponible en la Wikipedia: Black Silicon

(4) SEM: Microscopía Electrónica de barrido. Un sistema de observar muestras de muy pequeño tamaño con gran resolución espacial, porque emplea electrones para realizar la imagen. En la Wikipedia tiene un artículo bastante bueno sobre el tema: SEM(Wikipedia)

Sistemas de recogida de objetos con robótica blanda

Una de las cosas más difíciles de conseguir en robótica es algo que casi todos los humanos poseemos de serie: Un sistema de recogida de objetos capaz de recoger muy diversas formas, pesos y resistencias sin ni romper ni que se le caigan. En nuestro caso, tal sistema se llama mano.

Pero en robótica es muy, muy difícil lograr algo similar, con las capacidades que se precisan, y que, además, sea fácil de controlar. Nuestro cuerpo posee un sistema de control complicadísimo, que es por lo tanto difícil de replicar. Es más, es tan complicado, que tardamos bastante tiempo desde que nacemos hasta que somos capaces de coger casi cualquier cosa. Luego, a pesar de su indudable versatilidad, no es un buen modelo para aplicaciones industriales, que deben ser sencillas de mantener y lo más baratas posible.

Unos investigadores del MIT y otrso centros están un paso más cercano de conseguir ese sujetador universal, fácil de hacer y mantener y que es capaz de agarrar objetos diversos en forma, tamaño y fragilidad. Y de una manera muy inesperada: usando esferas creadas con una superficie plástica arrugada como si fuera un tipo de origami, y la aplicación de vacio mecánico en su interior.

Como la siguiente fotografía muestra, es capaz de agarrar todo tipo de objetos, incluyendo varios alimentos:

La imagen superior muestra tres de los sistemas de sujeción desarrollados, con su <<esqueleto>> de origami delante y el material plástico de bajo coste sobreimpreso. En las imágenes de abajo, de la (b) a la (k), se observa como captura una gran variedad de objetos y formas, incluyendo alimentos muy frágiles. Imagen extraída del artículo citado.

Su principio de funcionamiento, como el de todas las muy buenas ideas, es engañosamente simple: Se trata de que la estructura de su membrana, al colapsarse sobre si misma cuando se hace el vacío en su interior, rodea al objeto que se desea coger, con una fuerza considerable. ¡Puede realizar 120 N de fuerza!

En la siguiente imagen se muestra mejor este funcionamiento:

En la imagen superior se observa un esquema del esqueleto del sistema cuando está sin vacío y con él, mientras que en la inferior se observa el plegamiento dirigido por el origami.. Fíjense que rodea al objeto con el vacío por la estructura en origami del <<esqueleto>>. Imagen obtenida del artículo citado.

Los investigadores emplearon lo que llaman la <<bola mágica>>(1) de origami, un sistema que es bien conocido por los amantes de origami, y que consiste en dobleces tales que una esfera que se aplasta vuelve al estado esférico al cesar la fuerza inicial. Cuando uno de los extremos es fijo, entonces, las tensiones son tales que el otro se cierra o abre sobre sí mismo, produciendo el deseado agarre. Esta bola mágica forma el esqueleto de sus sistema de agarre, con una lámina que lo rodea, que permite formar vacío alrededor del esqueleto como la segunda parte.

El proceso de fabricación está muy bien descrito, y parece engañosamente simple. Emplearon dos tipos de plásticos distitntos, con sus formas de fabricarlos.

Un sistema empleó goma de silicona como material plástico. Entonces, tuvieron que imprimir unos moldes con una impresora 3D, y luego usar esos moldes para hacer las 16 piezes finales de la bola.

En otro de los sistemas decidieron, como en trabajos anteriores, emplear materiales composites(2), de forma que tuvieron que diseñarlo y luego hacerle cortes de precisión con un sistema láser de cortado. Luego, usando sus propiedades de memoria de forma, lo calentaron a la temperatura de plegado y se autoensambló.
El artículo termina en sus páginas finales describiendo las pruebas de agarre de los diversos prototipos que han hecho, pero me parece que es menos interesante.

Si están interesados en leeerlo, pueden hacerlo desde este enlace, porque los autores han dispuesto que sea un artículo abierto: A Vacuum-driven Origami “Magic-ball” Soft Gripper

Notas:

(1) Un enlace donde explican como hacerla es: Origami

(2) Composites: Materiales formados por diversas capas de materiales puros distintos, que juntos forman un material con propiedades que ninguno por separado podría tener. En este caso, es un composite activo, con memoria de forma.

Prótesis capaz de percibir tacto y dolor

Recientemente se ha publicado un artículo en la revista Science Robotics en el que se describe una prótesis con un recubrimiento que imita la piel humana, al menos en la transmisión de sensaciones de tacto y dolor, algo que hasta ahora estaba vedado a sistemas protésicos.

Comienzan explicando lo obvio: Nuestro sistema sensorial es fundamental para obtener información del mundo exterior, incluyendo por supuesto el sentido del tacto que, junto con nuestro propio sentido de nuestra posición(1), nos permite realizar tantas tareas cotidianas con nuestras extremidades, especialmente las manos.

Dentro de este sentido del tacto, la importancia del dolor es muy fuerte: nos permite saber si una superficie o algo que tocamos es seguro o no. Por eso ha habido una investigación muy intensa en los últimos años tratando de lograr algún tipo de retroalimentación sensora de las prótesis a sus usuarios, para lo cual se han seguido varios caminos.

Por ejemplo, se han publicado estudios con varios sistemas sensores capaces de proporcionar información sobre la posición de la prótesis al ususario, pero los avances más significativos han sido la demostración de la capacidad de proporcionar sentidos artificiales del tacto a amputados mediante electrodos implantados o simplemente en contacto con el cuerpo del paciente.

El avance fundamental de este artículo estriba en la inclusión del dolor como posibilidad a sentir desde una prótesis, lo que esperan que ayude a crear y diseñar sistemas más realistas y cómodos para los ususarios.

Para ello, desarrollaron dos sitemas distintos: una <<piel sintética>> con capacidad del sentido del tacto y una interfaz neuromórfica(2) que, combinados, dan al paciente la capacidad de sentir no sólo el tacto de lo que está tocando la prótesis, sino también de sentir dolor de la misma.

El esquema de funcionamiento se muestra en la siguiente figura:

Adaptada del artículo. Esquema de cómo funciona el sistema para porporcionar tacto. La piel sintética recibe una señal, que se codifica por su controlador en una serie de pulsos eléctricos similares a los producidos por una extremidad viva, y que alimentan un estimulador que envía las señales directamente al cerebro mediante cables insertados debajo de la piel.

La piel sintética funciona imitando la natural, con dos capas diferenciadas con distintas sensibilidades, que ayudan a poder percibir las formas de los objetos que se estén tocando.

Para ser capaces de darle retroalimentación de los datos de la prótesis al usuario, mediante el uso de cables intertados bajo la piel, TENS siguiendo sus siglas en inglés(3) proporcionaron estímulos al cerebro del paciente, para que el les dijera qué estaba <<sintiendo>> de su miembro ausente, es decir, qué regiones percibía como tocando algo (el dedo índice de la mano izquierda, el de la mano derecha, etc) de manera que elaboraron un mapa de qué estímulos le decían a su cerebro que estaban tocando el miembro amputado. Con ellos, podían engañarlo para decirle que un dedo estaba tocando algo, cuando en realidad producían la señal desde la prótesis.

Para imitar la percepción espacial de objetos, la piel artificial estaba dividida en partes discretas, de tal forma que según el número y situación de las partes de la piel activadas, el sistema de retroalimentación era capaz de mapear una forma del objeto que estaba siendo tocado y transmitirle esa información al paciente. Las diversas formas de distribuir la presión en los sensores para tres objetos muy diferentes las muestran los autores en su figura 4, que reproduzco:

Adaptada del artículo citado. La primera fila desde arriba muestra los diversos objetos, todos del mismo largo, que la prótesis percibió. La segunda y tercera enseñan las señales de presión y su situación en el sensor de la punta del dedo y la última las señales eléctricas que se enviaron.

Para terminar de mejorar el sistema, añadieron la capacidad de hacer percibir al sujeto dolor de la prótesis cambiando la frecuencia y duración de las señales que emitieron mediante TENS(3) a su cerebro, y además proporcionaron, a modo de prueba, un cierto sistema reflejo a la prótesis capaz de soltar aquello que le causaba dolor sin intervención consciente, de un modo muy similar a como funciona el sistema reflejo humano real.

El artículo original se puede encontrar en:

Prosthesis with neuromorphic multilayered e-dermis precieves touch and pain,

Science Robotics  20 Jun 2018. Vol. 3, Issue 19, eaat3818
DOI: 10.1126/scirobotics.aat3818

https://robotics.sciencemag.org/content/3/19/eaat3818

Notas:

(1) Llamado propiocepción, una características de los seres humanos que se considera ya un sentido como la vista, el oido, etc.

(2) Interfaz neuromórfica: Quieren decir un sistema de comunicación entre la piel y el usuario que imita el sistema neuronal humano.

(3) TENS: Transcotaneus Electrical Dermal Stimulation, Estimulación eléctrica dermal transcutánea.

Uso de teoría de redes para comprender la dinámica del terrorismo.

En un artículo muy interesante, unos investigadores indios han empleado la teoría de redes para tratar de estudiar la dinámica del terrorismo en el mundo y sus cambios en el tiempo.

Comienzan en la introducción comentando que, en principio, la evidencia disponible apunta a que la cooperación entre seres humanos es la fuerza dominante, dado que nuestra historia como especie empezó formando pequeñas tribus para acabar con la formación de los actuales estados, unas organizaciones muy complicadas donde personas totalmente extrañas entre sí cooperan.

Al mismo tiempo, en toda nuestra historia actos violentos má o menos organizados han sido también grandes protagonistas; basta con recordar las dos últimas guerras mundiales o cualquiera de los múltiples conflictos violentos abiertos en el planeta. Y dentro de ellos, por supuesto, actos de terrorismo, aquí definidos como actos violentos realizados por grupos pequeños de personas con el objetivo de alcanzar un cambio en el estatus político, religioso o social imperante.

El artículo trata de usar la teoría de redes, muy empleada por físicos de formación para el estudio de instituciones humanas de cualquier tipo recientemente, para poder analizar las relaciones existentes entre grupos terroristas, sus víctimas y los potenciales vínculos entre ellos.

Como base de datos de relaciones entre terroristas y víctimas emplearon una base de datos denominada Base de datos de terrorismo global (Global Teroorism Database en inglés), que recoge de las noticias sobre ataques violentos sucedidos en el mundo que aparecen en prensa el número de víctimas, el grupo que inició el ataque terrorista y otra información relevante.

Tras construir el grupo de datos que emplean en el análisis, pueden mostrar gráficos tan impresionantes com la figura siguiente, donde observan la evolución temporal de los ataques en todo el mundo; el terrorismo de ETA es muy claro en la península ibérica.

Ataques teorristas en el mundo separados por décadas. Obsérvese como los ataques sufridos por África en los últimos años aparecen claramente marcados. Adaptado de la figura 1 del artículo citado.

Entre sus conclusiones, la primera que sacan es que casi todos los grupos terroristás están fuertemente ligados, de tal forma que un gran cluster de grupos o personas terroristas fuertemente unidos conforman el 8% de todos los nodos presentes.

Otra de las cosas que comprobaron es la resiliencia de la red de terrorismo a sus ataques, que resultó ser baja si lo que se se hace es extraer aquellos elementos más destacados de la red, frente a ataques aleatorios a la red. Esto tiene importancia a la hora de diseñar políticas de contención del terrorismo, porque implica que antes que un control global y aleatorio, para acabar con el terrorismo es preferible un control más selectivo de objetivos de alta importancia en la organización terorista: cabecillas de diversos grupos, altos mandos, etc.

Además, también presentan clara evidencia empírica de algo que todos los que vivimos actualmente tenemos claro de forma intuitiva: según avanzó el siglo XX y el XXI, la cantidad de grupos terroristas aumenta, con una mayor disparidad y cantidad de víctimas conforma avanza el tiempo. La consecuencia de esto y del resultado anterior es clara: cada vez resulta más difícil evitar o neutralizar las redes terroristas, pues para ello hay que descabezarlas y hay cada vez más cabezas.

Como eejmplo, citan el conflicto entre palestinos e israelíes, que hasta 1970 tenía dos actores principales: el estado israelí y el palestino (o lo que pudieran tener), para años después, con la incorporación de otros grupos como Hamás, complicar de manera clara la geometría de la red, como demuestra la figura siguiente:

Estructura de la red de terroristas y víctimas a lo largo de décadas para Israel (ISR, arriba) y Colombia (COL, abajo). Observen como la aparición de varios agentes en los actos de violencia en ambos casos complica la red. Por otra parte, se observa que en Israel un gran número de grupos (color violeta) atacan al mismo tipo de víctimas(color rosado), mientras que en Colombia la violencia está más repertida. Adaptado de la figura 5 del artículo citado.

Por otra parte, dentro de la geometría de a red se observa con frecuencia una estructura de estrella: o bien un mismo objetivo terrorista sufre ataques de varios grupos a la vez, o bien un grupo ataca varios blancos diferentes.

El artículo se puede encontrar en el siguiente enlace: Identifying the global terror hubs and vulnerable motifs using complex network dynamics

Electrones como partículas fluidas. Mediciones directas

Uno de los aspectos más fascinantes de la mecánica cuántica es el hecho de que el comportamiento colectivo de las partículas se aleja mucho del esperado para cada una de ellas individualmente.

Así, se pensaba y teorizaba que los electrones en movimiento colectivo llegaría un momento en el que se comportarían como un fluido, de forma que podría tener una dinámica de flujo en régimen laminar, con un campo de velocidades de tipo Poiseuille. La forma en la que esto pasa es análoga a la aproximación de medio continuo que se hace de un fluido: cuando tienes un montón de partículas tan grande que el contarlas es imposible, puede decir que la distancias entre ellas se hacen cero y tienes un material continuo, aunque en realidad esté formado por partículas o moléculas discretas. En el caso de los electrones, el factor que hace que se pueda pasar de un régimen «molecular», donde cada electrón está aislado, a otro «fluido» es la temperatura del medio en el que se encuentra el electrón y la densidad de electrones presentes para actuar como portadores de corriente eléctrica, llamada densidad de portadores.

En un experimento muy reciente publicado en la revista Nature, un grupo de investigadores, usando un substrato de grafeno combinado con nitruro de boro hexagonal(1), y controlando la densidad de portadores del mismo y su temperatura, pudieron observar experimentalmente estos dos regímenes: el de Poiseuille y el «balístico» o discreto.

Concretamente, observaron en lugar de la velocidad asociada a los fluidos más habituales, el campo eléctrico, que por lo tanto depende de dos maneras distintas de la corriente transversal, como muestran en la figura 2, de la que se extrajo la siguiente gráfica:

Imagen extraída de la figura 2 del artículo. Se observa el resultado de la medida experimental del campo eléctrico producido en el material en la dos situaciones, cuando se considera el modelo «balístico» (izquierda) y el «fluido» (derecha) o de Poiseuille (izquierda), con su característica curva parabólica.

El «fluido de electrones» tiene un número de Knudsen de valor 0,16; esto sitúa al este tipo de fluido dentro del modelo de medio continuo.

En el artículo indican con claridad que sus medidas de la corriente eléctrica es muy parecida para ambos casos, pues la distribución de corriente varía muy poco con la distribución de movilidad de los electrones.

Después de observar la emergencia de la distribución de Poiseuille en los electrones, los investigadores se dedicaron a comprobar cómo afectaba a esta fase las variaciones en la densidad de portadores y la temperatura del material, T, obteniendo un diagrama de fases.

En este diagrama se emplean las distancias lMR y lee, que se corresponden con el camino libre medio de relajación del momento(2) y la longitud de dispersión electrón-electrón(3) dividida por el ancho del material, W, en el que se hacen las medidas.

Para calcular las diversas «fases» del material usaron como parámetro de medida la curvatura del campo eléctrico, dado que es un buen indicador del tipo de modelo que sigue la dinámica de los electrones.

De la figure 3 del artículo. Diagrama de fases obtenido por los investigadores. Los cuadrados insertados en las esquinas representan la distribución del campo eléctrico (línea negra con sombreado violeta) y la forma en la que se dispersan los electrones (dibujo a la izquierda). En esos diagramas, las cruces son los fonones(4) o impurezas que dispersan los electrones.

Notas:

(1) Un material en el que los electrones pueden moverse a distancias controlables desde el exterior del material.

(2) Momentum-relaxing mean free path en el artículo. Esencialemnte, la distancia que le lleva al electrón perder una gran cantidad de moemnto lineal, de energía cinḉetica por lo tanto.

(3) electron-electron scattering length en el ariculo. La distancia mínima a la que tiene que estar dos electrones para poder dispersasrse por choques entre ellos.

(4) Los fonones son la expresión del movimiento iónico debido a su temperatura.

El artículo original se encuentra aquí.

¡Bacterias a trabajar! El uso de bacterias en sistemas generación de hidrógeno con energía solar permite el uso de aguas residuales en lugar de agua pura.

Si bien la energía solar está disponible diaramente, es intermitente con intermitencias en todas los rangos temporales: día/noche, horas, nublado/soleado, etc. El número de horas de sol disponibles también varía diariamente en casi toda la superficie terrestre, siendo aproximadamente contante sólo cerca del ecuador.

Todo ello hace que su uso como fuente primaria de energía se vea restringido, por lo que hace falta almacenarla para su uso en el momento en que haga falta, no cuando se produzca. Uno de las formas de almacenar esta fuente de energía es la producción de algún producto químico que al oxidarse rápidamente, al «quemarse», produzca energía. Un químico adecuado es el hidrógeno molecular, puesto que su combustión sólo produce agua pura como subproducto.

Sin embargo, el uso de hidrógeno tiene varios problemas, de los cuales los más importantes son dos.

Por una parte, su almacenamiento no es sencillo. Al ser tan ligero y pequeño, al almacenarlo en sistemas de alta presión tiene una tendencia muy fuerte a difundirse por las paredes del recipiente que lo contiene; se «escapa» de su recipiente con facilidad.

Además, la producción de hidrógeno con luz solar es cara y no viable comercialmente por varias razones:

  • Necesita sistemas de generación de corriente eléctrica muy complicado: para disociar la molécula de agua hay que tener un potencial eléctrico de ~1,8 Voltios, que para conseguirlo con sistemas fotovoltaicos implican el uso de iones complicadas, en varias capas de materiales, que además son muy caros.
  • Tiene que usar agua ultrapura, lo que tiene un coste energético que hay que considerar en el balance energético final.
  • Además, algunos de los productos químicos empleados no duran mucho tiempo. Al necesitar usar un ánodo y un cátodo, los materiales de ambos polos no siempre son totaltmente reversibles y se pueden agotar con el uso; se «gastan» transformándose irreversiblemente en sustancias distitntas de las originales.
  • Y por si fuera poco, debido a la alta demanda energético de la ruptura del enlace del agua, suele hacer falta una corriente eléctrica extra que debe añadirse al gasto energético de depurar y filtrar el agua.

Una alternativa que puede soslayar parte de los problemas, sobre todo los relacionados con la generación de hidrógeno molecular desde la luz solar, es el uso de microorganismos en el diseño del sistema; éstos oxidan los líquidos orgánicos del agua residual, más que el agua misma, para generar electrones que se recombinan con los huecos generados en el cátodo semiconductor.

Este sistema tiene varias ventajas, porque al usar los microbios como donadores de electrones y «rompedores» de la molécula de agua, no hace falta usar más energía eléctrica, además de eliminar la necesidad de catalizador y la posibilidad de usar aguas residuales.

Por supuesto, este sistema también tenía problemas. Esencialmente, los mismos ya apuntados anteriormente y que el grupo que presenta esta investigación logró soslayar en parte con el uso de un catalizador de GaInP2, pero su coste y el uso de tierras raras, materiales muy caros y escasos, impidió su comercialización.

En el estudio que se comenta aquí, han logrado un avanze muy significativo con el uso de nanoestructuras de silicio negro(1) con forma de queso suizo(2) y aguas residuales de una fábrica de cerveza; claramente, los científicos también tienen sentido del humor. Además, no sólo es que lograran un sistema muy barato y escalable, es que produce una cantidad de energía que es superior a todos los valores obtenidos hasta ahora y durando 90 horas antes de agotar los substratos. Como beneficio adicional, trataron las aguas residuales, disminuyendo aún más los costes de operación del sistema.

(1) La traducción es personal. En inglés se denomina «black-silicon» o «b-Si». Es una nanoestructuración del Silicio descubierta por casualidad, consistente en un «bosque» de agujas muy pequeñas de Silicio. Se puede construir por métodos empleados en la industria de los semiconductores, y tiene una importancia cada vvez mayor en la industria de las células fotovoltaicas porque absorve mucho mejor la luz visible que el Silicio cristalino normal. Un enlace interesente sobre este este material es el de la Wikipedia: https://en.wikipedia.org/wiki/Black_silicon
(2) Copia literal del artículo del nombre de la estructura.

Nuevas soluciones de almacenamiento a largo plazo de energía solar.

En un artículo muy reciente (Energy Environ. Sci. 2019. 12. 187) se ha descrito un nuevo producto químico capaz de almacenar energía solar durante periodos prolongados de tiempo.

Uno de los problemas más graves, y todavía sin soluciones claras, es cómo almacenar una fuente de energía intermitente de manera que pueda ser empleada constantemente: Nuestra sociedad actual exige el uso de energía 24 horas al día, 7 días por semana, mientras que viento y luz son fuentes de energía intermitentes y con muy alta variabilidad. Un sistema muy prometedor consiste en el uso de moléculas que tienen dos estados químicos: Uno metaestable(1), al que se accede mediante su exposición a luz solar, y otro estable, al que se accede tras el uso de un catalizador reutilizable.

Por supuesto, decirlo es mucho más fácil que conseguirlo, y de hecho, como indican en el artículo antes citado, hay una serie de materiales que podrían usarse encontrados en investigaciones anteriores. Se les denomina generalmente MOST, de las siglas inglesas molecular solar thermal storage, y en el artículo se usa una variante del químico Norbodarniene, ya empleado anteriormente para esta función, pero no en esta configuración que llaman NBD1 y que encontraron tras realizar cálculos mecano-cuánticos sobre la estabilidad de la molécula fundamental y muchos ensayos.

Los autores han logrado que la parte del químico reactiva a la luz solar lo sea a una fracción más grande del espectro, lo que implica una mayor eficiencia, como indica la figura 1. Con otra característica muy deseable para este tipo de usos: hay una gran diferencia en la absorvancia del isómero(2) metaestable respecto al estable.

Fig. 1: (a) Estructura química de lso dos isómeros; (b) diferencia en la absorvancia de luz del NBD1, línea azul, al QC1, línea roja; (c) Flujo de calor tras el paso de la solución de QC1 por un catalizador. (Del artículo citado)

Esto le concede una estabilidad temporal de 30 días a 25º C, lo que posibilita su uso como almacén de energía solar a medio plazo, donde las baterías habituales tienen unas eficiencias muy bajas.

En este tipo de usos es fundamental que el catalizador(3) que revierte el estado metaestable al estable, extrayendo la energía, sea rápido y no se gaste mucho por el uso, lo que implica capacidad de estar fijo a un sólido y mantener su actividad catalítica. El compuesto del Cobalto empleado en este trabajo puede ser inmovilizado en un sólido de Carbono, algo básico para poder usarlo en ciclos contínuos. También tiene un tiempo de respuesta relativamente rápido, de minutos.

De hecho, probaron directamente en un prototipo la transformación del isómero estable al metaestable que se hacía directamente usando luz solar que iluminaba una disolución del compuesto NBD1 en tolueno en una tubería «al aire» en una demostración clara de que este nuevo producto puede ser implementado industrialmente con facilidad.

En resumen, un trabajo que abre la puerta al almacenamiento de energía solar de manera más eficiente, lo que sin duda extenderá su uso.

(1) Metaestable: Que si bien puede cambiar en el tiempo de manera espontánea, necesita un aporte de energía extra.

(2) Isómero: Producto químico de la misma composición, pero distinta forma.

(3) Catalizador: Producto químico que facilita una reacción química, sin necesidad de reaccionar, y por lo tanto gastarse, en el proceso.

Uso de enjambres de robots para crear estructuras

Los seres vivos pluricelulares son algo profundamente curioso, por poco que uno se ponga a pensar en ello: De una unión de dos células, se produce un ser con millones o más células perfectamente diferenciadas y organizadas en tejidos, y todo ello sin intervención externa, un proceso denominado «morfogénesis». Si se pudiera replicar este tipo de generación de estructuras automáticas con enjambres de robots, se podrían hacer cosas como casas, paredes, estructuras de varios tipos, etc. sin control humano, más allá de dejar los robots en el medio en el que tienen que crear la estructura. Y si estas estructuras tuvieran la capacidad de autorreparación de los seres vivos, tendríamos la posibilidad de construir estructuras autorreparables sin control humano.

Tal posibilidad abre la puerta a llevar enjambres de robots a lugares muy lejanos o peligrosos, dejar que ese enjambre genere una estructura funciona, sin intervención humana, y luego ocupar la estructura.

Un pequeño paso para lograr algo así se ha dado con un gran número de robots: cerca de 300. Uno de los problemas fundamentales en tales estudios está en el propio bloque de construcción: Hasta hace poco, no existían robots pensados para ser usados en enjambre, de forma que los experimentos se hacían con no más de decenas. Pero con el diseño del kilobot, esto ha cambiado. Unos investigadores usaron estos kilobots para programarlos mediante algoritmos que imitaban la morfogénesis biológica mediante dos estrategias:

  • Formación automática de patrones mediante algoritmos de Turing. Estos algoritmos formalizan matemáticamente la generación de patrones por difusión de una o varias sustancias en un sustrato, que se sabe es un mecanismo similar al empleado por los seres vivos en la morfogénesis. Las células vivas cambian su forma en respuesta a la concentración de determinadas sustancias, dando lugar en el crecimiento fetal a diversos tejidos y órganos. En este enjambre de robots se empleó la «concentración» de dos «moléculas virtuales», es decir, cada robot emitía un pulso de color o no, teniendo pues la concentración de la molécula «creadora», la luz, y de la inhibidora, su falta.
  • La migración celular o movimiento de tejido. Este proceso consiste en el movimiento de las células, de forma que los tejidos y órganos que forman se adapten a un determinado patrón.

Los resultados obtenidos son realmente impresionantes, como se puede ver en la figura de abajo:

De la fig. 4.B del artículo reseñado abajo. Se observa la generación de una estructura usando los dos métodos comentados antes para un «pequeño» números de sólo 110 robots..

En estos experimentos, las estructuras no son fijas, lo que dificulta su mantenimiento o uso, pero es un primer paso muy importante en la generación de estructuras sin intervención humana.

El artículo completo se puede consultar en la siguiente dirección: http://robotics.sciencemag.org/content/3/25/eaau9178http://robotics.sciencemag.org/content/3/25/eaau9178

Impresión en 3D realmente rápida

La impresión en 3D es joven, tiene unos treinta años y se empieza a emplear en multitud de aplicaciones y materiales. Uno de los problemas más graves de la fabricación aditiva o impresión en 3D, estriba en la lentitud del proceso, lo que limita seriamente sus posibilidades en la industria.

Pues unos investigadores han descubierto un sistema capaz de imprimir casi cualquier producto que pueda ser endurecido, o curado, según métodos químicos u ópticos, que además, no presenta algunas de las limitaciones más habituales y exigentes en cuanto al tamaño de impresión, como que todo el volumen de impresión se alcance por el brazo «impresor», el sistema de extrusión

El sistema empleado es el uso de un gel granular como medio de suspensión. En él se introduce mediante algún brazo robótico el líquido a endurecer, se endurece según su método habitual y luego se puede extraer, lavando la pieza producida. La clave es que este gel se comporta de dos maneras distintas según la tensión que se le introduce: Si está sometido a una tensión grande, actúa como un líquido, que rodea el objeto como el agua una cuchara que se introduce en un vaso. Si, por el contrario, la fuerza ejercida por el objeto sumergido en el gel es pequeña, actúa como un sólido, sujetando el material que la aguja a dejado en su interior. El gel se hace con un polímero que se usa en cosmética al que se añade agua…

Un detalle muy curioso es que el sistema de impresión no se basa en hacer rodajas finas que luego se imprimirán capa a capa, sino que más bien el objeto a imprimir se de be visualizar como una línea tridimensional que se convierte a una línea paramétrica cuasi contínua, al estilo de los sistemas CNC, donde las rutas de la herramienta son una línea.

Impresión por RLP de un cilindro de 15 x 15 x 20 cm en goma. ¡El tiempo total de la impresión fue de 4 min y 49 s! Imagen del artículo https://link.springer.com/article/10.1140%2Fepjd%2Fe2007-00305-4

El artículo está publicado en https://link.springer.com/article/10.1140%2Fepjd%2Fe2007-00305-4