Extracción de Litio del agua de mar

El Litio es uno de los metales más ligeros que se conocen, pero de una importancia cada vez más fuerte en la industria y la sociedad. Es uno de los metales que más se emplean en la fabricación de baterías y tiene poco repuesto; sus características electrónicas hacen que sea difícil sustituirlo por otro.

El problema fundamental que tiene su uso es su escasez: como de momento no lo usamos mucho, no hay escasez. Pero varios cálculos indican que si se pretendiera escalar la producción de Li para la fabricación de baterías, habría problemas para satisfacer la demanda de este metal mediante las minas conocidas y disponibles, como las famosas minas de sal de Bolivia(1). Sin embargo, unos investigadores han encontrado la forma de extraerlo del agua de mar de manera económicamente factible si se acopla esa extracción con otras industrias extractivas.

Comienzan su artículo indicando que la cantidad estimada de Li en el mar es unas 5.000 veces más grande que en tierra, pero con un gravísimo inconveniente. Su concentración es muy baja, del orden de 0,2 ppm(2). Al mismo tiempo, otros iones presentes en el mar tiene concentraciones mucho más altas. Como ejemplo, la concentración de sodio, calcio y otros iones es mayor que 13.000 ppm.

Revisando los posibles métodos de separar el Li en el mar, los autores del artículo presentan varias posibilidades de absorbentes para después de unir el Litio al absorbente, precipitar este compuesto para obtener el Litio. Sin embargo, según los autores del artículo, los absorbentes tienen el grave inconveniente de que hay que sustituirlos en el tiempo por que se consumen en la absorción. Por ello ellos decidieron seguir el camino de precipitar sales de litio, concretamente la sal Li3Po4, ayudadas por una corriente eléctrica y una membrana. Es decir, primero se trata de concentrar el Li en el agua de mar mediante el paso del agua por la membrana y luego precipitar el Litio al cambiar el Ph de la solución de manera que precipite una sal.

El truco consistió en emplear una membrana cristalina densa de Litio, Lantano y Óxido de Titanio (TiO3), que abrevian como LLTO. Para las pruebas que hicieron, la membrana tenía un diámetro de ~20 mm y un ancho de aproximadamente 55 µm. El ancho de la membrana no es casual, porque la selectividad de la misma para con el litio depende de la misma. De hecho, según refieren los autores en el artículo, el ancho de su membrana es unas 10 veces menos que otros experimentos similares, lo que ayudó sobremanera a sus resultados.

Como es frecuente en estructuras cristalinas, la alta selectividad del Litio por parte de la membrana se debe a la estructura del cristal, que tiene el tamaño justo para dejar pasar sólo estos iones. Como son de los más pequeños que contiene el agua de mar con un diámetro de 1,18 angstroms(3), son los únicos que pueden atravesar la membrana con facilidad.

El uso de este tipo de membranas también tiene sus problemas, porque se pueden corroer y estropear, aunque más que por oxidación directa, por «reducción». Es decir, en lugar de ceder electrones al ambiente los absorbe, de forma que también tiene que cambiar su composición química para compensar la carga negativa extra(4). Por ello, tuvieron que generar un entorno ácido cerca del cátodo, el electrodo negativo. El esquema del experimento se presenta en la figura siguiente.

Esquema de la celda de concentración precipitación del Li. «AEM» es el acrónimo de «membrana de intercambio iónico», en inglés que permite la separación del Cl en la zona saturada de sal común. A la derecha, el «H3PO4 buffer» es la sustancia empleada para incrementar la acidez de esa parte de la celda. Como se aprecia arriba, para poder seleccionar el litio hay que establecer un voltaje. Imagen extraída de la fig. 1 del artículo citado.

Con esta celda lograron concentrar la cantidad de litio hasta un nivel final de 9.000 ppm en cinco etapas sucesivas, cada una con una duración de 20 horas. Mediante este sistema de funcionamiento en etapas, se podría pensar en usar una etapa inicial como líquido a concentrar en la siguiente etapa, de manera que el proceso final sea uno de cascadas sucesivas de concentración de Litio que pueden ser construidas y diseñadas con relativa facilidad. Y además pudieron comprobar, como indica la siguiente tabla, que la concentración de otros iones permanecía muy baja después de la primera etapa, lo que indica una muy alta selectividad del metal que se desea, litio.

Li (ppm)Na (ppm)K (ppm)Mg (ppm)Ca (ppm)
Agua de mar0.21 +- 0,0112.400 +- 100750 +- 301560 +- 20480 +- 7
Primera etapa75 +- 1270 +- 65,8 +- 0,21,37 +- 0,020,54 +- 0,02
Quinta etapa9.000 +- 100300 +- 77,7 +- 0,21,48 +- 0,0040,56 +- 0,02
Concentración de los iones del agua de mar tras pasar por las etapas de concentración primera y última. De la tabla 1 del artículo citado.

En el siguiente párrafo del artículo comienzan resumiendo las características eléctricas del proceso, indicando que se producen a corrientes estables durante todo el proceso de concentración, excepto por un aumento de la corriente inicial debido a que algunos iones se fijan en los electrodos y la membrana. Este detalle, junto con la disminución en el tiempo de la corriente en la quinta etapa de concentración y algunos detalles del experimento, les permite a los autores deducir que la concentración de litio en las cuatro primera etapas depende sobre todo de la concentración en el agua circulante, antes que de la diferencia de la concentración de iones Li entre los dos lados de la membrana LLTO.

Por otra parte, comprobaron como después de la etapa de precipitación para obtener la sal Li3PO4, el producto final es lo suficientemente bueno como para entrar directamente en la producción de baterías. Este resultado se mantiene si sólo se hacen cuatro etapas de concentración, pero no con tres.

Después, y dado que su proceso es tan eficiente y selectivo, estiman el coste energético para obtener un kilo de Litio en unos 77 kW h. Haciendo unos cálculos básicos sobre el coste de la electricidad en los Estados Unidos y el precio que se podrían obtener de otros subproductos de esta reacción, principalmente Hidrógeno y Cloro, concluyen que el costo energético de todo el proceso se compensa de sobra con la venta de los subproductos, sin tener en cuanta que también producen agua potable, de manera que su economía mejoraría más.

Después de comentar todas las características de sus resultados el artículo tiene una sección dedicada a explicaciones detalladas del método experimental que hay que seguir, pero considero que esa sección no es relevante y no la comento aquí.

Por lo tanto, el artículo muestra una vía de producción de litio que permitiría multiplicar de manera considerable la cantidad disponible para la humanidad de este material, de forma que hace más sencillo la adopción masiva de baterías necesaria si queremos hacer la transición a una sociedad que base su consumo energético en energías renovables.

El artículo se publicó en la revista Energy & Environmental Science, vol. 5: Continuous electrical pumping membrane process for seawater lithium mining.

Notas:

(1) La zona con Litio de Bolivia forma parte del «Triángulo del Litio», la región del mundo con mayores reservas. El artículo de la Wikipedia lo explica muy bien: Wiki(ESP): Triángulo del Litio

(2) ppm: partes pro millón.

(3) 1 angstrom es 10-10 m. Como los tamaños de los iones o núcleos atómicos son tan pequeños, es la unidad estándar para poder medir estos diámetros.

(4) Los ácidos y las bases son las dos formas principales de concentración de iones hidrógeno de los compuestos químicos. De los dos artículos de la Wikipedia sobre el tema, es de la Wikipedia en español es bastante corto, pero el de la Wikipedia en inglés es muy bueno: Wiki(ESP):Ácido y base. Wiki(ENG): Acid-base reaction. Por otra parte, la explicación de la Wikipedia en español sobre la reducción química es corta, pero muy bien escrita: Wiki(ESP):Reducción.

Explosiones, su física y la seguridad.

[Actualizado el 12 de noviembre de 2021. Las actualizaciones están de este color.]

Generalmente suelo hablar aquí de artículos que hacen avanzar la ciencia en algún aspecto que me interesa, pero el artículo que quiero resumir hoy trata sólo de unir el conocimiento en una revisión corta sobre dos cosas que me fascinan: explosiones de gases y la seguridad.

No se hasta que punto somos conscientes de la cantidad enorme de gases explosivos que rodean las actual civilización humana: desde gasolinas hasta alcoholes, que dejamos que se evaporen tranquilamente. El problema es que a veces esos vapores se concentran y provocan explosiones accidentales que pueden ser muy graves. El artículo que reviso habla precisamente de eso, de esas explosiones haciendo un recorrido histórico para luego centrarse en la física de esas mismas explosiones.

Empieza haciendo un recorrido histórico de las explosiones de gas antes del año 1920, donde como nota escatológica explica que un riesgo relativamente común en la antigua roma al ir a las letrinas era acabar con el culo chamuscado(1). Yendo a cosas más serias, aunque un culo chamuscado es algo serio, explica que los mayores riesgos se daban en la minas. Por eso hay varias fuentes que hablan del peligro de explosiones en las minas, explicando que las primeras lámparas de seguridad para ser usadas en las minas de carbón se desarrollaron como respuesta a un accidente en el que murieron 92 personas por una explosión de metano. Como sigue explicando, y con el desarrollo de barcos de vapor, las explosiones de los mismos debido a vapores inflamables empezaron a aparecer. El artículo cita dos casos, uno de ellos el primer viaje de un barco a vapor que explotó súbitamente, con investigadores citados en el artículo explicando que la causa más probable era el almacenamiento de aguarrás o aceite de trementina en una sala caliente, cerca del motor del barco. Continua explicando como éste y otros accidentes sobre la misma época, mediados y finales del s. XIX, llevaron a la formación de una ley de manejo de sustancias peligrosas en gran Bretaña en 1875.

Una sección posterior se centra en la explosión de 1920 de una barcaza del transporte de petróleo llamada Warwick donde murieron siete personas, entre ellas el abuelo del autor, el hermano del abuelo y su cuñado(2).

Se puede observar la fuerza de la explosión en las fotos siguientes, donde se ven tanto el diseño del barco como lo que quedó de él.

Arriba, plano del barco y sus bodegas. Abajo, estado en el que quedó el barco tras la explosión. De la fig. 1 del artículo citado.

Después de transportar cerca de 191.000 Litros de petróleo, el barco necesitaba una reparación. Primero hubo que limpiarlo cuidadosamente, porque la reparación incluía soldaduras y ya se sabía que el petróleo y las soldaduras implicaban explosiones. Así pues, lo limpiaron primero con trapos de algodón y luego con vapor de agua aplicado a las paredes. Y el mismo día, lo llevaron a arreglar las tapas del sistema, con los depósitos aún calientes y llenos de vapor de agua mezclado con gases explosivos. Cuando la llama del soplete alcanzó el interior del depósito, explotó inmediatamente.

En otras ocasiones habían hecho el mismo tipo de operación, pero dejando que el barco se ventilara durante algunos días por casualidad. Por la misma casualidad, ese día no se hizo y siete personas murieron. Simultáneamente en Gran Bretaña y otros países se introdujeron nuevas regulaciones y sistemas de seguridad, pero las explosiones y accidentes continuaron sucediendo. Uno de los últimos accidentes que nombra es el de la plataforma petrolífera Deepwater Horizon, que produjo una de los peores derrames de petróleo que se recuerda. La causa del mismo estaba en una explosión de gas inflamable que entró en contacto con los generadores diesel del barco.

Tras esta introducción histórica, comienza con la descripción del fenómeno físico en otra sección. Dice que una explosión es un fenómeno en el que el volumen del cuerpo se incrementa rápidamente, con ondas de presión asociadas por el movimiento del aire. Éstas ondas son las que provocan el sonido de las explosiones, tan característico. El origen de la explosión pueden ser varias cosas, pero es siempre la deposición de una gran cantidad de energía en un tiempo muy corto. Una de las mejores maneras de lograr esto es con la combustión de un gas o sustancia similar, por eso los accidentes con explosiones de gases combustibles son tan comunes.

Explica que las primeras investigaciones sobre el tema se desarrollaron en Francia en 1880, para acabar con el desarrollo de criterios sobre cuándo un gas combustible explotaría sólo, usando dos posibilidades según que fenómeno domine la dinámica, el movimiento del fluido: la convección, donde los fluidos estén bien mezclados, y fluidos donde la conducción, el transporte de calor, es dominante. El problema es que la mayoría de los casos son una mezcla de ambos factores.

El artículo comenta que en paralelo al desarrollo de estos modelos e ideas, también se desarrollaron las ecuaciones que gobiernan el movimiento de los fluidos, de tal forma que desde los años 50 se pueden resolver numéricamente las mismas usando técnicas de simulación o resolución de ecuaciones de fluidos por ordenador(3). Con ellas, los tres procesos físicos fundamentales para entender estas explosiones, la dinámica de fluidos (cómo se mueven), la termodinámica (cómo intercambian energía) y las reacciones químicas (cómo cambian unos compuestos en otros) pueden combinarse y resolverse en un ordenador. Pero el problema es que las escalas temporales y espaciales de estos tres procesos son muy distintas, lo que implica que introducirlo en un ordenador y hacerlo es un proceso muy complicado que no siempre es posible.

Por otra parte, trabajos posteriores distinguieron dos tipos fundamentales de explosiones: fuertes y débiles. Las fuertes son aquellas en las que un sólo punto tiene tal concentración de energía que inicia la explosión y por lo tanto, el frente de onda que la misma produce. Las explosiones débiles, por el contrario, tienen varias fuentes puntuales que terminan uniéndose en un sólo frente(4).

Partiendo de los tres fenómenos que son importantes en la explosión, trabajos teóricos pudieron delimitar los parámetros de los que depende que una mezcla gaseosa haga explosión o no: el tiempo que tarda la reacción química en calentar el fluido hasta la ignición, el tiempo necesario para la conducción térmica y el tiempo necesario para la convección material del fluido. Sus resultados se pueden resumir según la figura siguiente, donde en función del número adimensional de Rayleigh(5) se observan explosiones o no.

Diagrama adimensional que especifica si se produce o no explosión en función de las escalas adimensionales y el número de Rayleigh. Los puntos negros indican simulaciones que no generaron explosiones y los círculos, que sí. De la figura 1 del artículo citado.

Tras continuar estudiando y modelando el fenómeno, según cuenta el autor, los mismos autores que hicieron el modelo previo añadieron un cuarto factor al mismo: la velocidad de la reacción química en transformar el reactivo en los productos finales. Es decir, la velocidad a la que se consume el generador de la explosión también es un factor importante. Así, el equivalente a la gráfica bidimensional anterior es una nueva gráfica tridimensional que separa las regiones donde las escalas temporales permiten la explosión de las que no.

El diagrama donde se observa la superficie que separa las regiones con explosiones de las que no tienen. Los ejes son relaciones entre escalas temporales: τH/τC, τH/τD y τH/τR para un recipiente esférico y cerrado. τH es la escala temporal del calentamiento por reacción química, τC la escala de la convección, τD la escala de la difusión y finalmente τR la escala temporal de la reacción química. Adaptado de la figura 3 del artículo citado.

Como indica el artículo, es notable que esta gráfica unifica fenómenos que parecen separados: la única diferencia entre una reacción exotérmica que caliente el gas y una que provoque su explosión es las relaciones entre sus escalas temporales, pero la misma descripción termo-cinética se puede aplicar.

Para finalizar la sección, el autor destaca que la revisión y teorías que presentó pasan por alto uno algunos fenómenos muy interesantes, como la transición de deflagración a explosión en un gas y la onda de choque que se produce(6), remitiendo al lector a revisiones reciente de esos temas, antes de comentar una relación entre las explosiones que acaba de revisar y otros fenómenos que parecen muy alejados: las explosiones de estrellas.

Comenta que la distinción fundamental entre una deflagración y una explosión es la velocidad de propagación de la onda sonora. En una deflagración, esa onda se propaga a menor velocidad que el sonido, y en una explosión, a mayor velocidad, siendo por lo tanto lo que se llama una onda de choque. En un artículo citado en esta revisión se demuestra que una combustión termonuclear en una estrella es cualitativamente similar a una onda de combustión química, una deflagración. Esto es así porque los mecanismos físicos que controlan ambos fenómenos son los mismos y no les importa demasiado detalles sobre la ecuación de estado u otros parámetros relevantes.

Termina el artículo con una sección un tanto pesimista, pero realista. Explica que gracias al avance en el conocimiento de las razones de las explosiones y como evitarlas, a lo largo del siglo XX se han desarrollado sistemas que permiten transportar líquidos inflamables sin grandes riesgos, mediante la inertización de la atmósfera donde está el líquido. Es decir, eliminando el oxígeno de esa atmósfera, es posible retardar la combustión hasta que no pueda ser explosiva. La pregunta entonces es porqué no están más generalizados estos métodos de seguridad en barcos, si en otras infraestructuras donde un incendio no es deseable se emplean sin problemas. De hecho, se puede comprobar que el número de accidentes de barcos en general y de víctimas en accidentes en barcos han disminuido con el tiempo, incluyendo todo tipo de barcos de carga, no sólo los que gaseros. La figura siguiente, del documento «Annual Overview of Marine Casualties and Incidents» de la Agencia europea de Seguridad Marítima(7) lo deja claro:

Número de muertes por tipo de barco y año recientemente. Excepto para el año 2015, el número de víctimas (afortunadamente) tiene una tendencia a la baja.

Cita por ejemplo archivos, subestaciones eléctricas, incluso coches de carreras. La respuesta es muy triste: porque a los dueños de los barcos les resulta más barato pagar las indemnizaciones y usando el dinero que el seguro les paga en caso de accidente, comprar un barco nuevo.

Lo que escribí cuando publiqué esta entrada no es verdad. Más bien hay un fuerte interés en evitar los accidentes, y las cifras demuestran que tanto su número como su gravedad descienden con el tiempo, a pesar de los problemas que hay en cuanto a banderas de buques, etc.

Concluye esta sección y el artículo comentando si la labor del científico debería incluir aspectos sociales sobre la investigación que realiza diciendo, y estoy de acuerdo, en que un científico tiene que pensar en los aspectos sociales del trabajo que hace, y como esos aspectos deberían o podrían ser insertados en la sociedad. A fin de cuentas, la persona que hace ciencia vive con otras personas en una sociedad.

El artículo se publicó en la revista Physics of Fluids, en el vol. 33: Thermo-kinetic explosions: Safety first or safety last?.

Notas:

(1) La expresión que emplea es «singed bottom», que traduzco como culo chamuscado.

(2) Está claro que el autor del artículo tiene un interés personal en la seguridad y las explosiones de volátiles.

(3) En inglés se suelen llamar estas técnicas CFD: Computational Fluid Dynamics.

(4) Según explican en el artículo, un tipo de explosión débil muy buscada es la que se produce en los motores de los coches, camiones y demás, que mueven el pistón debido a una explosión del combustible que empuja los pistones.

(5) El número de Rayleigh es un parámetro adimensional que especifica qué es más importante en la transferencia de calor de un fluido, si la conducción de energía o la convección de masa del fluido. Una muy buena definición esa en la Wikipedia en español: Wiki:Rayleigh.

(6) El autor, poéticamente, llama a esta onda de choque «bang».

(7) El enlace del documento: Revisión de la EMSA 2020.

Roger Boisjoly: La importancia de la ética en la ingeniería.

Para aquellas personas que sean algo mayores, probablemente recordarán la anterior época de naves que permitían llegar a órbita, manejadas por los dos grandes imperios de la época: La Unión Soviética y Estados Unidos.

En su lucha propagandística, la Unión Soviética ganó de mano las primeras batallas, porque llegó antes que nadie al espacio y envió los primeros satélites. Pero después, Estados Unidos cogió la delantera con la llegada a la luna y con el diseño de los transbordadores espaciales.

Y supongo que algunos recordaremos su aspecto y las maravillas que podían hacer: aterrizar solas, llevando carga y personas hasta la estación espacial, incluyendo el arreglo del telescopio espacial Hubble(1), etc. Lo cierto es que recuerdo verlas como realmente un paso al futuro, porque se parecían muchísimo a las naves sobre las que se podía leer en la ciencia-ficción y ver en películas. Me viene a la memoria la nave que lleva al científico de la Tierra a una estación espacial en 2001: Una odisea Espacial(2), la película de Stanley Kubrick. Era una presunta nave de transporte regular de pasajeros que se parecía muchísimo a un transbordador espacial. ¡Pero la película fue estrenada en 1968!

Y un 28 de enero de 1986, el sueño acabó con la explosión del Challenger un tiempo después de iniciar su lanzamiento(3).

Sobre las causas del mismo no cabe ninguna duda: unas juntas de sellado, que debido a las bajas temperaturas de ese día, estaban demasiado duras y dejaron pasar combustible a donde no debía, provocando la explosión de la nave.

Lo que es mucho menos conocido es que la NASA y mucha más gente sabía que eso podía pasar. De echo, ignoraron informaciones directas y contrastadas que desaconsejaban el lanzamiento por el frío con la idea de que no pasaría nada y los transbordadores espaciales demostrarían su eficacia(Y justificarían su precio). Pero, ¿quién fue la persona que les informó?

Tratemos de pensar por un momento en la situación: La Nasa y sus empresas contratistas estaban deseando que el programa de transbordadores espaciales, que arrastraba una cantidad brutal de sobrecostos, fuera bien, muy bien. Para ello, empujaron la frecuencia de lanzamientos y las condiciones climáticas en la que se hicieron, hasta que el Challenger explotó. Y en medio de ese ambiente, un ingeniero estuvo discutiendo durante horas con sus jefes, la NASA y quien pudiera para evitar ese lanzamiento. El no poder evitarlo le persiguió toda su vida, pero siempre se consoló pensando que no podía haber hecho nada más, que luchó hasta el final para que las limitaciones que la ingeniería imponía en el diseño en el que trabajaba fueran consideradas. Como no se consideraron, como sus datos claros, fríos y contrastados se ignoraron, murieron 8 personas y el diseño y fabricación de naves con capacidades de transferencia de mercancías y personas a órbita terrestre se retrasó 40 años. Y todavía no se ha recuperado del todo.

El nombre de esta persona era Roger Boisjoly, y si quieres leer más sobre él y la importancia de decir la verdad, aunque los jefes o quién sea decida que no es lo que quiere oír, el obituario y recuerdo de las primeras entrevistas que concedió años después del accidente están en este enlace de la radio pública norteamericana, en inglés:

Remembering Roger Boisjoly: He Tried To Stop Shuttle Challenger Launch.

Personalmente, me parece un ejemplo claro de la necesidad de considerar la ética en cualquier aspecto de la vida. Sin esa guía, no hay nada que se pueda hacer bien.

Notas:

(1) Este artículo de la Wikipedia resume la trayectoria de este satélite, incluyendo que estaba diseñado para ser arreglado en órbita. Está en Inglés: Wiki:Hubble.

(2) El artículo de la Wikipedia en Español sobre la película la resume muy bien. Wiki:2001. Pero yo recomendaría verla.

(3) Este artículo de la Wikipedia en español proporciona un montón de datos sobre el accidente: Wiki:Accidente Challenger.

Fabricación de vidrios con sistemas de inyección

El vidrio, también llamado cristal en Español, es un material que no es muy nuevo para la humanidad. Llevamos usándolo varios milenios, desde el uso de la obsidiana en el neolítico(1), y después de avances muy importante como la caña de soplado de los romanos y gran la automatización de la revolución industrial, no se produjeron avances significativos en su fabricación.

Es muy caro de producir porque no se pueden emplear sistemas de moldeo por inyección: cuando está muy caliente es una pasta muy poco viscosa, que no se presta bien al tratamiento por inyección. Sin embargo, recientemente un grupo de científicos han hecho un avance muy interesante: han logrado fabricar vidrio transparente usando el moldeo por inyección y un post-tratamiento de calentado y sinterización(2) en hornos.

Comienzan su artículo explicando la gran importancia que tienen los vidrios para la sociedad actual, pues forman parte de elementos tan importantes como las fibras ópticas y tan cotidianos como vasos y botellas. Explican después que debido a los altos costes de fabricación y la imposibilidad de emplear sistemas de moldeado por inyección con vidrio hacen que con frecuencia se empleen plásticos para lentes pequeñas, por ejemplo en los teléfonos móviles actuales, en lugar de vidrios.

Sin embargo, las propiedades térmicas, ópticas y químicas de vidrios de sílice, los más comunes, son muy superiores a las de los plásticos. Claro, como el artículo comenta, para poder emplear moldeo por inyección de plásticos, hay que tener unos 200 ºC, mientras que la mayoría de los vidrios se producen a temperaturas en torno a 2000 ºC. Esto hace no sólo que sean difíciles de manejar, sino que la cantidad de energía necesaria para poder fabricarlos sea también muy alta. Los autores del artículo resumen los problemas que tiene el vidrio para poder ser empleado de manera más masiva en dos puntos:

  • Su fabricación exige muchísima energía y
  • no se pueden emplear técnicas de moldeado por inyección con él.

Para resolver este problema, los autores emplean nanopartículas de 50 a 100 nanómetros de diámetro de vidrio mezclados con termoplásticos que emplean en un esquema de fabricación similar al de moldeo por inyección, donde después de moldear la pieza por compresión, se somete a un lavado con agua y posterior tratamiento en horno.

Para iniciar su proceso de fabricación, necesitan un polvo adecuado. Lo fabricaron mezclando nanopartículas de sílice con dos polímeros, uno actuando como plastificante y el otro como solvente. Después de mezclar bien y retirar el solvente, el producto resultante se pudo extruir en máquinas comerciales.

Luego, lo sometieron a procesos de moldeado por inyección habituales, con presiones de 700 a 1.000 bares. El resultado es lo que se suele llamar la «pieza en verde», que luego hay que limpiar usando agua a 40 ºC para quitar el solvente de la misma. Los autores comentan que este proceso, lógicamente, necesita más tiempo según el grosor de la pieza, llegando en sus experimentos a necesitar 10 horas para poder hacer piezas de 10 mm de grosor. Luego, realizan un desagregamiento en esta pieza para eliminar el plástico mediante tratamientos térmico convencionales en un horno con rampas de temperatura controlada, donde la temperatura más alta que necesitaron fue de 600 ºC. El último paso es la síntesis final en un horno de alta temperatura a 1.300 ºC en vacío. Parece mucho, pero la temperatura a la que normalmente se produce el vidrio es superior a 2.000 ºC, con lo que este método presenta ventajas relevantes, como ya se comentó antes.

Todo el proceso hasta la consecución de la pieza final está resumida en la siguiente figura:

Proceso de fabricación de piezas de vidrio con moldeo por inyección.
Las diversas etapas del proceso. De arriba a abajo, se observan la mezcla, su posterior plastificado y uso en el moldeo por inyección, la desagregación y sintetizado final. A la izquierda están dibujos de la estructura interna de los materiales, y a la derecha fotografías reales de los mismos. De la fig. 1 del artículo citado.

Para comprobar si su material podía emplearse directamente en máquinas comerciales, hicieron pruebas con diversas formas, algunas de ellas francamente complicadas como muestra la figura más abajo, y comprobaron que podían llegar a obtener piezas pequeñas con un tiempo total de fabricación de aproximadamente 5 horas por pieza. Además, al usar esta máquina pudieron fabricar una gran cantidad de componentes y formas geométricas, sin posterior pretatratado de la superficie más allá de las etapas de desagregamiento y calentado. De hecho, comentan en un momento posterior del artículo que la rugosidad media de sus piezas es de 3,8 nm.

Hacen notar después que todas las ventajas del moldeado por inyección se mantienen, de tal forma que este nuevo método de manejo del plástico permite la fabricación de micro componentes en vidrio que tiene varios usos. Como ejemplo, usaron lentes de Fresnel, un elemento muy empleado en comunicaciones ópticas. Además, fabricaron también pequeñas cubetas de vidrio que pueden emplearse para su uso en sistemas de microfluidos, con aplicaciones potenciales muy interesantes.

Piezas moldeadas y su versión final.
Piezas moldeadas y su versión definitiva. La figura A presenta las piezas moldeadas, la B algunas de las piezas ya vitrificadas y la c muestran la capacidad de tintar los vidrios empleados. Las barras de escala tienen 10 mm. De la figura 3 del artículo citado.

Al emplear directamente este sistema de fabricación comprobaron que la reproducción del molde por parte de la pieza es tan buena, que la presencia de imperfecciones en el molde es determinante en la calidad de la pieza final, algo bien conocido en este tipo de sistemas de fabricación.

Concluyen el artículo diciendo que el nuevo esquema de fabricación del vidrio que ellos proponen podría dar lugar a un salto en el empleo del vidrio, un material con muchas ventajas sobre el plástico, avanzando así en sistemas de economía que necesiten menos recursos energéticos del planeta. Quizás esto sea una visión muy optimista que no tiene en cuenta que tan pronto como una tecnología es lo suficientemente barata, su uso se generaliza tanto que el consumo final de energía aumenta. Pero está claro que es un avance magnífico aumentar nuestro arsenal de técnicas de fabricación con el añadido del moldeo por inyección al vidrio.

El artículo se publiucó en la revista Science, vol. 372: High-throughput injection molding of transparent fused silica glass.

Notas:

(1) En este blog lo explican muy bien: Historia del vidrio.

(2) La sinterización consisten en el fundido por calor de las partículas que forman un agregado, dándole una mayor estabilidad estructural y generalmente mejores propiedades a la pieza que se somete a este proceso. Se emplean para la fabricación de piezas en dos partes, con una primera parte donde se realiza un moldeado y compresión desde polvo.

Robots blandos con células musculares normales.

Como lector de ciencia ficción, siempre me fascinó la posibilidad de mezclar elementos mecánicos y biológicos a un nivel tan profundo que se pudieran diseñar los biológicos. Investigaciones (relativamente) recientes publicadas en la revista Science Robotics han dado un paso más en esa dirección, al publicar como un grupo de investigadores diseñaron un robot que emplea músculos y esqueletos vivos diseñados en laboratorio para nadar.

Comienza en la introducción estableciendo algo muy obvio: los seres vivos somos muy complicados y realizamos una gran cantidad de tareas complejas de auto-organización de materia, curación, movimiento y sensoras. Explica que la robótica blanda biomimética(1) pretende precisamente imitar estos comportamientos complejos, pero con éxito relativo hasta ahora. Según el artículo, ya se han logrado robots que combinan tejidos vivos capaces de arrastrarse por el suelo o coger cosas, pero sin las capacidades de casi cualquier ser vivo.

Sigue el artículo diciendo que una de las áreas más investigadas es la consecución de músculos artificiales, donde hay una gran cantidad de avances pero que todavía se quedan lejos de las capacidades de los tejidos vivos en cuanto a consumo energético, capacidad de auto-regeneración, etc. Por eso estos investigadores, y otros, tomaron el camino de usar tejidos vivos combinados con materiales artificiales, que generalmente se usan como control o apoyo estructural.

También comentan que ya hay varios ejemplos publicados de robots que emplean células musculares cardíacas, generalmente en estructuras bidimensionales, para realizar control de movimiento, medir/sentir algún tipo de fuerza, etc. Su mayor ventaja reside en que su control es más sencillo, porque una vez que se las estimula con la frecuencia adecuada, no paran de moverse. Al mismo tiempo, ése es su mayor inconveniente. Por eso, algunos investigadores trataron de usar células musculares «normales», es decir, de músculos asociados a huesos, porque además estas células pueden configurarse tridimensionalmente en estructuras mucho más complejas que las cardíacas.

Generalmente el uso de células musculares normales se asocia a robots que andan o se arrastran, pues según los autores del artículo son estos los avances logrados hasta ahora. Por eso su bio-robot(2) que emplea una estructura en muelle como «esqueleto» de un conjunto de células musculares normales para poder nadar es un avance importante. El robot que este grupo diseñó puede nadar y moverse porque la estructura de muelle que soporta las células tiene una rigidez asimétrica, de tal forma que la contracción de las células musculares produce dos tipos de movimiento diferenciado en el robot, según dónde se encuentre: nadar en la superficie aire-líquido y bucear(3) cerca del fondo del líquido. Con esta estructura crearon el robot más rápido hasta la fecha realizado con este método de fabricación. Se mueve más o menos a la misma velocidad que robots basados en células cardíacas, que son mucho más rápidos que los basados en células musculares gracias a su mayor capacidad de oscilación.

En la siguiente sección de resultados explican como lo hicieron y la forma que tiene, y me parece espectacular. Usaron técnicas de impresión en 3D, impresión aditiva, para imprimir tanto el «esqueleto» como un conjunto de hidrogel donde se hicieron crecer las células musculares, como muestra la siguiente figura:

Forma del bio-robot impreso con técnicas 3D. La foto de abajo muestra las células musculares. De la figura 1 del artículo citado.
Forma del bio-robot impreso con técnicas 3D. La foto de abajo muestra las células musculares. De la figura 1 del artículo citado.

Para hacer el esqueleto emplearon un plástico, el PDMS(4), mientras que las células musculares que forman el anillo exterior se integraron en una matriz de hidrogel para poder primero darle forma y luego que en el proceso de secado se mantuvieran fijas.

Bio-robot real. La escala blanca de abajo es de  3 mm. Se aprecia el tejido muscular en forma de banda alrededor del «esqueleto» plástico, y las dos oscilaciones internas del mismo que le permiten moverse bien. Tuvieron que hacer varias pruebas hasta lograr que las células musculares pudieran moverse bien con el esqueleto. La foto viene de la fig. 2 del artículo citado.

Bio-robot real. La escala blanca de abajo es de 3 mm. Se aprecia el tejido muscular en forma de banda alrededor del «esqueleto» plástico, y las dos oscilaciones internas del mismo que le permiten moverse bien. Tuvieron que hacer varias pruebas hasta lograr que las células musculares pudieran moverse bien con el esqueleto. La foto viene de la fig. 2 del artículo citado.

Tras explicar cómo montaron el esqueleto, explican también qué materiales introdujeron en el hidrogel para permitir que las células que inyectaron se quedaran quietas y no murieran, además de describir el proceso empleado para hacer crecer las células, un proceso largo que aquí no quiero reseñar. Sólo comentar que no es nada inmediato y que requiere paciencia: un mínimo de tres días hacen falta para dejar crecer las células iniciales que luego se transformarán en el músculo. Todo el proceso lleva de 4 a 8 días.

La mecánica del desplazamiento y movimiento del bio-robot es sencilla: cuando mediante estimulación eléctrica el músculo se contrae, las vueltas del esqueleto se acortan, y cuando se permite al músculo relajarse, se vuelven a alargar. La imagen siguiente lo muestra muy bien:

Fuerzas ejercidas en el bio-robot y la contracción que generan en el mismo. Con este movimiento básico, el dispositivo puede realizar los movimientos reseñados.
Fuerzas ejercidas en el bio-robot y la contracción que generan en el mismo. Con este movimiento básico, el dispositivo puede realizar los movimientos reseñados. De la figura 2 del artículo citado.

Para llegar esta configuración, realizaron simulaciones y estudios del «esqueleto» con modelos de elementos finitos, para ver qué configuración era capaz de moverse mejor. Vieron tres modelos con diferentes curvaturas en las dos bobinas internas que emplearon, prestando mucha atención a la distribución de fuerzas en la estrucutura en contracción, dado que fuerzas muy localizadas podían dañar el tejido. Por otra parte, algún tipo de asimetría en las fuerzas ejercidas sobre el tejido muscular es bueno, dado que promueve el crecimiento de tejido capaz de moverse mejor y es la clave para el movimiento final del bio-robot: si se contrajera y expandiera de manera totalmente simétrica nunca podría moverse. Para comprobar que la asimetría producida por su diseño era clave en este movimiento, usaron las mismas técnicas experimentales, pero con un «esqueleto» que eran dos pares de palos enfrentados, lo que tiene una simetría mucho mayor que su diseño. El resultado fue que el tejido muscular no se podía mover de manera regular, lo que confirmó la idea de los investigadores, ya probada en experimentos previos por otra gente, de que era fundamental la asimetría en el sistema esqueletal.

Al estudiar con más detalle su bio-robot, vieron que si bien se podía mover siempre que hubiera una cierta ruptura de simetría en el sistema de soporte o esqueleto, para lograr cierto control sobre ese movimiento tenían que poder controlar la asimetría que se produjo. Este control se lograba al fabricarlo, controlando la rigidez del plástico empleado en cada parte del soporte.

Explican después las características hidrodinámicas del movimiento del bio-robot, diciendo que a muy bajos números de Reynolds nada puede moverse en un líquido a menos que ese movimiento tenga una cierta asimetría. En la naturaleza, las bacterias alcanzan esa asimetría mediante movimiento rotatorios de sus flagelos. Estimando el valor del número de Reynolds(5) de su robot llegan a un valor entre 1 y 5, que es muy bajo, por lo que las asimetrías en la contracción y el movimiento del fluido alrededor del bio-robot son la clave para su movimiento, algo que confirmaron mediante el empleo de simulaciones hidrodinámicas.

La última sección del artículo trata de resumir lo que han conseguido y explican la importancia de la ruptura de simetría controlada en lograr el movimiento de su sistema, destacando la rapidez que tiene al moverse y cómo los siguientes pasos son lograr que su bio-robot sea compatible con más fluidos que los del laboratorio y mejoras en el control de los bio-robots, de momento muy crudo y basado en moverse o no.

El artículo se publicó en la revista Science Robotics, que no es accesible sin pagar. Pero los autores publicaron una versión previa del artículo, casi seguro que prácticamente idéntica a la original, que es la que yo reseño aquí. Está accesible en los prepints de bioRxiv, un repositorio de artículos relacionados con la biología: Bio-hybrid soft robots with self-stimulating skeletons.

Notas:

(1) La robótica blanda biomimética es la rama de la robótica que, usando tejidos blandos naturales o artificiales, trata de imitar y lograr las capacidades de los seres vivos, pero diseñadas y comprendidas desde el laboratorio. Tiene un uso fundamental en medicina, porque los robots en instrumentos tradicionales no siempre se pueden introducir en el cuerpo humano, bastante más blando que los metales o plásticos que se usan tradicionalmente en robótica.

(2) Bio-robots es la palabra empleada en el artículo para definir los robots construidos de manera artificial, pero con la unión de tejidos vivos, también alterados genéticamente para cumplir una determinada misión.

(3) La palabra que emplean en inglés es «coasting», que se puede traducir como dejarse ir sin apenas influir en el movimiento, pero como este bio-robot tiene que moverse para realizar este tipo de actuación, preferí traducirlo por bucear.

(4) PDMS: Polidimetilsiloxano. Un polímero que se puede introducir de manera segura en el cuerpo, que se puede fabricar con viscosidades muy distintas. El artículo en español de la Wikipedia es muy bueno y completo: Wiki:PDMS.

(5) El número de Reynolds es un valor adimensional que explicita la relación entre las fuerzas de movimiento y rozamiento en cualquier sistema donde haya un fluido en movimiento.

Capa de invisibilidad para ondas en el agua

Además de por su propio interés científico, hay razones extra para querer lograr que las ondas en el agua, las olas, desaparezcan en un determinado terreno, que es de lo que trata el artículo que comento aquí. Cuando se hacen puertos y estructuras del estilo, donde los barcos deben atracar, el oleaje que se forme es muy molesto, por eso se suelen poner barreras capaces de minimizar el mismo. Pero si hay olas muy grandes, pasan por encima de las barreras y por lo tanto, los barcos no pueden atracar y los que están atracados se mueven, con todos los riesgos de seguridad que eso conlleva.

Los autores del artículo comienzan en su introducción comentando la importancia de los océanos para la humanidad, dado que los empleamos como rutas de transporte y lugares de alimentación y recreo(1). Y dado que el mar es de todo menos tranquilo, la investigación sobre sistemas de control del oleaje es un campo muy activo de la hidrodinámica. Como comentaba en el párrafo anterior, métodos más habituales de control del oleaje logran su disipación o atenuación, pero no su eliminación. Por eso con los sistemas actuales podemos o bien disminuir la altura de las olas o bien la frecuencia con la que llegan cerca de los puertos, pero no eliminar por completo el oleaje.

Sin embargo, en el campo de ondas electromagnéticas, y gracias al uso de metamateriales(2), el lograr la atenuación de estas ondas en volúmenes muy concretos, o su paso sin perturbar las ondas en sí, ya se ha conseguido en diversas condiciones. Por supuesto, algo así sería muy ventajoso en estructuras humanas cercanas al mar, porque si las olas pasan a través de un volumen determinado sin que se note su presencia, no pueden afectarlo ni a los barcos que contiene. Según el artículo, los problemas principales de estos metamateriales para su aplicación a las ondas marinas son dos. El primero, que las estructuras que hay que hacer son muy complejas, lo que dificulta su replicación en puertos y demás. Además, generalmente su función de invisibilidad o paso de una onda sin verse afectada por ella sólo la cumplen para una longitud de onda, cunado las olas son ondas de muy amplio espectro. Con estos dos inconvenientes, no se podrían emplear las estructuras actuales para su uso con ondas en líquidos.

Comentan después los investigadores que el uso de metamateriales en gradientes planos soluciona algunos de estos problemas: son estructuras que se pueden replicar en el tamaño requerido, relativamente fáciles de montar y que tiene un ancho de banda grande, lo que permitiría que atenuaran un conjunto grande de oleajes. Su uso en óptica está restringido, en el sentido de que más que trasladar la onda sin alterarla, este tipo de gradientes eliminan la amplitud que entre, atenuando muy fuertemente la onda electromagnética. Pero es este el objetivo de los autores con la olas: eliminarlas en una región dada.

Así, los autores adaptaron la tecnología de metamateriales con un gradiente de índice o GIM en inglés(3), para lo que en lugar de usar diversos materiales, emplearon distintas profundidades como generadores de diversos índices de transmisión de las ondas marinas en el agua. Con algo tan sencillo de construir como diversos gradientes de profundidad en el agua, se induce la «invisibilidad» de una zona de la costa a las olas, efectivamente protegiéndola frente a ellas.

La figura siguiente muestra el dispositivo de prueba en un canal:

Como se observa, el gradiente de altura se genera en el comienzo y el final del elemento, mientras que la zona central del mismo es simplemente un paralelogramo plano de longitud L2, anchura t y altura d. Con este sistema, y siguiendo el formalismo de transmisión de ondas que se emplea con las ondas visibles, al pasar por este dispositivo, las ondas marinas «ven» un índice de «refracción» de perfil cambiante en la longitud de propagación n(x).

Estructura de metamaterial con gradiente de profundidad que es capaz de eliminar olas. La figura (a) es un dibujo transversal de algunas dimensionas básicas, la figura (b) muestra el modelo teórico que se empleó y la (c) la realización práctica del mismo. Tomado de la figura 1 del artículo citado.

Es interesante notar que, dado que tenían que trabajar en un canal, las olas las crearon artificialmente con un dispositivo colocado antes del gradiente de alturas.

Como explican con más detalle en el artículo, generalmente las relaciones entre el índice de refracción del material por el que se propaga la onda y la onda en sí genera la dispersión de las ondas, lo que en este caso se traduciría en ondas un poco más pequeñas distribuidas por el canal. Sin entrar en detalles más técnicos, su estructura es capaz de modificar esta relación para permitir que las ondas pasen por el canal fuertemente atenuadas, es decir, en lugar de dispersar las olas, el gradiente de altitud equivalente al GIM deja que la onda se propague atenúandose muy fuertemente, por lo que se evita el problema de las olas.

La siguiente figura muestra el resultado experimental en el canal anterior con ondas de 0,7 Hzs de frecuencia y una altura media del canal de 16 cm:

Eliminación experimental de las ondas para las condiciones vistas arriba. La escala que va de 4 a -4 indica amplitud de la onda, y se observa con claridad como las ondas quedan atenuadas dentro de la zona con el gradiente y después del mismo.Los puntos (b) y (c) son los puntos en los que posteriormente caracterizan la altura de las olas respecto al máximo inicial. Adaptado de la figura 2 del artículo citado.

Antes de iniciar el experimento, simulaciones empelando el método de elementos finitos confirmaron que efectivamente, la geometría del canal anulaba las ondas enviadas. Es fácil ver que después del paso por la zona de gradientes, una cierta parte de las olas se recupera, pero dentro de ese canal, no hay apenas alteraciones de la altura. Sería esa zona la de «invisibilidad» para las olas, donde cualquier objeto situado en ellas no se movería.

Las pequeñas olas que se muestran en los experimentos dentro del canal se deben sobre todo, a efectos no lineales(4) de la viscosidad, que en el modelo analítico que resolvieron de la propagación de las olas, no se tuvieron en cuenta.

Para caracterizar el funcionamiento de este sistema a diversas frecuencias y amplitudes, midieron en los puntos (a), (b) y (c) de la figura anterior la amplitud total de las olas y la dividieron por la máxima a la entrada en el dispositivo, obteniendo una medida directa de la atenuación de las olas en el dispositivo de gradiente variable.

Los datos, que se muestran en la figura siguiente,confirman que para varias longitudes de onda y frecuencias del oleaje artificial el dispositivo funciona, dado que atenúa de manera clara el oleaje.

Disminución de amplitud dentro del gradiente respecto a las olas externas para diversas amplitudes (izquierda) y frecuencias(derecha) de las olas de entrada. El color azul indica que los datos de amplitudes se tomaron en el punto (c) de la imagen anterior, mientras que los rojos en el punto (b). Las estrellas indican valores simulados y los puntos, experimentales. Es fácil ver que para todas las frecuencias y amplitudes medidas, la zona del gradiente atenúa claramente las olas. Adaptado de la figura 3 del artículo citado.

Después de comentar brevemente los resultados de sus experimentos y los límites debidos a los efectos no lineales, concluyen el artículo diciendo que este tipo de gradiente podrían usarse en el diseño y construcción de puertos que permitieran tener aguas tranquilas, casi independientemente de las condiciones del mar.

El artículo salió publicado en la revista Physical Review Letters, en el volumen 123. Su título es: «Broadband Waveguide Cloak for Water Waves»

Notas:

(1) Como ejemplo, en el año 2011 en los Estados Unidos, el 53% de las importaciones y el 38% de las exportaciones entraron por mar, mientras que en el conjunto de la Unión Europea, cerca del 45% de las exportaciones y el 55% de la importaciones ase realizaron por transporte marítimo. Fuentes: EEUU: Bureu of Transportation Statistics. UE: Eurostat.

(2) Los metamateriales son objetos artificiales estructurados diseñados con sus propiedades finales en mente, formados por conjunto de materiales muy diferentes entre si. Es decir, la mayoría de los materiales que se emplean por los seres humanos tiene algunas propiedades deseables y otras no tanto, con las que hay que lidiar de la mejor manera posible. Con los metamateriales, se diseña desde el principio las características que se desean. Una explicación muy buena está en la Wikipedia en inglés: Wiki:Metamaterial.

(3) Metamateriales con gradiente de índice son materiales cuya estructura les causa tener un índice de refracción que varía de forma contínua en el espacio del metamaterial. Como el índice de refracción controla como se propaga la luz para todas las frecuencias, al variar el índice de refracción, se varía la transmisión de la onda electromagnética de la luz. Así se logra «atrapar» la luz en zonas específicas o alterar su transmisión a través de una fibra óptica.

(4) No linealidad: Generalmente, cundo un fenómeno físico tiene que representarse con funciones que no pueden ser aproximadas por una recta, su uso y predicción se vuelve mucho más complicado porque pequeños cambios en los valores llevan a grandes efectos, difíciles de computar o calcular.

Material resistente a los cortes

Uno de los problemas más importantes en ingeniería es el de los diversos materiales que nuestra sociedad precisa, o le gustaría tener: los materiales naturales poseen limitaciones claras que solventamos con materiales artificiales, pero una vez que empezamos a usarlos, exigimos o buscamos prestaciones nuevas, lo que implica nuevos materiales o formas de conformarlos.

Acaba de añadirse un nuevo material con una propiedad muy útil en determinados usos: no es posible cortarlo, no porque sea muy duro, sino porque su estructura interna provoca que cualquier herramienta cortante se estropee y desgaste sin poder cortar todo el material. La investigación está publicada en la revista «Scientific Reports» y comienza haciendo una introducción a la diferencia entre materiales artificiales y naturales.

Comenta que las estructuras jeráquicas(1) naturales son capaces de presentar protección frente a cargas muy grandes, dando varios ejemplos muy curiosos en los que no solemos deternernos o son poco conocidos. Las uvas aguantan caídas desde 10 m sin romperse y las escamas de unos peces llamados Arapaimas aparentemente pueden aguantar mordiscos de las pirañas gracias al diseño jerárquico de sus escamas. Parece ser que sus capas externas están fortalecidas por una estructura de fibras de colágeno cruzadas.

Siguiendo este ejemplo, el artículo continúa citando ejemplos de diseños artificiales imitando este sistema de la naturaleza, desde modernas estructuras milimétricas impresas con sistemas 3D hasta barreras que pueden eliminar ondas sísmicas colocadas por los romanos en algunas de sus construcciones. Todas estas estructuras comparten un principio de diseño común basado no en una estructura repetitiva, como los cristales de los metales, sino en un estudio de todas las interacciones a las que se somete el material.

Continúan luego con el resultado final de su investigación, la creación de una nueva estructura jerárquica metalo-cerámica. La estructura está formada por una espuma de aluminio que rodea a esferas cerámicas colocadas en un orden determinado. En esta estructura las esferas cerámicas están diseñadas para romperse bajo vibraciones internas debido a cargas o fuerzas localizadas. Esto no es malo, porque al romperse estas bolas, y crear vibraciones muy fuertes en el agente que esté creando las vibraciones, le crean un desgaste tan grande que no es capaz de continuar provocando las fuerzas sobre este nuevo material, dejando de cortarlo. De hecho, usaron esferas cerámicas que no eran demasiado duras, sino que por ser frágiles y romperse, creaban grandes cantidades de polvo cerámico que ayudaba a generar el desgaste del elemento cortante.

La estructura del material se puede observar en la figura siguiente, donde la estructura jerárquica es clara, así como las diferentes configuraciones que tiene que hacer según el tipo de forma externa que quieren hacer.

Estructura jerárquica del metamaterial en varias configuraciones. El dibujo (a) muestra el material cunado se usó una forma de panel plano, mientras que la (c) lo muestra en un cilindro. La fotografía (b) muestra la organización en columnas de las esferas cerámicas, mientras que en las fotografía (d) y (g) se observa la densidad de la espuma de alumnio, no uniforme, siguiendo la escala de la derecha. En el dibujo (e) y la foto en detalle (f) se observa que las esferas cerámicas están separadas por la espuma de alumnio y que las «burbujas» de la espuma son como mínimo, un orden de magnitud más pequeñas que las esferas. De la figura 1 del artículo citado.

Como este material combina cerámicas y metales, es necesario realizar operaciones metalúrgicas para poder manufacturarlo, y los autores del artículo describen con cierto detalle el método que emplearon.

Primero mezclaron polvos de aluminio con un agente espumante, dihidrido de titanio en su caso, que luego se compactó para evitar el aire que se pueda quedar en su interior y poder extruir cilindros de polvo compacto que se cortaron en discos pequeños. Luego, las esferas cerámicas hechas previamente y estos discos se colocan en un patrón fijo en una caja de acero que se suelda para cerrarla. Con el calentamiento de esta estructura hasta una temperatura tal que genera la espuma de aluminio y posterior enfriamiento tranquilo se produce la pieza deseada, como se indica en la figura siguiente:

Proceso de formación de las piezas con esta estructura. Las piezas extruidas de polvo deben colocarse de con una estructura determinada en el horno, y las esferas cerámicas se han hecho previamente. De la figura 2 del artículo citado.

Posteriormente estudiaron sus propiedades mecánicas, más allá de ser imposible de cortar por medios habituales, y obtuvieron un módulo de Young(2) de 5,5 GPa. Para realizar una comparación, el módulo de Young del acero inoxidable está en torno a los 200 GPa, lo que nos indica que nos es un material especialmente duro, por lo que no será posible usarlo en tareas estructurales, pero sí de refuerzo de las mismas.

Posteriormente, el artículo describe con mucho detalle como y porqué el material es capaz de resistir el ataque de una sierra radial cargada con discos de diamante, comiéndose al disco. La clave está en que la ruptura de las esferas cerámicas genera por un lado, un polvo muy abrasivo, y por el otro oscilaciones laterales en el disco que lo rompen, impidiéndole cortar el material estructurado.

También intentaron atacar el material con chorros de agua muy alta presión, y tampoco lograron cortarlo. En este caso, el material es capaz de ampliar el diámetro del chorro inicial, bajando tanto su velocidad que ya no puede penetrar el material y se desvía.

En la parte final del artículo comentan que esta estructura se puede ajustar de varias maneras para mejorar o cambiar algunas de sus propiedades. Por ejemplo, cambiar la dureza o el tamaño de las esferas cerámicas, la porosidad de la espuma metálica o incluso los material iniciales.

Por otra parte, aunque por comodidad los investigadores generaron sólo estructuras sencillas, sin apenas curvas, no hay en principio problemas para poder generar estructuras más complicadas, con curvaturas y que se puedan soldar entre sí o que encajen. Una aplicación obvia de semejante material es el de puertas de seguridad: si el material no se puede cortar, tampoco se puede penetrar en el interior.

El artículo se publicó en la revista Scientific Reports, volumen 10: Scientific Reports volume 10, Article number: 11539 (2020)

(1) Estructuras jerárquicas son las estructuras que tiene formas que cambian según la escala en al que la observemos. Por ejemplo, las conchas de los moluscos tienen una estructura en capas microscópica que se sostiene sobre elementos más pequeños para separar cada capa.

(2) Módulo de Young: el parámetro que caracteriza lo deformable que es un material cuando se le aplica una fuerza. El artículo de la wikipedia en español está bastante bien para entender este concepto: Wiki: Módulo de Young

La ética en la ingeniería es importante.

Hace tiempo que quiero compartir un enlace sobre la tragedia del Challenger, el transbordador espacial. Cuando estalló, a principios del año 1986(1), todos los que lo vivimos nos quedamos de piedra. Cuando pasados los años, supe que el problema fué que unos aros de goma se endurecieron más de lo previsto por estar refrigerados, me sorprendió que nadie se hubiera dado cuenta antes. Pues lo cierto es que alguien se dió cuenta, y dió la voz de alarma, aunque lo silenciaran.

Este artículo en inglés cuenta su historia y yo creo que es bueno que se le recuerde:

Remembering Roger Boisjoly: He Tried To Stop Shuttle Challenger Launch

(1) Un buen resumen lo tiene el artículo de la wikipedia en inglés: Wiki:Space Shuttle Challenger Accident

Producción de agua y energía eléctrica solar usando el mismo aparato.

Unos investigadores han logrado que la producción de energía eléctrica y la de agua potable vayan de la mano. Normalmente, los paneles fotovoltaicos producen energía, mientras que la desalinización de agua la consume, pero ahora se ha podido hacer un aparato que produce ambas cosas a la vez.

Comienzan en la introducción explicando que la falta de agua potable y la generación de energía más limpia son problemas que están muy unidos, dado que para desalinizar agua hay que consumir grandes cantidades de energía, y para producir energía suele hacer falta agua. De hecho, comentan que cerca del 50% del agua que se extrae en algunos países es para la producción de energía. Y dado que hay cada vez menos agua, y la generación de energía debe tender cada vez más a emplear sistemas renovables, la unión de sistemas de generación de agua con células fotovoltaicas es una gran idea.

El artículo continúa recordando que la idea de destilación solar de cualquier fuente de agua, sea esta el mar o aguas residuales, para obtener agua potable ya se ha implementado, pero con rendimientos finales de agua muy bajos debido a la poca concentración de energía que tiene el sol. Esto impide el uso más generalizado de esta tecnología, porque exige grandes superficies para obtener cantidades relevantes de agua. Sin embargo, recientemente, usando sistemas multimembrana se logró generar una cantidad de agua potable que entra dentro del rango de lo comercial, expresada en el artículo como 3 kg m⁻² h⁻¹ con condiciones de iluminación de 1 sol(1). Para lograrlo, emplearon el calor que se producía durante la evaporación en una etapa como fuente de calor para la siguiente.

Además, la producción simultánea de agua potable y energía eléctrica ya se ha planteado, pero generalmente con muy poca eficiencia en la generación de energía eléctrica, por eso los investigadores cambiaron las estrategias anteriores, consistentes en usar para generar la energía eléctrica alguna energía sobrante de la destilación del agua mediante energía solar, por un sistema en el que se integró el panel solar fotovoltaico con una membrana de destilación de tres etapas.

Con este dispositivo lograron producir 1,8 kg m⁻² h⁻¹ de agua mientras la célula solar tenía una eficiencia del 11%, lejos de las mejores eficiencias actuales, que se encuentran cerca del 16-20%, pero dentro de márgenes comerciales. Además, al usar la misma superficie para destilar agua y producir energía, su uso se hace mucho más interesante la reducción tanto de costos como de superficie ocupada.

Su dispositivo tiene en la parte de arriba una célula solar comercial, y debajo tres etapas de desalinización que aprovechan el calor producido por la célula superior, que crearon ellos en el laboratorio. Para que el calor producido por la célula solar no se perdiera, cada módulo solar estaba aislado en sus paredes laterales con espuma de poliuretano, un conocido aislante. Cada etapa de evaporación de las tres que acoplaron tenía cuatro capas, de arriba a abajo:

  1. Una primera capa conductiva del calor,
  2. Otra capa hidrofílica(2), donde se evapora el agua,
  3. una membrana hidrofóbica(3) para el paso del vapor y
  4. Una capa de condensación del vapor de agua.

La última parte, la condensación del vapor de agua, produce calor que se aprovecha como fuente de calor de la capa conductiva del calor de la siguiente etapa.

La figura siguiente presenta su sistema completo, con el panel solar encima y las tres etapas de evaporación de agua salada en la parte inferior:

Sistema integrado de producción de agua potable y electricidad mediante luz solar. Las cuatro capas del sistema multimembrana de evaporación son visibles, a la vez que el aislante térmico que rodea todo el panel. Adaptado de la figura 1.a del artículo citado.

Para usar su módulo pensaron en dos posibles configuraciones, una donde el agua salada o a evaporar está circulando en circuito cerrado hasta que está tan saturada de sales que no puede evaporarse más, y otra configuración donde el agua a evaporar se bombea a la parte de arriba del panel y la salmuera que queda se elimina del panel, en un sistema de circulación continua, como indica la figura siguiente:

Configuraciones para empleo del módulo. La de la izquierda(a) es un circuito cerrado que deja de funcionar cunado hay demasiada sal en el agua a evaporar. La de la derecha(b) funciona en circuito abierto de agua, desde el depósito superior hasta el inferior, donde se acumula la salmuera.

La ventaja de primer sistema es que puede obtiene más agua, al aprovechar todo el calor residual del agua, aumentando su productividad. La mayor desventaja es que es el agua que queda con sales hay que limpiarla del sistema, y eso es caro y emplea agua limpia. El sistema de circulación continua no precisa limpieza, pero obtiene un menor rendimiento de agua limpia. Sin embargo, es mucho más fácil de implementar en un sistema comercial, donde la salmuera producida iría a parar al mar.

Tratando de caracterizar su diseño, comprobaron que su sistema multimembrana de depuración tenía un rendimiento similar al de otros sistemas publicados en la literatura, empleándola sólo como depurador. Luego, le añadieron el célula fotovoltaica y comprobaron su comportamiento bajo varias condiciones de iluminación y carga del panel solar. Los resultados obtenidos indican que la carga a la que se somete la célula solar apenas varía la producción de agua limpia, que sí es inferior al caso en el que la parte superior del módulo de evaporación es una membrana de absorción de luz solar, no un panel.

También comprobaron si el sistema podía trabajar en modo continuo durante varias horas, dejando funcionar su sistema según el esquema de flujo continuo durante tres días, observando entonces que la cantidad de agua que podían extraer era de 1,6 kg m⁻² h⁻¹ con un flujo de entrada de 5 g h⁻¹, más baja que en condiciones ideales, pero todavía viable para un sistema comercial. También evaluaron la calidad del agua introduciendo en vez de agua salada, agua salada muy contaminada con metales, y como indica la figura siguiente, el agua evaporada que obtiene es perfectamente potable:

Presencia de iones de metales pesados en agua antes(negro) y después(dorado) de ser evaporada por el sistema. Las rayas rojas indican los valores admitidos por la Organización Mundial de la Salud como máximos para agua potable. Adaptada de la figura 5.c del artículo citado.

Siguen explicando en una sección posterior que gran parte de la pérdida de la energía térmica de la célula solar se pierde porque las células solares se diseñan específicamente para tener una alta emitividad de radiación electromagnética, de forma que no se calienten mucho. La razón es que las células solares pierden eficiencia al aumentar la temperatura. Pero como en este sistema doble, el calor producido por la célula se emplea en la evaporación de agua, los autores especulan que la producción de paneles solares con una emitividad reducida mejoraría la eficiencia de su sistema.

Terminan el artículo, pecando quizás de un exceso de optimismo, comentando que la sustitución total de sistemas fotovoltaicos actuales por el que ellos proponen generaría una gran cantidad de agua.

El artículo citado se publicó en la revista Nature Communications, 10. Al estar publicado con licencia Creative Commons, es accesible a través de su web: Nature Communications volume 10, Article number: 3012 (2019).

(1) Cuando se habla de energía solar, es muy común que se especifique las cantidad total de irradiación solar necesaria respecto a la solar «estándar» de un día soleado habitual. Este último se llama iluminación a un sol.

(2) Hidrofílica: Que atrae el agua hacia su superficie.

(3) Hidrofóbica: Que repele el agua.

Pequeños drones maniobran de manera más parecida a la de los pájaros.

Los drones son sistemas que tiene variadas aplicaciones, desde hacer vídeos musicales o similares espectaculares hasta la posibilidad de ser usados en misiones militares de alto riesgo. Pero tiene un problema bastante grave: son relativamente «torpes» al moverse por el aire, si los comparamos con las maniobras que cualquier pájaro o insecto es capaz de realizar.

En un artículo reciente un grupo de investigadores logró mejorar lo suficiente el diseño de drones con alas relativamente pequeños como para que pudiera maniobrar mucho más.

Comienzan el artículo señalando que el sistema de vuelo mediante aleteo es mucho más versátil que el sistema de vuelo mediante alas fijas o rotores, que generalmente se usan en los diseños humanos. Continúa comentando que si bien hay algún vehículo alado pequeño que use aleteo y puede realizar varias maniobras, como volar hacia delante y hacia atrás, en círculos y otras, sigue siendo muy raro que puedan permanecer suspendidos en el aire.

El mayor problema no es tanto imitar las formas y estructuras observadas en la naturaleza en animales voladores pequeños, como las pérdidas por la transmisión que se producen desde el motor, que puede ser mucho más potente que el sistema vivo hasta las alas, independientemente del tipo de control o tecnología que el sistema de vuelo del robot tenga. Como ejemplos de tecnologías de vuelo citan alas flexibles que pueden rotar de manera pasiva, sin ayuda de ningún motor y almacenamiento elástico de energía para recuperar parte de la potencia del movimiento.

De hecho, las ganancias aerodinámicas por usar aleteo pueden llegar a perderse debidos a las pérdidas de energía en los engranajes del mecanismo. Los autores del artículo ven que la mayor fuente de pérdidas energéticas en la mecánica del robot es el ángulo del eje de rotor cuando se quiere realizar alguna maniobra con las alas. De hecho, comprobaron que en sistemas de transmisión directa desde el motor hasta el ala, es el problema del giro del eje el que causa mayor cantidad de pérdidas por rozamiento.

Por eso diseñaron un sistema de transmisión más eficiente, con sistemas elásticos para prevenir el giro del eje y rodamientos, de manera que minimizaron las pérdidas de energía por rozamiento y pudieron además hacer que las alas realizaran giros mucho más bruscos de lo habitual. Además, para aumentar la maniobrabilidad de su robot le añadieron una aleta en la cola, como hacen muchos pájaros.

Su diseño, en la figura siguiente, usa rodamientos para estabilizar el eje y Nylon como material elástico capaz no sólo minimizar los problemas de giro, sino también de almacenar parte de esa energía elástica y usarla en maniobras de vuelo.

Esquema del sistema de transmisión. Los rodamientos, «bearings» en inglés, están marcados en rosa, mientras bisagras de Nylon en líneas tenues violetas. La transmisión de la fuerza del motor al ala se hace mediante una biela, que es parcialmente visible en el esquema central. La foto de la derecha es una vista superior de todo el sistema de transmisión.
De la figura 2.D del artículo citado.

Como se ve, el Nylon se emplea en el sistema que tiene que doblarse para transmitir parte del movimiento del motor a los ejes que soportan las alas, que a su vez son también elásticos. Este sistema les permite tener un motor más pequeño para generar el mismo empuje que uno más grande con hélice, un sistema más habitual.

Al tener una cola que se puede mover, cuando la cola está en posición que los autores denominan «neutra», resulta que el robot presenta estabilidad pasiva, sin necesidad de sistemas activos en varias situaciones de interés(1). Esencialmente, cuando se queda quieto en una posición y cuando planea. Además, al ajustar la posición de la cola se puede ajustar la actitud(2). En general, la estabilidad del robot cuando estaba quieto depende del efecto pendular, que se consigue colocando las alas que generan el empuje por encima del centro de gravedad, como los canarios. Sin embargo, este sistema no podía emplearse directamente en planeo, porque el centro de gravedad ya no está por encima de las alas. Para mantener la estabilidad en planeo, tuvieron que modificar tanto el sistema motor como la cola, haciendo esta última con una superficie similar a la de las alas, como la figura siguiente muestra.

Fotos de frente y de perfil del robot. G indica el centro de gravedad del aparato, T el empuje que genera y W su peso. Por eso indica que T>W para elevarse verticalmente. Adaptada de la figura 1.A del artículo citado.

Con este diseño, pudieron controlar el robot de una manera tan espectacular como la que muestra la figura de abajo, que resume todas la maniobras que puede realizar.

Ilustración de todas las maniobras posibles. En naranja, la subida y permanencia estática, en verde el vuelo casi paralelo, en el recuadro superior derecho el giro brusco deltante de un obstáculo y en amarillo el vuelo inclinado y subida. Adaptado del artículo citado, película 1.

El artículo continúa explicando algún detalle más técnico, proporcionando algunas relaciones básicas para entender que gran parte de la maniobrabilidad demostrada se debe a su capacidad de cambiar rápidamente y sin un gran consumo de energía el coeficiente de rozamiento ofrecido, lo que le permite emplear el aerofrenado para moverse, a semejanza de varios pájaros. Posteriormente, comparan su sistema con otros sistemas de vuelo en términos de capacidad de proporcionar empuje respecto a la potencia eléctrica consumida(3), observando que su sistema presenta la mayor pendiente de todos, como indica la figura de abajo.

Potencia eléctrica media consumida frente a empuje proporcionado. Los círculos y triángulos son diversos tipos de hélices, las aspas rojas su diseño con bisagras rígidas y las aspas azules su diseño con aspas de Nylon. Su mayor capacidad es clara. Adaptado de la figura 4.A del artículo citado.

Termina el artículo con detalles muy técnicos sobre como puede maniobrar tan bien el robot, y examinando también parte de los métodos empleados en sus mediciones.

El artículo se publicó en la revista Science Robotics, volumen 5.

(1) La diferencia, en general, entre sistemas pasivos y activos está en que los sistemas activos precisan de algún tipo de reacción, y por lo tanto consumo de energía, tanto en el cálculo como la producción de esa reacción, mientras que los pasivos se regulan sin necesidad de intervención externa.

(2) La actitud del robot no tiene nada que ver con su comportamiento, sino con su orientación respecto al plano. Así, el ángulo de actitud del robot es el ángulo respecto al plano del suelo del mismo.

(3) Como usan motores que trabajan a voltajes constantes, esta potencia eléctrica es el producto directo del voltaje que consume el motor por la intensidad de corriente, VI, y así lo representan.