Compuestos plásticos y de nácar con transparencias como las del vidrio.

Los vidrios(1) son materiales muy útiles para el ser humano. Son duros, impermeables, suelen ser resistentes a los ataques químicos de muchas sustancias, se pueden reciclar con facilidad, por no mencionar su transparencia a la luz visible, que los hace tan útiles en la formación de lentes y elementos del estilo.

Pero tiene algún problema, el principal su fragilidad. Son muy duros, por eso aguantan muy bien grandes tensiones, pero son frágiles: cualquier golpe lo hace romper. Otros sustitutos más flexibles, como el plástico, son maleables, pero blandos y no aguantan grandes temperaturas.

Recientemente, un grupo de científicos ha conseguido crear un material que combina características tanto de plásticos transparentes como de vidrios: es muy duro y transparente a la vez. Usando una mezcla de polímero metacrilato y láminas planas de vidrio de tamaño micrométrico han creado un compuesto que han denominado «compuesto nacarado» por la similitud de sus propiedades mecánicas con el nácar natural.

Los investigadores se fijaron en el nácar por sus propiedades mecánicas: es unas tres mil veces más duro que los elementos que lo forman y tiene una resistencia a la fractura también muy alta. Comentan también que con la intención de copiar la estructura del nácar para su uso industrial, varias técnicas se han implementado, desde la aplicación de películas delgadas hasta su infiltración con polímeros entre láminas de cristal. También se ha intentado formar estructuras en el cristal que imiten la del nácar empleando láseres u otros métodos, pero son sistemas muy caros y de difícil escalibilidad industrial.

Así, en su investigación los autores tenían que lograr dos objetivos distintos en el material que crearon: tener una parte dura y muy poco flexible, muy unida a otra parte flexible y deformable. Además, para que la transmisión de luz fuera buena, el índice óptico de ambas partes del material deberían coincidir lo mejor posible. Por eso emplearon vidrios transparente como componente duro y metacrilato como componente blando. El problema es que, si bien el metacrilato es transparente, no tiene el mismo índice de refracción del vidrio, con lo que el conjunto no sería muy transparente. Pero lo pudieron solucionar añadiendo un dopante al metacrilato que alteró su índice de refracción hasta hacerlo muy similar al del vidrio, algo que ya estaba resulto previamente.

De todas formas, el tener los materiales no es el final de la historia: también hay que lograr que la estructura de la mezcla sea la adecuada. Para ello, los vidrios los añadieron en forma de láminas, para imitar la forma que tiene el nácar de láminas pegadas con el material más blando. Y claro, también tuvieron que lograr que vidrios y metacrilato se pegaran bien. Para ello, prepararon las láminas de vidrio con compuestos que alteraron su superficie para favorecer su mezcla con el metacrilato. Luego, para que el producto mezclado adoptara la forma adecuada, lo centrifugaron(2) de forma que las tablillas de vidrio y el metacrilato adoptaron la forma de los ladrillos y el cemento en una pared. Después, polimerizaron el metacrilato mediante tres etapas de calentamiento.

El resultado, después de dopar el polímero, fue un material con una transparencia muy parecida a la de cualquier vidrio incluido el comercial(3) como se observa en la figura siguiente, que muestra su transparencia de una manera muy visual.

Comprobación de la transparencia del nuevo material. El material más opaco tiene la misma composición, pero sin ajustar el índice de refracción mediante el dopante para el metracilato. La diferencia es claramente visible. De la fig. 1 A del artículo citado.

Por otra parte, además de verlo de una manera tan visual, lo midieron directamente. Es decir, comprobaron la trasmitancia de la luz en las longitudes de onda del visible, de 400 a 700 nm, de este material y lo compararon con vidrios y otros intentos previos de otros investigadores. Como muestra la figura siguiente, su material tiene propiedades muy similares al vidrio comercial en las longitudes de onda visibles.

Transmitancia de la luz para varios materiales. La línea roja a rayas es la del vidrio, «soda-lime glass slide» en el texto en inglés, mientras que las negras son intentos previos de otros investigadores y la amarilla es la del producto que han desarrollado, que llama «PMMA-12% dopant». En el rango de la luz visible su transparencia es muy parecida a la del vidrio, atenuando sobre todo la radiación ultravioleta cercana del comienzo de la gráfica, longitudes de onda de 350 a 400 nm. De la fig. 1 B del artículo citado.

Por otra parte, si este material tiene que sustituir al vidrio, también tiene que ser fuerte. Idealmente, debería tener mayor flexibilidad para convertirse en un «vidrio flexible». En el artículo resaltan la importancia del centrifugado, dado que logra concentrar y ordenar las placas de vidrio de tal forma que su estructura interna se hace más resistente sin perder demasiada flexibilidad, como indica la figura siguiente.

Curva de esfuerzo de flexión para el material preparado con el tratamiento superficial de las láminas de cristal y centrifugado de la mezcla, línea negra, sin centrifugado, línea roja, y sin tratar las láminas ni centrifugar el material, línea azul. La mejora en las propiedades de flexión, aguantando mucha más presión, es obvia para el material completo. De la fig. 3 A del artículo citado.

Para terminar el artículo los autores comparan su material en el diagrama de Ashby(4) compuesto con la resistencia a la fractura y la tensión, donde claramente su material se compara muy favorablemente con varios materiales comerciales actuales, como muestra la figura siguiente:

Diagrama de Ashby de varios materiales, incluido el fabricado por los autores del artículo, que señalan con color rojo. Como se ve, es mejor que algunos vidrios comerciales, incluido el vidrio templado en resistencia a la fractura y tensión soportada. Las conchas de los moluscos , «Mollusc shell», y el la parte externa del hueso, «Cortical bone», son mejores materiales en cuanto a dureza, si bien se rompen con menor fuerza. De la fig. 5 del artículo citado.

El material que han logrado es impresionante: puede competir con varios vidrios artificiales, siendo mejor que ellos y es transparente en la luz visible. La verdad es que sería un material maravilloso para parabrisas y ventanas, que serían mucho más resistentes.

El artículo se publicó en la revista Science: Science, Vol. 373, Nº 6560. pp. 1229-1234 • DOI: 10.1126/science.abf0277.

Notas:

(1) Aunque a veces se los confunda, «cristales» y «vidrios» son cosas muy distintas para los físicos y otros científicos. Un cristal es un material cuya estructura interna es la repetición de unidades iguales, llamadas celdas, con una geometría muy bien definida. Por ejemplo, un cubo, una pirámide, etc. Los vértices de las figuras son los lugares ocupados por los átomos y la configuración es debida a las fuerzas entre los átomos. Un vidrio es un material cuya estructura interna no esa tan bien definida, es mucho más amorfa. Las entradas en la Wikipedia en Español lo explican bastante bien: Wiki:Cristal y Wiki:Vidrio.

(2) Es decir, lo mezclaron dándole vueltas a muy alta velocidad.

(3) En inglés se llama soda-lime-glass.

(4) Los diagramas de Ashby son gráficas donde dos propiedades relacionadas de un material se colocan como ejes para poder comparar mejor las ventajas y desventajas de su uso. El artículo en Inglés de la Wikipedia sobre selección de materiales lo explica muy bien: Wiki: Material Selection.

Extracción de Litio del agua de mar

El Litio es uno de los metales más ligeros que se conocen, pero de una importancia cada vez más fuerte en la industria y la sociedad. Es uno de los metales que más se emplean en la fabricación de baterías y tiene poco repuesto; sus características electrónicas hacen que sea difícil sustituirlo por otro.

El problema fundamental que tiene su uso es su escasez: como de momento no lo usamos mucho, no hay escasez. Pero varios cálculos indican que si se pretendiera escalar la producción de Li para la fabricación de baterías, habría problemas para satisfacer la demanda de este metal mediante las minas conocidas y disponibles, como las famosas minas de sal de Bolivia(1). Sin embargo, unos investigadores han encontrado la forma de extraerlo del agua de mar de manera económicamente factible si se acopla esa extracción con otras industrias extractivas.

Comienzan su artículo indicando que la cantidad estimada de Li en el mar es unas 5.000 veces más grande que en tierra, pero con un gravísimo inconveniente. Su concentración es muy baja, del orden de 0,2 ppm(2). Al mismo tiempo, otros iones presentes en el mar tiene concentraciones mucho más altas. Como ejemplo, la concentración de sodio, calcio y otros iones es mayor que 13.000 ppm.

Revisando los posibles métodos de separar el Li en el mar, los autores del artículo presentan varias posibilidades de absorbentes para después de unir el Litio al absorbente, precipitar este compuesto para obtener el Litio. Sin embargo, según los autores del artículo, los absorbentes tienen el grave inconveniente de que hay que sustituirlos en el tiempo por que se consumen en la absorción. Por ello ellos decidieron seguir el camino de precipitar sales de litio, concretamente la sal Li3Po4, ayudadas por una corriente eléctrica y una membrana. Es decir, primero se trata de concentrar el Li en el agua de mar mediante el paso del agua por la membrana y luego precipitar el Litio al cambiar el Ph de la solución de manera que precipite una sal.

El truco consistió en emplear una membrana cristalina densa de Litio, Lantano y Óxido de Titanio (TiO3), que abrevian como LLTO. Para las pruebas que hicieron, la membrana tenía un diámetro de ~20 mm y un ancho de aproximadamente 55 µm. El ancho de la membrana no es casual, porque la selectividad de la misma para con el litio depende de la misma. De hecho, según refieren los autores en el artículo, el ancho de su membrana es unas 10 veces menos que otros experimentos similares, lo que ayudó sobremanera a sus resultados.

Como es frecuente en estructuras cristalinas, la alta selectividad del Litio por parte de la membrana se debe a la estructura del cristal, que tiene el tamaño justo para dejar pasar sólo estos iones. Como son de los más pequeños que contiene el agua de mar con un diámetro de 1,18 angstroms(3), son los únicos que pueden atravesar la membrana con facilidad.

El uso de este tipo de membranas también tiene sus problemas, porque se pueden corroer y estropear, aunque más que por oxidación directa, por «reducción». Es decir, en lugar de ceder electrones al ambiente los absorbe, de forma que también tiene que cambiar su composición química para compensar la carga negativa extra(4). Por ello, tuvieron que generar un entorno ácido cerca del cátodo, el electrodo negativo. El esquema del experimento se presenta en la figura siguiente.

Esquema de la celda de concentración precipitación del Li. «AEM» es el acrónimo de «membrana de intercambio iónico», en inglés que permite la separación del Cl en la zona saturada de sal común. A la derecha, el «H3PO4 buffer» es la sustancia empleada para incrementar la acidez de esa parte de la celda. Como se aprecia arriba, para poder seleccionar el litio hay que establecer un voltaje. Imagen extraída de la fig. 1 del artículo citado.

Con esta celda lograron concentrar la cantidad de litio hasta un nivel final de 9.000 ppm en cinco etapas sucesivas, cada una con una duración de 20 horas. Mediante este sistema de funcionamiento en etapas, se podría pensar en usar una etapa inicial como líquido a concentrar en la siguiente etapa, de manera que el proceso final sea uno de cascadas sucesivas de concentración de Litio que pueden ser construidas y diseñadas con relativa facilidad. Y además pudieron comprobar, como indica la siguiente tabla, que la concentración de otros iones permanecía muy baja después de la primera etapa, lo que indica una muy alta selectividad del metal que se desea, litio.

Li (ppm)Na (ppm)K (ppm)Mg (ppm)Ca (ppm)
Agua de mar0.21 +- 0,0112.400 +- 100750 +- 301560 +- 20480 +- 7
Primera etapa75 +- 1270 +- 65,8 +- 0,21,37 +- 0,020,54 +- 0,02
Quinta etapa9.000 +- 100300 +- 77,7 +- 0,21,48 +- 0,0040,56 +- 0,02
Concentración de los iones del agua de mar tras pasar por las etapas de concentración primera y última. De la tabla 1 del artículo citado.

En el siguiente párrafo del artículo comienzan resumiendo las características eléctricas del proceso, indicando que se producen a corrientes estables durante todo el proceso de concentración, excepto por un aumento de la corriente inicial debido a que algunos iones se fijan en los electrodos y la membrana. Este detalle, junto con la disminución en el tiempo de la corriente en la quinta etapa de concentración y algunos detalles del experimento, les permite a los autores deducir que la concentración de litio en las cuatro primera etapas depende sobre todo de la concentración en el agua circulante, antes que de la diferencia de la concentración de iones Li entre los dos lados de la membrana LLTO.

Por otra parte, comprobaron como después de la etapa de precipitación para obtener la sal Li3PO4, el producto final es lo suficientemente bueno como para entrar directamente en la producción de baterías. Este resultado se mantiene si sólo se hacen cuatro etapas de concentración, pero no con tres.

Después, y dado que su proceso es tan eficiente y selectivo, estiman el coste energético para obtener un kilo de Litio en unos 77 kW h. Haciendo unos cálculos básicos sobre el coste de la electricidad en los Estados Unidos y el precio que se podrían obtener de otros subproductos de esta reacción, principalmente Hidrógeno y Cloro, concluyen que el costo energético de todo el proceso se compensa de sobra con la venta de los subproductos, sin tener en cuanta que también producen agua potable, de manera que su economía mejoraría más.

Después de comentar todas las características de sus resultados el artículo tiene una sección dedicada a explicaciones detalladas del método experimental que hay que seguir, pero considero que esa sección no es relevante y no la comento aquí.

Por lo tanto, el artículo muestra una vía de producción de litio que permitiría multiplicar de manera considerable la cantidad disponible para la humanidad de este material, de forma que hace más sencillo la adopción masiva de baterías necesaria si queremos hacer la transición a una sociedad que base su consumo energético en energías renovables.

El artículo se publicó en la revista Energy & Environmental Science, vol. 5: Continuous electrical pumping membrane process for seawater lithium mining.

Notas:

(1) La zona con Litio de Bolivia forma parte del «Triángulo del Litio», la región del mundo con mayores reservas. El artículo de la Wikipedia lo explica muy bien: Wiki(ESP): Triángulo del Litio

(2) ppm: partes pro millón.

(3) 1 angstrom es 10-10 m. Como los tamaños de los iones o núcleos atómicos son tan pequeños, es la unidad estándar para poder medir estos diámetros.

(4) Los ácidos y las bases son las dos formas principales de concentración de iones hidrógeno de los compuestos químicos. De los dos artículos de la Wikipedia sobre el tema, es de la Wikipedia en español es bastante corto, pero el de la Wikipedia en inglés es muy bueno: Wiki(ESP):Ácido y base. Wiki(ENG): Acid-base reaction. Por otra parte, la explicación de la Wikipedia en español sobre la reducción química es corta, pero muy bien escrita: Wiki(ESP):Reducción.

Usando los cantos de las ballenas para realizar sismografía.

Cuando se trata de realizar una imagen de las placas tectónicas, uno de los métodos más eficientes es enviar una onda sonora y recoger la onda reflejada en la superficie de la tierra, de forma que estudiando las diferencias entre la onda transmitida y la reflejada se pueden aprender cosas sobre la estructura de las placas. Esto, en principio, exige que se dispongan no sólo sistema de escucha de las ondas sonoras, micrófonos especializados, sino también el empleo de altavoces que emitan pulsos sonoros conocidos. O se pueden emplear los cantos de la ballena de aleta o rorcual común(1), como en un artículo reciente que me llamó la atención.

Resulta que el canto de estas ballenas está entre los más potentes conocido por el hombre, de forma que se escucha desde cientos de kilómetros de distancia, en frecuencias muy bajas, lo que permite que se emitan mejor por el medio marino, de en torno a 20 Hzs. Por otro lado, hay dispuesta en el fondo del mar una red de sismógrafos que «escuchan» las vibraciones de la tierra, precisamente para frecuencias de 50 Hzs y menores. Estos sismógrafos se colocan en el fondo marino cerca de zonas de especial interés, como fallas y regiones que podrían provocar un terremoto y conviene tener monitorizadas y controladas. Y escuchando los cantos de las ballenas, que se les cuelan entre las señales producidas por vibraciones de la propia Tierra, los dos autores del artículo han llegado a calcular detalles sobre la estructura interna de la Tierra.

Los cantos de las ballenas que emplean tienen la forma que se observa en al siguiente figura, muy repetitivos en el tiempo y a frecuencias muy definidas.

Forma del canto de las ballenas de aletas a lo largo del tiempo en sus frecuencias principales registrado en un sismógrafo submarino. Se observa como varía la frecuencia en trenes repetidos en el tiempo, de algunos segundos según la barra de escala temporal superior. De la fig. 1 (A) del artículo citado.

Esta estructura que recogen los sismógrafos submarinos no sólo contiene el canto de la ballena emitido desde la posición del animal, sino también las reflexiones de ese canto en el lecho marino, que son las que usan para estudiar la estructura del mismo, como se recoge en la siguiente figura:

Estructura en el tiempo del canto de la ballena. Se observa la emisión directa, por el camino nombrado W(direct) en la parte E de la figura y las reflexiones del mismo, mucho más atenuadas, el componente W(multiple). De la figura 1(B-E) del artículo citado.

Los sismógrafos estaban situados en la costa enfrente del estado norteamericano de Oregón, y de todas las señales grabadas, los autores del artículo se centraron en seis porque se distinguía con claridad que eran señales de un sólo animal.

Pudieron observar que las ballenas se movían a velocidades de 4 a 10 km/hr, con unas duraciones de sus cantos de horas, de 2,5 a 5 aproximadamente. De estas señales pudieron extraer, con métodos que describen con más detalle en los suplementos del artículo, las trayectorias seguidas por los animales suponiendo que estaban a unos 10 m por debajo del nivel del mar, su zona de navegación cuando cantan.

Con eso y el hecho de que al verse reflejadas en las diversas partes de la corteza terrestre debajo de ellas, las reflexiones llegan a tiempos distintos al sismógrafo, para cada llamada de una ballena pudieron obtener una gráfica que presentaba la intensidad del sonido en el tiempo y en función de la distancia del sismógrafo. Armados de modelos sobre la estructura del manto terrestre, pudieron medir la anchura de las diversas capas reflejadas, que aparecen en la siguiente figura, y compararlas con datos ya conocidos y obtenidos por métodos distintos de una región de estructura interna similar cercana geográficamente. Por supuesto, las transmisiones y tiempos de las ondas P y S(2) al viajar por la estructura del manto se observaron muy bien.

Comprobaron que las capas observadas usando los cantos de ballena se corresponden con las medidas anteriores en otras regiones similares, si bien algo más delgadas, unos 100 a 300 metros menos que en las otras medidas, probablemente por su mayor distancia a fuentes de sedimento en la región de los sismógrafos que las medidas con las que se comparó.

Descripción de la información sobre la estructura de la tierra obtenida mediante el registro de los cantos del rorcual común. La figura superior muestra las intensidades de la señal en el tiempo, con las concentraciones de la misma indicando las diversas capas internas de la Tierra, señaladas con colores y explicadas en la parte más baja de esta figura. La figura del medio, con escala de longitud falsa claro, muestra dónde y cómo se han ido reflejando los sonidos registrados en la primera figura, con las ondas P y S claramente separadas. Imagen adaptada de la fig. 3 del artículo citado.

El artículo se publicó en febrero de 2021 en la revista Science: Seismic crustal imaging using fin whale songs. Vol 371, Issue 6530 • pp. 731-735 • DOI: 10.1126/science.abf3962.

Referencias:

(1) La entrada de la Wikipedia en español sobre este tipo de ballena es muy completa: Wiki:Rorcual común.

(2) Las ondas P y S son los distintos tipos de ondas que se propagan en la superficie, o estructura interna, de la Tierra cuando oscila. Las P corresponden a ondas que oscilan en la dirección enla que se mueven, mientras que las S oscilan en una dirección perpendicular a su propagación. El artículo sobre ondas sísmicas de la Wikipedia en español lo explica bastante bien: Wiki: Ondas sísmicas.

Explosiones, su física y la seguridad.

[Actualizado el 12 de noviembre de 2021. Las actualizaciones están de este color.]

Generalmente suelo hablar aquí de artículos que hacen avanzar la ciencia en algún aspecto que me interesa, pero el artículo que quiero resumir hoy trata sólo de unir el conocimiento en una revisión corta sobre dos cosas que me fascinan: explosiones de gases y la seguridad.

No se hasta que punto somos conscientes de la cantidad enorme de gases explosivos que rodean las actual civilización humana: desde gasolinas hasta alcoholes, que dejamos que se evaporen tranquilamente. El problema es que a veces esos vapores se concentran y provocan explosiones accidentales que pueden ser muy graves. El artículo que reviso habla precisamente de eso, de esas explosiones haciendo un recorrido histórico para luego centrarse en la física de esas mismas explosiones.

Empieza haciendo un recorrido histórico de las explosiones de gas antes del año 1920, donde como nota escatológica explica que un riesgo relativamente común en la antigua roma al ir a las letrinas era acabar con el culo chamuscado(1). Yendo a cosas más serias, aunque un culo chamuscado es algo serio, explica que los mayores riesgos se daban en la minas. Por eso hay varias fuentes que hablan del peligro de explosiones en las minas, explicando que las primeras lámparas de seguridad para ser usadas en las minas de carbón se desarrollaron como respuesta a un accidente en el que murieron 92 personas por una explosión de metano. Como sigue explicando, y con el desarrollo de barcos de vapor, las explosiones de los mismos debido a vapores inflamables empezaron a aparecer. El artículo cita dos casos, uno de ellos el primer viaje de un barco a vapor que explotó súbitamente, con investigadores citados en el artículo explicando que la causa más probable era el almacenamiento de aguarrás o aceite de trementina en una sala caliente, cerca del motor del barco. Continua explicando como éste y otros accidentes sobre la misma época, mediados y finales del s. XIX, llevaron a la formación de una ley de manejo de sustancias peligrosas en gran Bretaña en 1875.

Una sección posterior se centra en la explosión de 1920 de una barcaza del transporte de petróleo llamada Warwick donde murieron siete personas, entre ellas el abuelo del autor, el hermano del abuelo y su cuñado(2).

Se puede observar la fuerza de la explosión en las fotos siguientes, donde se ven tanto el diseño del barco como lo que quedó de él.

Arriba, plano del barco y sus bodegas. Abajo, estado en el que quedó el barco tras la explosión. De la fig. 1 del artículo citado.

Después de transportar cerca de 191.000 Litros de petróleo, el barco necesitaba una reparación. Primero hubo que limpiarlo cuidadosamente, porque la reparación incluía soldaduras y ya se sabía que el petróleo y las soldaduras implicaban explosiones. Así pues, lo limpiaron primero con trapos de algodón y luego con vapor de agua aplicado a las paredes. Y el mismo día, lo llevaron a arreglar las tapas del sistema, con los depósitos aún calientes y llenos de vapor de agua mezclado con gases explosivos. Cuando la llama del soplete alcanzó el interior del depósito, explotó inmediatamente.

En otras ocasiones habían hecho el mismo tipo de operación, pero dejando que el barco se ventilara durante algunos días por casualidad. Por la misma casualidad, ese día no se hizo y siete personas murieron. Simultáneamente en Gran Bretaña y otros países se introdujeron nuevas regulaciones y sistemas de seguridad, pero las explosiones y accidentes continuaron sucediendo. Uno de los últimos accidentes que nombra es el de la plataforma petrolífera Deepwater Horizon, que produjo una de los peores derrames de petróleo que se recuerda. La causa del mismo estaba en una explosión de gas inflamable que entró en contacto con los generadores diesel del barco.

Tras esta introducción histórica, comienza con la descripción del fenómeno físico en otra sección. Dice que una explosión es un fenómeno en el que el volumen del cuerpo se incrementa rápidamente, con ondas de presión asociadas por el movimiento del aire. Éstas ondas son las que provocan el sonido de las explosiones, tan característico. El origen de la explosión pueden ser varias cosas, pero es siempre la deposición de una gran cantidad de energía en un tiempo muy corto. Una de las mejores maneras de lograr esto es con la combustión de un gas o sustancia similar, por eso los accidentes con explosiones de gases combustibles son tan comunes.

Explica que las primeras investigaciones sobre el tema se desarrollaron en Francia en 1880, para acabar con el desarrollo de criterios sobre cuándo un gas combustible explotaría sólo, usando dos posibilidades según que fenómeno domine la dinámica, el movimiento del fluido: la convección, donde los fluidos estén bien mezclados, y fluidos donde la conducción, el transporte de calor, es dominante. El problema es que la mayoría de los casos son una mezcla de ambos factores.

El artículo comenta que en paralelo al desarrollo de estos modelos e ideas, también se desarrollaron las ecuaciones que gobiernan el movimiento de los fluidos, de tal forma que desde los años 50 se pueden resolver numéricamente las mismas usando técnicas de simulación o resolución de ecuaciones de fluidos por ordenador(3). Con ellas, los tres procesos físicos fundamentales para entender estas explosiones, la dinámica de fluidos (cómo se mueven), la termodinámica (cómo intercambian energía) y las reacciones químicas (cómo cambian unos compuestos en otros) pueden combinarse y resolverse en un ordenador. Pero el problema es que las escalas temporales y espaciales de estos tres procesos son muy distintas, lo que implica que introducirlo en un ordenador y hacerlo es un proceso muy complicado que no siempre es posible.

Por otra parte, trabajos posteriores distinguieron dos tipos fundamentales de explosiones: fuertes y débiles. Las fuertes son aquellas en las que un sólo punto tiene tal concentración de energía que inicia la explosión y por lo tanto, el frente de onda que la misma produce. Las explosiones débiles, por el contrario, tienen varias fuentes puntuales que terminan uniéndose en un sólo frente(4).

Partiendo de los tres fenómenos que son importantes en la explosión, trabajos teóricos pudieron delimitar los parámetros de los que depende que una mezcla gaseosa haga explosión o no: el tiempo que tarda la reacción química en calentar el fluido hasta la ignición, el tiempo necesario para la conducción térmica y el tiempo necesario para la convección material del fluido. Sus resultados se pueden resumir según la figura siguiente, donde en función del número adimensional de Rayleigh(5) se observan explosiones o no.

Diagrama adimensional que especifica si se produce o no explosión en función de las escalas adimensionales y el número de Rayleigh. Los puntos negros indican simulaciones que no generaron explosiones y los círculos, que sí. De la figura 1 del artículo citado.

Tras continuar estudiando y modelando el fenómeno, según cuenta el autor, los mismos autores que hicieron el modelo previo añadieron un cuarto factor al mismo: la velocidad de la reacción química en transformar el reactivo en los productos finales. Es decir, la velocidad a la que se consume el generador de la explosión también es un factor importante. Así, el equivalente a la gráfica bidimensional anterior es una nueva gráfica tridimensional que separa las regiones donde las escalas temporales permiten la explosión de las que no.

El diagrama donde se observa la superficie que separa las regiones con explosiones de las que no tienen. Los ejes son relaciones entre escalas temporales: τH/τC, τH/τD y τH/τR para un recipiente esférico y cerrado. τH es la escala temporal del calentamiento por reacción química, τC la escala de la convección, τD la escala de la difusión y finalmente τR la escala temporal de la reacción química. Adaptado de la figura 3 del artículo citado.

Como indica el artículo, es notable que esta gráfica unifica fenómenos que parecen separados: la única diferencia entre una reacción exotérmica que caliente el gas y una que provoque su explosión es las relaciones entre sus escalas temporales, pero la misma descripción termo-cinética se puede aplicar.

Para finalizar la sección, el autor destaca que la revisión y teorías que presentó pasan por alto uno algunos fenómenos muy interesantes, como la transición de deflagración a explosión en un gas y la onda de choque que se produce(6), remitiendo al lector a revisiones reciente de esos temas, antes de comentar una relación entre las explosiones que acaba de revisar y otros fenómenos que parecen muy alejados: las explosiones de estrellas.

Comenta que la distinción fundamental entre una deflagración y una explosión es la velocidad de propagación de la onda sonora. En una deflagración, esa onda se propaga a menor velocidad que el sonido, y en una explosión, a mayor velocidad, siendo por lo tanto lo que se llama una onda de choque. En un artículo citado en esta revisión se demuestra que una combustión termonuclear en una estrella es cualitativamente similar a una onda de combustión química, una deflagración. Esto es así porque los mecanismos físicos que controlan ambos fenómenos son los mismos y no les importa demasiado detalles sobre la ecuación de estado u otros parámetros relevantes.

Termina el artículo con una sección un tanto pesimista, pero realista. Explica que gracias al avance en el conocimiento de las razones de las explosiones y como evitarlas, a lo largo del siglo XX se han desarrollado sistemas que permiten transportar líquidos inflamables sin grandes riesgos, mediante la inertización de la atmósfera donde está el líquido. Es decir, eliminando el oxígeno de esa atmósfera, es posible retardar la combustión hasta que no pueda ser explosiva. La pregunta entonces es porqué no están más generalizados estos métodos de seguridad en barcos, si en otras infraestructuras donde un incendio no es deseable se emplean sin problemas. De hecho, se puede comprobar que el número de accidentes de barcos en general y de víctimas en accidentes en barcos han disminuido con el tiempo, incluyendo todo tipo de barcos de carga, no sólo los que gaseros. La figura siguiente, del documento «Annual Overview of Marine Casualties and Incidents» de la Agencia europea de Seguridad Marítima(7) lo deja claro:

Número de muertes por tipo de barco y año recientemente. Excepto para el año 2015, el número de víctimas (afortunadamente) tiene una tendencia a la baja.

Cita por ejemplo archivos, subestaciones eléctricas, incluso coches de carreras. La respuesta es muy triste: porque a los dueños de los barcos les resulta más barato pagar las indemnizaciones y usando el dinero que el seguro les paga en caso de accidente, comprar un barco nuevo.

Lo que escribí cuando publiqué esta entrada no es verdad. Más bien hay un fuerte interés en evitar los accidentes, y las cifras demuestran que tanto su número como su gravedad descienden con el tiempo, a pesar de los problemas que hay en cuanto a banderas de buques, etc.

Concluye esta sección y el artículo comentando si la labor del científico debería incluir aspectos sociales sobre la investigación que realiza diciendo, y estoy de acuerdo, en que un científico tiene que pensar en los aspectos sociales del trabajo que hace, y como esos aspectos deberían o podrían ser insertados en la sociedad. A fin de cuentas, la persona que hace ciencia vive con otras personas en una sociedad.

El artículo se publicó en la revista Physics of Fluids, en el vol. 33: Thermo-kinetic explosions: Safety first or safety last?.

Notas:

(1) La expresión que emplea es «singed bottom», que traduzco como culo chamuscado.

(2) Está claro que el autor del artículo tiene un interés personal en la seguridad y las explosiones de volátiles.

(3) En inglés se suelen llamar estas técnicas CFD: Computational Fluid Dynamics.

(4) Según explican en el artículo, un tipo de explosión débil muy buscada es la que se produce en los motores de los coches, camiones y demás, que mueven el pistón debido a una explosión del combustible que empuja los pistones.

(5) El número de Rayleigh es un parámetro adimensional que especifica qué es más importante en la transferencia de calor de un fluido, si la conducción de energía o la convección de masa del fluido. Una muy buena definición esa en la Wikipedia en español: Wiki:Rayleigh.

(6) El autor, poéticamente, llama a esta onda de choque «bang».

(7) El enlace del documento: Revisión de la EMSA 2020.

El uso de restos de café como acelerador de la restauración de selvas.

Es un hecho bien conocido que la deforestación de las selvas no es tanto producto de personas sin escrúpulos que lo hacen porque sí, como el resultado de grandes plantaciones que exigen el corte y quemado de enormes extensiones de selva para poder cultivar intensivamente productos que luego se venden en países que no son los productores. Uno de los claros efectos de estas políticas es que cada vez queda menos selva que transformar, lo que afecta de manera clara al negocio de la producción agrícola: dependen del rico suelo de la selva para poder usarlo, y tienen un uso muy corto en tiempo; unas décadas, a lo sumo.

Por eso y porque cada vez hay más campos abandonados que pueden volverse a reforestar dentro de los parques naturales y reservas que se establecen en países con grandes selvas tropicales, hay un creciente interés en técnicas que ayuden a reducir el tiempo que la selva necesita para realizar ese proceso de reforestación, que puede ser muy largo.

En el artículo que comento hoy hablan de una técnica que me llamó la atención por sus excelentes resultados y porque me recordó algo que mi abuela hacía. Mi abuela tenía una enredadera en una casa de verano a la que iba, obviamente, sólo en verano. Y para alimentar esa enredadera, echaba las borras del café directamente en la zona de tierra de la planta. El artículo que comento usa residuos vegetales de la producción de productos elaborados para reducir el tiempo de regeneración de la selva. Un grupo de investigadores de la Universidad de Hawai`i (sí: se escribe así) ha comprobado el efecto beneficioso sobre la restauración de la cubierta arbórea de cubrir el suelo con pulpa de café.

Comienzan el artículo con una obviedad. Para alcanzar de alguna manera los objetivos de reforestación previstos en las Naciones Unidas, hay que tratar muchas hectáreas de suelos degradados, lo que es caro. Una forma de minimizar costos y acelerar el proceso es el empleo de residuos de la fabricación de productos vegetales elaborados: cáscaras de naranja, peladuras de piñas, etc. En el artículo comentan que hasta ahora faltaban evidencias significativas del efecto de este tipo de estrategias en los suelos, más allá de un estudio realizado en Costa Rica en tres hectáreas con cáscaras de naranja que presentó resultados muy prometedores, pero que por causas sobre todo políticas no pudo continuar.

Por otra parte, la producción de bagazo de café(1) en países tropicales es muy grande. En el artículo explican que estimaciones fiables indican que por cada millón de sacos de 60 kg de café, se producen unas 218.400 toneladas de este bagazo que deben ser tratadas o procesadas de alguna manera en las plantas productoras del grano, que además suelen estar en los países productores.

Decidieron entonces comprobar hasta qué punto era beneficioso usar este bagazo, para regenerar terrenos degradados que sólo poseen pasto pobre como cubierta vegetal. El bagazo de café es rico en proteínas, carbohidratos y ligninas, por lo que es un compost muy valioso, que además al cubrir las hierbas invasoras que ocupan los suelos degradados, debería apoyar el crecimiento de los árboles que se desea crezcan dado que ahora ya no tienen hierbas altas que les impiden alcanzar la luz del Sol.

En la siguiente sección de su artículo explican los métodos empleados para realizar el estudio. En primer lugar, la hectárea que pretendían estudiar tuvo que ser liberada a machetazos de hierba fina que la ocupaba para permitir el acceso de vehículos pesados. Luego, dividieron una hectárea de control en dos partes, en una de las cuales echaron una capa uniforme de bagazo de café con cerca de medio metro de espesor. En total, 360 m3 de pulpa de frutos del café, que llegaron en 30 camiones de una empresa de café cercana. La otra parcela la dejaron sin nada, e inmediatamente después de realizar la operación de distribuir, a mano, la pulpa del café, midieron las propiedades del suelo en ambas parcelas, actividad que repitieron cada seis meses de los dos años que duró el estudio.

También realizaron controles cada seis meses del tipo y números de plantas en las parcelas, además de medidas adicionales de las propiedades químicas y biológicas del suelo y la cubierta vegetal.

En la sección siguiente del artículo exponen los resultados obtenidos, que se pueden resumir de manera gráfica en la siguiente imagen:

Imagen que muestra la diferencia entre las diversas cubiertas vegetales de las dos parcelas. La parcela tratado con el residuo del café es la inferior. De la figura 1 del artículo citado.
Imagen que muestra la diferencia entre las diversas cubiertas vegetales de las dos parcelas. La parcela tratado con el residuo del café es la inferior. De la figura 1 del artículo citado.

Sus resultados son realmente espectaculares. La parcela rellenada con el bagazo del café está llena de árboles jóvenes, mientras que la otra parcela sigue presentando una enorme cantidad de plantas herbáceas, lo que indica que la selva no se ha recuperado. Pero además, algunas de las medidas que tomaron confirman este resultado, como indica la siguiente tabla.

Variable Parcela de control (Error) Parcela con pulpa (Error)
Carbono (%)7,0 (0,6)23 (0,6)
Nitrógeno (%)0,6 (0,01)3,0 (0,7)
Capacidad de intercambio (meq/ 100 g) (2)11 (1)20 (0,7)
pH6,8 (0,1)4,8 (0,2)
Materia orgánica (%)22,9 (0,7)48 (11)
Variables importantes del suelo en la parcela actuada y la de control.
Adaptado de la tabla 1 del artículo citado.

Es fácil ver que cualquier variable ecológica relevante ha mejorado en la parcela de control, de tal manera que el suelo vuelve a ser un repositorio y sistema de filtrado razonable, frente al suelo de control degradado.

Además, pudieron medir el tipo de suelo que cubría cada parcela, no sólo sacaron fotos. El resultado fundamental está en la gráfica siguiente, donde se observa como en dos años, en suelo tratado con la pulpa del café se convirtió en una parte de selva, puesto que son herbáceas, «herb» en el artículo, no hierba fina, «grass», lo que predomina en el suelo:

Porcentaje cubierto según el tipo de vegetación. La parcela de control esa dibujada en gris. La cantidad de herbáceas y hierba se invierten en los dos suelos. «Litter» es la cantidad de materia orgánica vegetal del suelo, también más alta donde se puso una capa adicional de cerca de medio metro de ancho. De la figura 2 del artículo citado.

Otras medidas de la estructura de la cubierta vegetal son también muy positivas. Al medir la estructura de la canopia o dosel arbóreo(3) de ambas parcelas, encontraron los resultados de la tabla siguiente, que indican una fuerte recuperación de la parcela tratada:

VariableParcela de control (Error)Parcela con pulpa (Error)
Altura de canopia (m)1,4 (1,4)4 (2)
% de altura superior a
2 m
2283
% de altura superior a
5 m
2,339,4
Variables que miden la salud de la canopia después de dos años. Adaptado de la tabla 2 del artículo citado.

En la última sección, donde discuten los resultados presentados, confirman primero lo que ya describí en las líneas anteriores: la diferencia entre colocar o no cerca de medio metro de bagazo de café en el suelo es espectacular. Donde se coloca, la selva se recupera muy rápido y en dos años, hay una selva joven. En el siguiente párrafo se centra en los cambios producidos por el bagazo en la química del suelo, que se traducen en un aumento muy grande de nutrientes varios, incluido el fósforo. Éste último es importante porque los suelos de las selvas húmedas suelen ser muy pobres en fósforo y a menudo en un factor limitante en la regeneración del suelo. Pero es que, en general, los suelos tropicales degradados y ocupados por pasto son muy pobres en minerales, lo que retrasa el crecimiento de la selva durante décadas con lo que el aumento de los minerales en la parcela tratada es muy interesante.

Por otra parte, los autores dedican unas líneas a explicar que en la selva joven de la parcela tratada hay incluso algunos árboles que no son «colonizadores tempranos»(4) de áreas vacías presentes sino que se presentan en zonas de la selva ya colonizadas.

El último párrafo del artículo lo dedican a observar todos los posibles problemas que tendría esta técnica, entre los que nombran la cantidad de pesticidas y demás que puede tener la el bagazo del café, el riesgo de que esas u otras sustancias tóxicas pasen a aguas subterráneas, etc. Pero aún con todos estos problemas, parece que la idea de usar bagazo de café para acelerar la restauración de selvas húmedas degradadas es una alternativa viable.

El artículo se publicó en la revista Ecological Solutions and Evidence, vol.2

Notas:

(1) El artículo habla de «coffe pulp», el subproducto de eliminar del fruto de café que se presenta al consumo todo lo que rodea al grano: cerca del 60% del peso total recolectado. Pero como me recuerda al hecho de que al hacer vino, aparece una pasta húmeda que está compuesta de la pulpa de uva, pequeñas ramas y demás de la vid, que se llama bagazo, he decidido llamarlo así en este resumen aunque lo que se extraiga en este caso es el grano de café.

(2) La capacidad de intercambio es mi traducción de la frase «total exchange capability», que es una medida de la capacidad de un suelo de retener cargas positivas. Es una medida muy relacionada con la fertilidad del suelo y su capacidad de eliminar productos tóxicos, puesto que la concentración de cationes permite que las plantas intercambien con más facilidad los nutrientes que necesitan del suelo y que esas cargas se fijen a tóxicos, inertizándolos. Se suele medir en centimol por kg, aunque en el artículo lo miden en la unidad equivalente meq/ 100 g. La Wikipedia en inglés tiene un buen artículo sobre este concepto: Wiki:Cation-exchange capacity.

(3) El dosel arbóreo o canopia es la zona de un bosque de las copas de los árboles. Cuanto más alto y de mayor superficie, más saludable será la selva tropical, en principio. El artículo en español de la Wikipedia define muy bien este concepto: Wiki:Canopia.

(4) Los «colonizadores tempranos» en ecología son los primeros organismos que aparecen en un determinado lugar para ocupar el nicho ecológico. En el caso de la selva húmeda, según los autores del artículo, son árboles con semillas pequeñas que el viento y pájaros pueden dispersar con facilidad.

Fabricación de hidrogeles que se parecen a tendones.

Un artículo reciente de la revista Nature explica la fabricación de estructuras artificiales basadas en hidrogeles(1) que se parecen a los tendones.

Comienzan el artículo con un detalle que a menudo se pasa por alto: los materiales de origen biológico, como madera, nácares, etc. tienen propiedades física que son incompatibles entre sí. Lo mismo pasa con tejidos vivos: los músculos y tendones son fuertes y blandos a la vez. Esta aparente contradicción, no conocemos materiales artificiales que sean a la vez duros y blandos, se produce por un fenómeno muy particular: la presencia de estructuras jerárquicas multiescala.

«Estructuras jerárquicas multiescala» es un concepto algo difícil de definir. Una estructura jerárquica es cualquier construcción cuyo resultado final sea completamente dependiente de las formas de los elementos más pequeños empleados. Por ejemplo, el plegamiento de las proteínas es una estructura jerárquica: la forma final de la proteína depende por completo de la forma de los elementos químicos y sus moléculas y de cómo se organizan. Si es multiescala, entonces quiere decir que cada nivel de esta estructura tiene una escala característica de longitud distinta. Así, por ejemplo los tendones son estructuras jerárquicas multiescala porque su forma final depende por completo de las diversas estructuras que lo forman, y además las longitudes características de cada nivel son distintivas: El tejido total es macroscópico, con longitudes características de mm o cm, a su vez las diversas membranas que lo forman tiene longitudes característica del orden de los 10-2 – 10-3 mm, etc.

Pues bien, el artículo dice que comparado con materiales biológicos que soportan carga, como los tendones(2), los hidrogeles normales son débiles y frágiles. Sólo pensando el número de años que los tendones humanos funcionan razonablemente bien, es algo muy claro. Continúa el artículo hablando de los diversos métodos que se han empleado para poder hacer los hidrogeles mejores materiales para su uso humano, es decir, lograr materiales más duros y resistentes en el tiempo. Los investigadores explican que los métodos empleados hasta ahora se podían dividir en dos grupos: aquellos que mantenían la estructura del hidrogel sin grandes modificaciones, que modificaban sus propiedades mediante la adición de partículas o químicos al hidrogel, y los que creaban estructuras anisótropas(3). Algunos de los métodos para crear estas estructuras son relativamente sencillos de implementar, como congelarlos sometidos a una tensión en una dirección predeterminada.

Pero estos dos métodos alteran la estructura del hidrogel a una sola escala y además, producen materiales mejores que los de partida sólo a veces. De hecho, sigue siendo difícil poder hacer hidrogeles con características estructurales y materiales similares a los materiales biológicos como los tendones cuya fabricación sea sencilla.

Los investigadores del artículo decidieron usar una combinación de métodos para desarrollar su hidrogel: por una lado, la adición de sales a la composición del hidrogel altera los posibles estados de agregación del material, y combinado con congelado direccional del material previo, obtuvieron estructuras cuya forma final depende de las estructuras más pequeñas, y que además tiene diversas longitudes características: estructuras jerárquicas multiescala; como los materiales biológicos.

El método que emplearon y el resultado se puede observar en la figura siguiente:

Fabricación de un hidrogel similar al tendón biológico. La parte superior explica los diversos pasos que se siguen y su resultado, mientras que en la inferior se observan las diversas jerarquías de la estructura del material.
Fabricación de un hidrogel similar al tendón biológico. La parte superior explica los diversos pasos que se siguen y su resultado, mientras que en la inferior se observan las diversas jerarquías de la estructura del material. En b, la estructura macroscópica; comparada además con un tendón real, en c la microscópica y en d y e las estructuras a escalas nanométricas. Las barras de escalas tienen de longitud: b, 5 mm; c, 50 µm; d, 1 µm; e, 500 nm. De la fig. (1) del artículo citado.

Usando un polímero de alcohol vinílico como base del hidrogel, obtuvieron resultados para el hidrogel muy buenos, por lo que se centraron en este producto químico como precursor. A la hora de formar la estructura que deseaban, los autores entendían que el congelado direccional del polímero permitía formar las paredes más «grandes», mientras que el uso de la sal inducía la formación de las nanofibras. Para comprobarlo, prepararon materiales en los que se saltaron algunos de los pasos y los resultados obtenidos confirmaron las ideas que tenían sobre la formación de su hidrogel.

La figura siguiente muestra las estructuras finales obtenidas y su resistencia al estiramiento, donde se observa con claridad que las mejores propiedades mecánicas, la elongación (21 mm / mm) y la energía de ruptura (~131 kJ / m2) más grandes son las del material formado con la combinación de los dos pasos de congelamiento direccional seguido del uso de la sal.

Estructuras formadas según diversos métodos de fabricación (arriba) y ensayos de tracción (abajo).
Estructuras formadas según diversos métodos de fabricación (arriba) y ensayos de tracción (abajo). El valor numérico dentro de las gráficas se corresponde con la energía de ruptura por unidad de área.
El hidrogel a es el mejor de los tres y sigue los pasos de congelación direccional y añadido de sal. El b no tiene una dirección preferente de congelamiento pero añaden la sal y en el c, congelan y descongelan en una dirección preferente 3 veces sin añadir sales. Adaptado de la figura 3 del artículo citado.

Además, como la figura demuestra, el congelamiento direccional es el responsable de las estructuras más grandes, mientras que añadir la sal genera en el material las nanofibras más pequeñas, como los investigadores sospechaban basándose en resultados anteriores.

Estudios mecánicos y estructurales sobre el material demostraron características muy similares las del tendón: 1) su respuesta a la tracción es muy asimétrica porque es mucho más alta en una dirección que en la perpendicular, 2) además de su alta resistencia a la aparición de fallos y 3) un modo de romperse, en fibras que se van desprendiendo, típico de materiales muy anisótropos. De hecho, en los materiales suplementarios del artículo muestran la figura siguiente, donde en una comparación visual de un tendón natural con su hidrogel se observan las similitudes:

Comparación de la estructura del tendón natural, abajo, frente al hidrogel creado por los investigadores, arriba, a distintas escalas espaciales. La similitud a escalas mili y micrométrica contrasta con las grandes diferencias a escala nanométrica, debidas sobre todo a la muy diferente composición de uno y otro.
Comparación de la estructura del tendón natural, abajo, frente al hidrogel creado por los investigadores, arriba, a distintas escalas espaciales. La similitud a escalas mili y micrométrica contrasta con las grandes diferencias a escala nanométrica, debidas sobre todo a la muy diferente composición de uno y otro. De la fig. suplementaria 1 del artículo citado.

Continúa el artículo explicando de manera más detallada como trataron de entender el papel de cada estructura en el comportamiento final de su nuevo hidrogel, con los resultados principales ya comentados anteriormente. Dedican después una sección a describir las diversas características que pueden obtener según la concentración de polímero de alcohol en la mezcla gaseosa inicial y comprobar hasta que punto el material puede estirarse y encogerse varias veces y cómo estos ciclos no alteraban apenas las propiedades del hidrogel, encontrando que mantenía un grado bastante alto de reversibilidad después de diez ciclos.

Posteriormente emplearon gelatina y alginato como material base para el hidrogel, ambos materiales más biocompatibles que el alcohol inicial, comprobando que en todos los casos la fabricación mediante congelamiento dirigido y posterior añadido de sal mejoraba las propiedades del hidrogel resultante. La gelatina con estructura de tendón aumentó la dureza respecto a su hidrogel cerca de 1.000 veces más, al pasar de 0,0075 a ~12 Mj/m3.

Como conclusión final, los investigadores dicen que han demostrado un nuevo sistema de fabricación de hidrogeles que permitirá su uso en múltiples aplicaciones médicas y de otro tipo. Mi corazoncito cienciaficcionero no puede menos que pensar que ya estamos más cerca de hacer cíborgs con tendones muy similares a los humanos, o incluso sustitutos de los que se nos gasten a nosotros, aunque desde luego aún hay muchos pasos que dar hasta llegar a algo así. Este artículo es sólo la puerta que abre estas posibles aplicaciones.

El artículo original se publicó en la revista Nature, vol. 590: Strong tough hydrogels via the synergy of freeze-casting and salting out.

Notas:

(1) Un hidrogel es un material que está compuesto en su mayor parte de agua, «atrapada» en una estructura formada por otras sustancias con propiedades muy interesantes: suele ser biocompatible, la absorción y liberación del agua en su interior es reversible, etc. El artículo de la Wikipedia en español está bastante bien: Wiki:Hidrogel.

(2) Desde el punto de vista de la mecánica estructural, los tendones son los materiales que soportan las cargas (fuerzas) que el músculo produce sobre el hueso para mover el cuerpo.

(3) Las estructuras anisótropas son estructuras cuyas propiedades cambian según la dirección desde la que se observen.

(4) Una sal cosmotrópica es aquella que añadida al agua aumenta su capacidad de generar estructuras al favorecer las interacciones entre moléculas de agua. En la Wikipedia en inglés lo explican bastante bien: Wiki:Kosmotropic.

Fabricación de vidrios con sistemas de inyección

El vidrio, también llamado cristal en Español, es un material que no es muy nuevo para la humanidad. Llevamos usándolo varios milenios, desde el uso de la obsidiana en el neolítico(1), y después de avances muy importante como la caña de soplado de los romanos y gran la automatización de la revolución industrial, no se produjeron avances significativos en su fabricación.

Es muy caro de producir porque no se pueden emplear sistemas de moldeo por inyección: cuando está muy caliente es una pasta muy poco viscosa, que no se presta bien al tratamiento por inyección. Sin embargo, recientemente un grupo de científicos han hecho un avance muy interesante: han logrado fabricar vidrio transparente usando el moldeo por inyección y un post-tratamiento de calentado y sinterización(2) en hornos.

Comienzan su artículo explicando la gran importancia que tienen los vidrios para la sociedad actual, pues forman parte de elementos tan importantes como las fibras ópticas y tan cotidianos como vasos y botellas. Explican después que debido a los altos costes de fabricación y la imposibilidad de emplear sistemas de moldeado por inyección con vidrio hacen que con frecuencia se empleen plásticos para lentes pequeñas, por ejemplo en los teléfonos móviles actuales, en lugar de vidrios.

Sin embargo, las propiedades térmicas, ópticas y químicas de vidrios de sílice, los más comunes, son muy superiores a las de los plásticos. Claro, como el artículo comenta, para poder emplear moldeo por inyección de plásticos, hay que tener unos 200 ºC, mientras que la mayoría de los vidrios se producen a temperaturas en torno a 2000 ºC. Esto hace no sólo que sean difíciles de manejar, sino que la cantidad de energía necesaria para poder fabricarlos sea también muy alta. Los autores del artículo resumen los problemas que tiene el vidrio para poder ser empleado de manera más masiva en dos puntos:

  • Su fabricación exige muchísima energía y
  • no se pueden emplear técnicas de moldeado por inyección con él.

Para resolver este problema, los autores emplean nanopartículas de 50 a 100 nanómetros de diámetro de vidrio mezclados con termoplásticos que emplean en un esquema de fabricación similar al de moldeo por inyección, donde después de moldear la pieza por compresión, se somete a un lavado con agua y posterior tratamiento en horno.

Para iniciar su proceso de fabricación, necesitan un polvo adecuado. Lo fabricaron mezclando nanopartículas de sílice con dos polímeros, uno actuando como plastificante y el otro como solvente. Después de mezclar bien y retirar el solvente, el producto resultante se pudo extruir en máquinas comerciales.

Luego, lo sometieron a procesos de moldeado por inyección habituales, con presiones de 700 a 1.000 bares. El resultado es lo que se suele llamar la «pieza en verde», que luego hay que limpiar usando agua a 40 ºC para quitar el solvente de la misma. Los autores comentan que este proceso, lógicamente, necesita más tiempo según el grosor de la pieza, llegando en sus experimentos a necesitar 10 horas para poder hacer piezas de 10 mm de grosor. Luego, realizan un desagregamiento en esta pieza para eliminar el plástico mediante tratamientos térmico convencionales en un horno con rampas de temperatura controlada, donde la temperatura más alta que necesitaron fue de 600 ºC. El último paso es la síntesis final en un horno de alta temperatura a 1.300 ºC en vacío. Parece mucho, pero la temperatura a la que normalmente se produce el vidrio es superior a 2.000 ºC, con lo que este método presenta ventajas relevantes, como ya se comentó antes.

Todo el proceso hasta la consecución de la pieza final está resumida en la siguiente figura:

Proceso de fabricación de piezas de vidrio con moldeo por inyección.
Las diversas etapas del proceso. De arriba a abajo, se observan la mezcla, su posterior plastificado y uso en el moldeo por inyección, la desagregación y sintetizado final. A la izquierda están dibujos de la estructura interna de los materiales, y a la derecha fotografías reales de los mismos. De la fig. 1 del artículo citado.

Para comprobar si su material podía emplearse directamente en máquinas comerciales, hicieron pruebas con diversas formas, algunas de ellas francamente complicadas como muestra la figura más abajo, y comprobaron que podían llegar a obtener piezas pequeñas con un tiempo total de fabricación de aproximadamente 5 horas por pieza. Además, al usar esta máquina pudieron fabricar una gran cantidad de componentes y formas geométricas, sin posterior pretatratado de la superficie más allá de las etapas de desagregamiento y calentado. De hecho, comentan en un momento posterior del artículo que la rugosidad media de sus piezas es de 3,8 nm.

Hacen notar después que todas las ventajas del moldeado por inyección se mantienen, de tal forma que este nuevo método de manejo del plástico permite la fabricación de micro componentes en vidrio que tiene varios usos. Como ejemplo, usaron lentes de Fresnel, un elemento muy empleado en comunicaciones ópticas. Además, fabricaron también pequeñas cubetas de vidrio que pueden emplearse para su uso en sistemas de microfluidos, con aplicaciones potenciales muy interesantes.

Piezas moldeadas y su versión final.
Piezas moldeadas y su versión definitiva. La figura A presenta las piezas moldeadas, la B algunas de las piezas ya vitrificadas y la c muestran la capacidad de tintar los vidrios empleados. Las barras de escala tienen 10 mm. De la figura 3 del artículo citado.

Al emplear directamente este sistema de fabricación comprobaron que la reproducción del molde por parte de la pieza es tan buena, que la presencia de imperfecciones en el molde es determinante en la calidad de la pieza final, algo bien conocido en este tipo de sistemas de fabricación.

Concluyen el artículo diciendo que el nuevo esquema de fabricación del vidrio que ellos proponen podría dar lugar a un salto en el empleo del vidrio, un material con muchas ventajas sobre el plástico, avanzando así en sistemas de economía que necesiten menos recursos energéticos del planeta. Quizás esto sea una visión muy optimista que no tiene en cuenta que tan pronto como una tecnología es lo suficientemente barata, su uso se generaliza tanto que el consumo final de energía aumenta. Pero está claro que es un avance magnífico aumentar nuestro arsenal de técnicas de fabricación con el añadido del moldeo por inyección al vidrio.

El artículo se publiucó en la revista Science, vol. 372: High-throughput injection molding of transparent fused silica glass.

Notas:

(1) En este blog lo explican muy bien: Historia del vidrio.

(2) La sinterización consisten en el fundido por calor de las partículas que forman un agregado, dándole una mayor estabilidad estructural y generalmente mejores propiedades a la pieza que se somete a este proceso. Se emplean para la fabricación de piezas en dos partes, con una primera parte donde se realiza un moldeado y compresión desde polvo.

Robots blandos con células musculares normales.

Como lector de ciencia ficción, siempre me fascinó la posibilidad de mezclar elementos mecánicos y biológicos a un nivel tan profundo que se pudieran diseñar los biológicos. Investigaciones (relativamente) recientes publicadas en la revista Science Robotics han dado un paso más en esa dirección, al publicar como un grupo de investigadores diseñaron un robot que emplea músculos y esqueletos vivos diseñados en laboratorio para nadar.

Comienza en la introducción estableciendo algo muy obvio: los seres vivos somos muy complicados y realizamos una gran cantidad de tareas complejas de auto-organización de materia, curación, movimiento y sensoras. Explica que la robótica blanda biomimética(1) pretende precisamente imitar estos comportamientos complejos, pero con éxito relativo hasta ahora. Según el artículo, ya se han logrado robots que combinan tejidos vivos capaces de arrastrarse por el suelo o coger cosas, pero sin las capacidades de casi cualquier ser vivo.

Sigue el artículo diciendo que una de las áreas más investigadas es la consecución de músculos artificiales, donde hay una gran cantidad de avances pero que todavía se quedan lejos de las capacidades de los tejidos vivos en cuanto a consumo energético, capacidad de auto-regeneración, etc. Por eso estos investigadores, y otros, tomaron el camino de usar tejidos vivos combinados con materiales artificiales, que generalmente se usan como control o apoyo estructural.

También comentan que ya hay varios ejemplos publicados de robots que emplean células musculares cardíacas, generalmente en estructuras bidimensionales, para realizar control de movimiento, medir/sentir algún tipo de fuerza, etc. Su mayor ventaja reside en que su control es más sencillo, porque una vez que se las estimula con la frecuencia adecuada, no paran de moverse. Al mismo tiempo, ése es su mayor inconveniente. Por eso, algunos investigadores trataron de usar células musculares «normales», es decir, de músculos asociados a huesos, porque además estas células pueden configurarse tridimensionalmente en estructuras mucho más complejas que las cardíacas.

Generalmente el uso de células musculares normales se asocia a robots que andan o se arrastran, pues según los autores del artículo son estos los avances logrados hasta ahora. Por eso su bio-robot(2) que emplea una estructura en muelle como «esqueleto» de un conjunto de células musculares normales para poder nadar es un avance importante. El robot que este grupo diseñó puede nadar y moverse porque la estructura de muelle que soporta las células tiene una rigidez asimétrica, de tal forma que la contracción de las células musculares produce dos tipos de movimiento diferenciado en el robot, según dónde se encuentre: nadar en la superficie aire-líquido y bucear(3) cerca del fondo del líquido. Con esta estructura crearon el robot más rápido hasta la fecha realizado con este método de fabricación. Se mueve más o menos a la misma velocidad que robots basados en células cardíacas, que son mucho más rápidos que los basados en células musculares gracias a su mayor capacidad de oscilación.

En la siguiente sección de resultados explican como lo hicieron y la forma que tiene, y me parece espectacular. Usaron técnicas de impresión en 3D, impresión aditiva, para imprimir tanto el «esqueleto» como un conjunto de hidrogel donde se hicieron crecer las células musculares, como muestra la siguiente figura:

Forma del bio-robot impreso con técnicas 3D. La foto de abajo muestra las células musculares. De la figura 1 del artículo citado.
Forma del bio-robot impreso con técnicas 3D. La foto de abajo muestra las células musculares. De la figura 1 del artículo citado.

Para hacer el esqueleto emplearon un plástico, el PDMS(4), mientras que las células musculares que forman el anillo exterior se integraron en una matriz de hidrogel para poder primero darle forma y luego que en el proceso de secado se mantuvieran fijas.

Bio-robot real. La escala blanca de abajo es de  3 mm. Se aprecia el tejido muscular en forma de banda alrededor del «esqueleto» plástico, y las dos oscilaciones internas del mismo que le permiten moverse bien. Tuvieron que hacer varias pruebas hasta lograr que las células musculares pudieran moverse bien con el esqueleto. La foto viene de la fig. 2 del artículo citado.

Bio-robot real. La escala blanca de abajo es de 3 mm. Se aprecia el tejido muscular en forma de banda alrededor del «esqueleto» plástico, y las dos oscilaciones internas del mismo que le permiten moverse bien. Tuvieron que hacer varias pruebas hasta lograr que las células musculares pudieran moverse bien con el esqueleto. La foto viene de la fig. 2 del artículo citado.

Tras explicar cómo montaron el esqueleto, explican también qué materiales introdujeron en el hidrogel para permitir que las células que inyectaron se quedaran quietas y no murieran, además de describir el proceso empleado para hacer crecer las células, un proceso largo que aquí no quiero reseñar. Sólo comentar que no es nada inmediato y que requiere paciencia: un mínimo de tres días hacen falta para dejar crecer las células iniciales que luego se transformarán en el músculo. Todo el proceso lleva de 4 a 8 días.

La mecánica del desplazamiento y movimiento del bio-robot es sencilla: cuando mediante estimulación eléctrica el músculo se contrae, las vueltas del esqueleto se acortan, y cuando se permite al músculo relajarse, se vuelven a alargar. La imagen siguiente lo muestra muy bien:

Fuerzas ejercidas en el bio-robot y la contracción que generan en el mismo. Con este movimiento básico, el dispositivo puede realizar los movimientos reseñados.
Fuerzas ejercidas en el bio-robot y la contracción que generan en el mismo. Con este movimiento básico, el dispositivo puede realizar los movimientos reseñados. De la figura 2 del artículo citado.

Para llegar esta configuración, realizaron simulaciones y estudios del «esqueleto» con modelos de elementos finitos, para ver qué configuración era capaz de moverse mejor. Vieron tres modelos con diferentes curvaturas en las dos bobinas internas que emplearon, prestando mucha atención a la distribución de fuerzas en la estrucutura en contracción, dado que fuerzas muy localizadas podían dañar el tejido. Por otra parte, algún tipo de asimetría en las fuerzas ejercidas sobre el tejido muscular es bueno, dado que promueve el crecimiento de tejido capaz de moverse mejor y es la clave para el movimiento final del bio-robot: si se contrajera y expandiera de manera totalmente simétrica nunca podría moverse. Para comprobar que la asimetría producida por su diseño era clave en este movimiento, usaron las mismas técnicas experimentales, pero con un «esqueleto» que eran dos pares de palos enfrentados, lo que tiene una simetría mucho mayor que su diseño. El resultado fue que el tejido muscular no se podía mover de manera regular, lo que confirmó la idea de los investigadores, ya probada en experimentos previos por otra gente, de que era fundamental la asimetría en el sistema esqueletal.

Al estudiar con más detalle su bio-robot, vieron que si bien se podía mover siempre que hubiera una cierta ruptura de simetría en el sistema de soporte o esqueleto, para lograr cierto control sobre ese movimiento tenían que poder controlar la asimetría que se produjo. Este control se lograba al fabricarlo, controlando la rigidez del plástico empleado en cada parte del soporte.

Explican después las características hidrodinámicas del movimiento del bio-robot, diciendo que a muy bajos números de Reynolds nada puede moverse en un líquido a menos que ese movimiento tenga una cierta asimetría. En la naturaleza, las bacterias alcanzan esa asimetría mediante movimiento rotatorios de sus flagelos. Estimando el valor del número de Reynolds(5) de su robot llegan a un valor entre 1 y 5, que es muy bajo, por lo que las asimetrías en la contracción y el movimiento del fluido alrededor del bio-robot son la clave para su movimiento, algo que confirmaron mediante el empleo de simulaciones hidrodinámicas.

La última sección del artículo trata de resumir lo que han conseguido y explican la importancia de la ruptura de simetría controlada en lograr el movimiento de su sistema, destacando la rapidez que tiene al moverse y cómo los siguientes pasos son lograr que su bio-robot sea compatible con más fluidos que los del laboratorio y mejoras en el control de los bio-robots, de momento muy crudo y basado en moverse o no.

El artículo se publicó en la revista Science Robotics, que no es accesible sin pagar. Pero los autores publicaron una versión previa del artículo, casi seguro que prácticamente idéntica a la original, que es la que yo reseño aquí. Está accesible en los prepints de bioRxiv, un repositorio de artículos relacionados con la biología: Bio-hybrid soft robots with self-stimulating skeletons.

Notas:

(1) La robótica blanda biomimética es la rama de la robótica que, usando tejidos blandos naturales o artificiales, trata de imitar y lograr las capacidades de los seres vivos, pero diseñadas y comprendidas desde el laboratorio. Tiene un uso fundamental en medicina, porque los robots en instrumentos tradicionales no siempre se pueden introducir en el cuerpo humano, bastante más blando que los metales o plásticos que se usan tradicionalmente en robótica.

(2) Bio-robots es la palabra empleada en el artículo para definir los robots construidos de manera artificial, pero con la unión de tejidos vivos, también alterados genéticamente para cumplir una determinada misión.

(3) La palabra que emplean en inglés es «coasting», que se puede traducir como dejarse ir sin apenas influir en el movimiento, pero como este bio-robot tiene que moverse para realizar este tipo de actuación, preferí traducirlo por bucear.

(4) PDMS: Polidimetilsiloxano. Un polímero que se puede introducir de manera segura en el cuerpo, que se puede fabricar con viscosidades muy distintas. El artículo en español de la Wikipedia es muy bueno y completo: Wiki:PDMS.

(5) El número de Reynolds es un valor adimensional que explicita la relación entre las fuerzas de movimiento y rozamiento en cualquier sistema donde haya un fluido en movimiento.

Medir la gravedad para masa muy pequeñas

Todos somos conscientes de que las cosas pesan debido al efecto de la fuerza de la gravedad sobre su masa. Los físicos, además, generalmente sabemos que se puede explicar bastante bien esta interacción gracias a resultados e ideas de Einstein y su teoría de la relatividad, que se ocupa precisamente de cómo se mueven las cosas debido a su masa. Pero hay varios problemas con la fuerza de la gravedad.

Uno de ellos es que se pueden comprobar sus predicciones para masas grandes; con objetos del tamaño de estrellas y galaxias es relativamente fácil: basta con usar un telescopio y ponerse a mirar cómo se mueven galaxias, estrellas y demás. Hacer las comprobaciones de la fuerza de la gravedad para masas más pequeñas, sin embargo, empieza a representar un desafío por varios motivos. El principal es que la propia fuerza es muy pequeña, lo que implica que su valor es más difícil de distinguir del ruido, lo que complica mucho los experimentos. Por eso, casi todas las medidas de cómo funcionaba la fuerza de la gravedad a distancias muy cortas y masas pequeñas se habían realizado con masas del orden del kilogramo. Hasta ahora, que unos investigadores lograron extender el rango de medidas del efecto de la gravedad a masas de menos de 100 miligramos: ¡bajaron 5 órdenes de magnitud la cantidad de masa usada!

Pero, ¿por qué es esto importante? Pues muy sencillo: si hay algo que nos gusta a los físicos, es que nuestros modelos dejen de funcionar. Es decir, que dejen de predecir adecuadamente lo que se observa experimentalmente. Ello implica que hay nuevas relaciones, nueva física por descubrir. Y cuando eso no sucede, lo segundo mejor que puede pasar es que se confirme lo que ya teníamos claro. Por eso se realizan continuamente experimentos que empujan un poco más allá de lo ya comprobado leyes y resultados establecidos: para comprobar si las leyes conocidas pueden aplicarse más allá de sus fronteras conocidas.

La sección principal de este artículo comienza la revisión de la medida de la fuerza de la gravedad comentando que casi todas las comprobaciones que tenemos de la teoría de la Relatividad(1) se han realizado mediante la observación de objetos estelares con masas y distancias enormes: agujeros negros, estrellas, etc. Además, también en experimentos de laboratorio muy controlados en la Tierra, se ha podido comprobar que los efectos de la gravedad son los que la teoría predice para distancias por debajo de los milímetros. Explican que si bien se ha comprobado el efecto de un campo gravitatorio sobre objetos tan pequeños como para tener en cuenta efectos cuánticos(2), las fuentes del campo gravitatorio siempre eran grandes: o bien la propia Tierra, o bien del orden del kilogramo.

Así, experimentos donde las masas que provocaran el campo gravitatorio fueran mucho más pequeñas hay menos, y con masas de cientos de miligramos. Citan como ejemplos de estos últimos experimentos un experimento en el que un disco de platino con agujeros provocaba una oscilación en su campo gravitatorio que se medía desde una distancia de 52 µm, 52 · 10-6 m con una masa de aprox. 700 miligramos. Comentan que usar los esquemas habituales de medición basados en excitaciones resonantes o modulaciones periódicas del campo gravitatorio son difíciles para valores de masas más pequeños, principalmente por dos problemas. Por un lado, se hace muy difícil aislar los efectos de la gravedad de otro tipo de perturbaciones, especialmente de las vibraciones mecánicas y electromagnéticas. Además, la detección de resonancias mecánicas que se suele usar usar para medir la señal de la gravedad, no es capaz de discriminar entre las causas de la oscilación resonante, de forma que aislar los efectos de la fuerza gravitatoria es muy complicado.

Por eso ellos emplearon otro esquema experimental totalmente distinto, en el que combinaron la detección de la fuerza gravitatoria de un sistema muy bien equilibrado con una estimación independiente del error sistemático, lo que les permitió medir el efecto de la gravedad entre dos masas menores a 100 miligramos.

El experimento es muy ingenioso, como muestra el esquema de la figura siguiente.

Esquema del experimento. Tomado de la figura 1 del artículo citado.

La idea es generar una alteración en el campo gravitatorio de la bola mt con las oscilaciones de la masa ms, que se observarán con los cambio que provocan en la balanza de torsión(3) de la que forman parte las dos esferas unidas mt y ma. Con este sistema, las perturbaciones en el campo gravitatorio producidas por el movimiento de la esfera ms se pueden registrar en la balanza y comprobar si se corresponden con las que la gravedad implicaría para las masas conocidas.

Por supuesto, el experimento es muy complicado por la poca cantidad de masa que emplean. En primer lugar, para evitar las vibraciones producidas por las moléculas del aire, el experimento se realiza en una cámara de vacío. Además, para evitar las perturbaciones electrostáticas que pueden darse entre las dos esferas, la esfera de la balanza se encierra en una jaula de Faraday(4) y la cámara de vacío se recubrió de oro y conectó a tierra eléctrica para tratar de minimizar los efectos de las corrientes o cargas de cualquier tipo que puedan estar presentes. Para poder descartar la presencia de campos magnéticos que pudieran perturbar los resultados midieron las intensidades del campo magnético dentro de la cámara donde se realizó el experimento, obteniendo valores nulos o tan pequeños que no podrían afectar a los resultados.

Además, hay otros problemas de más difícil solución: dado que la fuerza gravitatoria tiene un alcance ilimitado, como los autores del artículo señalan, la simple presencia de gente alrededor del experimento, por no decir los coches u otros objetos másicos rodeando al mismo, pueden alterar la oscilación. Si esta alteración es lo suficientemente grande, no se va a poder medir nada. Para evitar eso, se tomaron los datos en días de vacaciones de Navidad y a horas en las que no habría nadie en el laboratorio. También hay que evitar vibraciones mecánicas, que en el caso de los elementos exteriores al experimento se minimizaron escogiendo las horas en las que había menos tráfico. Para evitar las vibraciones mecánicas debidas a las resonancias de la propia estructura de la balanza de torsión, se escogió una frecuencia de oscilación muy alta para la masa que se movía, 12,7 MHzs. Con esto se logra que la señal buscada, a 12,7 MHzs quede completamente fuera del rango posible de las vibraciones mecánicas de la balanza, por lo que su efecto era despreciable y el comportamiento de la esfera era como el de una esfera libre.

Resultados obtenidos. Las vibraciones esperadas, y su resonancia a doble de frecuencia se observan con claridad, tanto en los desplazamientos, línea azul, como en las fuerzas, línea roja. Las líneas grises indican el nivel de ruido experimental, con lo que las señales registradas están bien por encima de este valor. Fíjense el valor mínimo de las unidades empleadas (nanómetros, 10⁻⁹ m, para el desplazamiento y fentoNewtons, 10⁻¹², Newtons para la fuerza) De la figura 2 del artículo citado.

Como la imagen de arriba muestra claramente, todas las precauciones y medidas para evitar problemas dieron su fruto y pudieron observar el efecto de la fuerza gravitatoria entre dos masas muy pequeñas, de tan sólo 92 y 97 miligramos. Y además, al observar esta fuerza, pudieron medir el valor de la constante de Gravitación universal G, que aparece en la ley que gobierna la atracción entre dos masa. Sus resultados fueron muy similares a los admitidos como mejores ahora mismo, publicados por un comité internacional para la ciencia y tecnología, llamados generalmente valores CODATA, como muestra la figura siguiente:

Valores de la constante de gravitación Universal medidos en diversos momentos con su error. Las líneas son los valores medidos y los sombreados de colores, su error. Para dar el valor final, línea roja, se hizo una media de las mediciones individuales, con las líneas punteadas rojo-anaranjadas indicando el error de la medida. El valor CODATA es la línea punteada negra.

Como se puede ver, los valores obtenidos y su valores medio son algo más bajos que el valor CODATA, 6,04 frente a 6,67. Esta diferencias no son muy importantes porque primero, entran dentro del error cometido y segundo, los errores sistemáticos de medida pueden explicarlo perfectamente.

Si uno lo piensa con detenimiento, el resultado es impresionante. Hasta ahora, no se había logrado comprobar que la fuerza de la gravedad actúa entre dos masa tan pequeñas como se esperaba que actuase, extendiendo así la posible aplicación de la fuerza de gravedad a valores muy pequeños y provocando más de un dolor de cabeza a los físicos teóricos, que tienen difícil conjugar esta fuerza con las restantes que se supone dominan el universo.

El artículo salió publicado en la revista Nature, en el vol. 591: Measurement of gravitational coupling between millimetre-sized masses.

Notas

(1) La teoría de la Relatividad de Einstein es la mejor forma que tenemos hasta ahora de entender la masa y la gravitación, a pesar de los problemas que genera. Uno no menor es la imposibilidad de unir o juntar esta fuerza de la gravedad fácilmente con las otras fuerzas fundamentales conocidas: Electromagnética, nuclear débil y nuclear fuerte.

(2) Los efectos cuánticos son los que se producen cuando los objetos que se pretende relacionar son tan pequeños que la idea del continuo de la materia ya no puede ser empleada y la naturaleza discreta de los objetos debe ser tenida en cuenta. El artículo de la Wikipedia en español sobre la mecánica cuántica es bueno: Wiki: Mecánica Cuántica.

(3) Las balanzas de torsión son unos aparatos consistentes en dos esferas unidas rígidamente que permiten medir fuerzas muy pequeñas por las distorsiones producidas en el ángulo de la barra respecto al reposo. El artículo de la Wikipedia en español no está del todo mal: Wiki: Balanza de torsión.

(4) Una jaula de Faraday es una caja metálica que está conectada a tierra eléctrica. En su interior no pueden penetrar los campos electromagnéticos del exterior, lo que la convierte en un lugar aislado eléctricamente.

Plásticos con alta capacidad de reciclaje

Vivimos en un mundo de plástico. Tanto es así, que ya se empiezan a ver «rocas» formadas por agregados de microplásticos(1), además de las famosas islas de plástico en el medio de los océanos(2). Pero su uso es muy necesario, por lo que hay que encontrar estrategias que permitan su reutilización y reciclado.

El problema es que, precisamente debido a su estabilidad química y mecánica, no se degradan de ninguna manera, por lo que tirarlos y esperar no es una opción muy inteligente, aunque sea la que se emplea de manera mayoritaria. Pero incluso su reciclaje es difícil. Para reciclar y reutilizar un material, hay dos formas de hacerlo: medios químicos y medios físicos. Para los plásticos, hasta ahora sólo se podían usar medios físicos, porque por su propia estabilidad química era muy difícil lograr reciclar una parte importante del material. Pero esta forma de reciclaje no deja un material de la misma calidad, y suele tener un rendimiento muy malo.

Hasta ahora, que ha salido un artículo muy reciente donde se desarrolla un plástico que se puede reciclar mediante métodos químicos y obtener buenos rendimientos. Comienzan el artículo diciendo que emplean unos polímeros de poliéster y policarbonato, plásticos caros y de uso muy generalizado, como modelos de que su método puede funcionar bien. También explican que el método que emplearon para producir estos plásticos, a los que llaman PC-18, les permitió tener unos polímeros con capacidades mecánicas similares a las de los plásticos industriales, comenzando desde polímeros comerciales obtenidos mediante reciclado y síntesis de grasas y aceites vegetales. Uno de los resultados esperados que observaron es que las temperaturas de cristalización(3) de su nuevo plástico PC-18 es algo más baja que la de los plásticos actuales, pero que no tiene ninguna influencia en su uso industrial.

En la siguiente sección exploran la posibilidad de usar estos plásticos tanto en máquinas modelo de sistemas de extrusión comercial como para filamentos de máquinas de impresión aditiva o impresoras 3D. Como muestra la siguiente figura, los resultados son excelentes. En ella vemos unas muestras que se someten a ensayos de tensión(4), y su comportamiento es el de un plástico de buena calidad, rompiéndose tras una elongación grande.

Resultados de ensayos de elongación junto con el aspecto de las probetas. figura 2.e del artículo citado.

Comprobaron además que podía imprimir en varias superficies de cristal y otros plásticos, cosa que plásticos actuales no pueden hacer tan fácilmente, porque necesitan superficies especiales. Esto sería una ventaja extra de este tipo de plásticos.

Luego tratan el tema del reciclado de este nuevo tipo de polímero en ciclos cerrados(5). Y dado el tipo de plástico que lograron hacer, tienen resultados espectaculares. Logran reciclado químico del material con efectividades muy altas y usando el disolvente metanol. De hecho, pueden incluso reciclar ese plástico con colorantes y mezclado con otros plásticos, como indica la figura siguiente:

En esa pequeña probeta de la izquierda hay diversos plásticos, incluido en nuevo PC-18, se les añade el metanol(MeOH) y se obteine el monómero del PC-18. De la figura 4.b del artículo citado.

El líquido que se observa en la figura del medio está llena del metanol y de los monómeros del PC-18, pero como el material del plástico se evapora mucho antes que el metanol, por simple destilación logran después cristalizar el monómero con una pureza superior al 99% que presentan en la fotografía de la derecha.

En las siguientes secciones del artículo explican que han presentado en el artículo un método que permite tener plásticos que pueden reciclarse de manera indefinida con condiciones muy útiles, una temperatura muy baja de 120º C y el uso de metanol, un producto químico no demasiado peligroso. Continúa después explicando los métodos empleados para producir su plástico, que no es demasiado interesante. Ahora bien, sí que es mucho más interesante terminar este artículo explicitando un poco cómo lo logran. Lo que han hecho es hacer monómeros que tengan cadenas más cortas, que por lo tanto son más fáciles de «cortar».

El artículo se publicó en la revista Nature en febrero de 2021: Nature, vol. 590: Closed-loop recycling of polyethylene-like materials.

(1) Este artículo describe su presencia en las islas Azores: Plasticrust.

(2) La más fácil de medir el a que está situada en el medio del Pacífico, y es la que se suele considerar como tal. El artículo en español de la Wikipedia es muy decente: Wikipedia: Isla de basura.

(3) La temperatura de cristalización de un polímero es la temperatura a la que empieza a hacersa más blando y maleable. El artículo de la Wikipedia es español sobre la temperatura de vitrificación lo explica muy bien: Wiki:Temperatura de transición vítrea.

(4) Los ensayos de tensión consisten en someter a una muestra del material a estudiar con una forma estándar y tirar de sus extremos, para comprobar cuánta fuerza soporta.

(5) Reciclado en ciclos cerrados se refiere a la posibilidad de que el resuado del material pueda realizarse indefinidamente, como sucede por ejemplo con el aluminio o el cobre.