Compuestos plásticos y de nácar con transparencias como las del vidrio.

Los vidrios(1) son materiales muy útiles para el ser humano. Son duros, impermeables, suelen ser resistentes a los ataques químicos de muchas sustancias, se pueden reciclar con facilidad, por no mencionar su transparencia a la luz visible, que los hace tan útiles en la formación de lentes y elementos del estilo.

Pero tiene algún problema, el principal su fragilidad. Son muy duros, por eso aguantan muy bien grandes tensiones, pero son frágiles: cualquier golpe lo hace romper. Otros sustitutos más flexibles, como el plástico, son maleables, pero blandos y no aguantan grandes temperaturas.

Recientemente, un grupo de científicos ha conseguido crear un material que combina características tanto de plásticos transparentes como de vidrios: es muy duro y transparente a la vez. Usando una mezcla de polímero metacrilato y láminas planas de vidrio de tamaño micrométrico han creado un compuesto que han denominado «compuesto nacarado» por la similitud de sus propiedades mecánicas con el nácar natural.

Los investigadores se fijaron en el nácar por sus propiedades mecánicas: es unas tres mil veces más duro que los elementos que lo forman y tiene una resistencia a la fractura también muy alta. Comentan también que con la intención de copiar la estructura del nácar para su uso industrial, varias técnicas se han implementado, desde la aplicación de películas delgadas hasta su infiltración con polímeros entre láminas de cristal. También se ha intentado formar estructuras en el cristal que imiten la del nácar empleando láseres u otros métodos, pero son sistemas muy caros y de difícil escalibilidad industrial.

Así, en su investigación los autores tenían que lograr dos objetivos distintos en el material que crearon: tener una parte dura y muy poco flexible, muy unida a otra parte flexible y deformable. Además, para que la transmisión de luz fuera buena, el índice óptico de ambas partes del material deberían coincidir lo mejor posible. Por eso emplearon vidrios transparente como componente duro y metacrilato como componente blando. El problema es que, si bien el metacrilato es transparente, no tiene el mismo índice de refracción del vidrio, con lo que el conjunto no sería muy transparente. Pero lo pudieron solucionar añadiendo un dopante al metacrilato que alteró su índice de refracción hasta hacerlo muy similar al del vidrio, algo que ya estaba resulto previamente.

De todas formas, el tener los materiales no es el final de la historia: también hay que lograr que la estructura de la mezcla sea la adecuada. Para ello, los vidrios los añadieron en forma de láminas, para imitar la forma que tiene el nácar de láminas pegadas con el material más blando. Y claro, también tuvieron que lograr que vidrios y metacrilato se pegaran bien. Para ello, prepararon las láminas de vidrio con compuestos que alteraron su superficie para favorecer su mezcla con el metacrilato. Luego, para que el producto mezclado adoptara la forma adecuada, lo centrifugaron(2) de forma que las tablillas de vidrio y el metacrilato adoptaron la forma de los ladrillos y el cemento en una pared. Después, polimerizaron el metacrilato mediante tres etapas de calentamiento.

El resultado, después de dopar el polímero, fue un material con una transparencia muy parecida a la de cualquier vidrio incluido el comercial(3) como se observa en la figura siguiente, que muestra su transparencia de una manera muy visual.

Comprobación de la transparencia del nuevo material. El material más opaco tiene la misma composición, pero sin ajustar el índice de refracción mediante el dopante para el metracilato. La diferencia es claramente visible. De la fig. 1 A del artículo citado.

Por otra parte, además de verlo de una manera tan visual, lo midieron directamente. Es decir, comprobaron la trasmitancia de la luz en las longitudes de onda del visible, de 400 a 700 nm, de este material y lo compararon con vidrios y otros intentos previos de otros investigadores. Como muestra la figura siguiente, su material tiene propiedades muy similares al vidrio comercial en las longitudes de onda visibles.

Transmitancia de la luz para varios materiales. La línea roja a rayas es la del vidrio, «soda-lime glass slide» en el texto en inglés, mientras que las negras son intentos previos de otros investigadores y la amarilla es la del producto que han desarrollado, que llama «PMMA-12% dopant». En el rango de la luz visible su transparencia es muy parecida a la del vidrio, atenuando sobre todo la radiación ultravioleta cercana del comienzo de la gráfica, longitudes de onda de 350 a 400 nm. De la fig. 1 B del artículo citado.

Por otra parte, si este material tiene que sustituir al vidrio, también tiene que ser fuerte. Idealmente, debería tener mayor flexibilidad para convertirse en un «vidrio flexible». En el artículo resaltan la importancia del centrifugado, dado que logra concentrar y ordenar las placas de vidrio de tal forma que su estructura interna se hace más resistente sin perder demasiada flexibilidad, como indica la figura siguiente.

Curva de esfuerzo de flexión para el material preparado con el tratamiento superficial de las láminas de cristal y centrifugado de la mezcla, línea negra, sin centrifugado, línea roja, y sin tratar las láminas ni centrifugar el material, línea azul. La mejora en las propiedades de flexión, aguantando mucha más presión, es obvia para el material completo. De la fig. 3 A del artículo citado.

Para terminar el artículo los autores comparan su material en el diagrama de Ashby(4) compuesto con la resistencia a la fractura y la tensión, donde claramente su material se compara muy favorablemente con varios materiales comerciales actuales, como muestra la figura siguiente:

Diagrama de Ashby de varios materiales, incluido el fabricado por los autores del artículo, que señalan con color rojo. Como se ve, es mejor que algunos vidrios comerciales, incluido el vidrio templado en resistencia a la fractura y tensión soportada. Las conchas de los moluscos , «Mollusc shell», y el la parte externa del hueso, «Cortical bone», son mejores materiales en cuanto a dureza, si bien se rompen con menor fuerza. De la fig. 5 del artículo citado.

El material que han logrado es impresionante: puede competir con varios vidrios artificiales, siendo mejor que ellos y es transparente en la luz visible. La verdad es que sería un material maravilloso para parabrisas y ventanas, que serían mucho más resistentes.

El artículo se publicó en la revista Science: Science, Vol. 373, Nº 6560. pp. 1229-1234 • DOI: 10.1126/science.abf0277.

Notas:

(1) Aunque a veces se los confunda, «cristales» y «vidrios» son cosas muy distintas para los físicos y otros científicos. Un cristal es un material cuya estructura interna es la repetición de unidades iguales, llamadas celdas, con una geometría muy bien definida. Por ejemplo, un cubo, una pirámide, etc. Los vértices de las figuras son los lugares ocupados por los átomos y la configuración es debida a las fuerzas entre los átomos. Un vidrio es un material cuya estructura interna no esa tan bien definida, es mucho más amorfa. Las entradas en la Wikipedia en Español lo explican bastante bien: Wiki:Cristal y Wiki:Vidrio.

(2) Es decir, lo mezclaron dándole vueltas a muy alta velocidad.

(3) En inglés se llama soda-lime-glass.

(4) Los diagramas de Ashby son gráficas donde dos propiedades relacionadas de un material se colocan como ejes para poder comparar mejor las ventajas y desventajas de su uso. El artículo en Inglés de la Wikipedia sobre selección de materiales lo explica muy bien: Wiki: Material Selection.

Extracción de Litio del agua de mar

El Litio es uno de los metales más ligeros que se conocen, pero de una importancia cada vez más fuerte en la industria y la sociedad. Es uno de los metales que más se emplean en la fabricación de baterías y tiene poco repuesto; sus características electrónicas hacen que sea difícil sustituirlo por otro.

El problema fundamental que tiene su uso es su escasez: como de momento no lo usamos mucho, no hay escasez. Pero varios cálculos indican que si se pretendiera escalar la producción de Li para la fabricación de baterías, habría problemas para satisfacer la demanda de este metal mediante las minas conocidas y disponibles, como las famosas minas de sal de Bolivia(1). Sin embargo, unos investigadores han encontrado la forma de extraerlo del agua de mar de manera económicamente factible si se acopla esa extracción con otras industrias extractivas.

Comienzan su artículo indicando que la cantidad estimada de Li en el mar es unas 5.000 veces más grande que en tierra, pero con un gravísimo inconveniente. Su concentración es muy baja, del orden de 0,2 ppm(2). Al mismo tiempo, otros iones presentes en el mar tiene concentraciones mucho más altas. Como ejemplo, la concentración de sodio, calcio y otros iones es mayor que 13.000 ppm.

Revisando los posibles métodos de separar el Li en el mar, los autores del artículo presentan varias posibilidades de absorbentes para después de unir el Litio al absorbente, precipitar este compuesto para obtener el Litio. Sin embargo, según los autores del artículo, los absorbentes tienen el grave inconveniente de que hay que sustituirlos en el tiempo por que se consumen en la absorción. Por ello ellos decidieron seguir el camino de precipitar sales de litio, concretamente la sal Li3Po4, ayudadas por una corriente eléctrica y una membrana. Es decir, primero se trata de concentrar el Li en el agua de mar mediante el paso del agua por la membrana y luego precipitar el Litio al cambiar el Ph de la solución de manera que precipite una sal.

El truco consistió en emplear una membrana cristalina densa de Litio, Lantano y Óxido de Titanio (TiO3), que abrevian como LLTO. Para las pruebas que hicieron, la membrana tenía un diámetro de ~20 mm y un ancho de aproximadamente 55 µm. El ancho de la membrana no es casual, porque la selectividad de la misma para con el litio depende de la misma. De hecho, según refieren los autores en el artículo, el ancho de su membrana es unas 10 veces menos que otros experimentos similares, lo que ayudó sobremanera a sus resultados.

Como es frecuente en estructuras cristalinas, la alta selectividad del Litio por parte de la membrana se debe a la estructura del cristal, que tiene el tamaño justo para dejar pasar sólo estos iones. Como son de los más pequeños que contiene el agua de mar con un diámetro de 1,18 angstroms(3), son los únicos que pueden atravesar la membrana con facilidad.

El uso de este tipo de membranas también tiene sus problemas, porque se pueden corroer y estropear, aunque más que por oxidación directa, por «reducción». Es decir, en lugar de ceder electrones al ambiente los absorbe, de forma que también tiene que cambiar su composición química para compensar la carga negativa extra(4). Por ello, tuvieron que generar un entorno ácido cerca del cátodo, el electrodo negativo. El esquema del experimento se presenta en la figura siguiente.

Esquema de la celda de concentración precipitación del Li. «AEM» es el acrónimo de «membrana de intercambio iónico», en inglés que permite la separación del Cl en la zona saturada de sal común. A la derecha, el «H3PO4 buffer» es la sustancia empleada para incrementar la acidez de esa parte de la celda. Como se aprecia arriba, para poder seleccionar el litio hay que establecer un voltaje. Imagen extraída de la fig. 1 del artículo citado.

Con esta celda lograron concentrar la cantidad de litio hasta un nivel final de 9.000 ppm en cinco etapas sucesivas, cada una con una duración de 20 horas. Mediante este sistema de funcionamiento en etapas, se podría pensar en usar una etapa inicial como líquido a concentrar en la siguiente etapa, de manera que el proceso final sea uno de cascadas sucesivas de concentración de Litio que pueden ser construidas y diseñadas con relativa facilidad. Y además pudieron comprobar, como indica la siguiente tabla, que la concentración de otros iones permanecía muy baja después de la primera etapa, lo que indica una muy alta selectividad del metal que se desea, litio.

Li (ppm)Na (ppm)K (ppm)Mg (ppm)Ca (ppm)
Agua de mar0.21 +- 0,0112.400 +- 100750 +- 301560 +- 20480 +- 7
Primera etapa75 +- 1270 +- 65,8 +- 0,21,37 +- 0,020,54 +- 0,02
Quinta etapa9.000 +- 100300 +- 77,7 +- 0,21,48 +- 0,0040,56 +- 0,02
Concentración de los iones del agua de mar tras pasar por las etapas de concentración primera y última. De la tabla 1 del artículo citado.

En el siguiente párrafo del artículo comienzan resumiendo las características eléctricas del proceso, indicando que se producen a corrientes estables durante todo el proceso de concentración, excepto por un aumento de la corriente inicial debido a que algunos iones se fijan en los electrodos y la membrana. Este detalle, junto con la disminución en el tiempo de la corriente en la quinta etapa de concentración y algunos detalles del experimento, les permite a los autores deducir que la concentración de litio en las cuatro primera etapas depende sobre todo de la concentración en el agua circulante, antes que de la diferencia de la concentración de iones Li entre los dos lados de la membrana LLTO.

Por otra parte, comprobaron como después de la etapa de precipitación para obtener la sal Li3PO4, el producto final es lo suficientemente bueno como para entrar directamente en la producción de baterías. Este resultado se mantiene si sólo se hacen cuatro etapas de concentración, pero no con tres.

Después, y dado que su proceso es tan eficiente y selectivo, estiman el coste energético para obtener un kilo de Litio en unos 77 kW h. Haciendo unos cálculos básicos sobre el coste de la electricidad en los Estados Unidos y el precio que se podrían obtener de otros subproductos de esta reacción, principalmente Hidrógeno y Cloro, concluyen que el costo energético de todo el proceso se compensa de sobra con la venta de los subproductos, sin tener en cuanta que también producen agua potable, de manera que su economía mejoraría más.

Después de comentar todas las características de sus resultados el artículo tiene una sección dedicada a explicaciones detalladas del método experimental que hay que seguir, pero considero que esa sección no es relevante y no la comento aquí.

Por lo tanto, el artículo muestra una vía de producción de litio que permitiría multiplicar de manera considerable la cantidad disponible para la humanidad de este material, de forma que hace más sencillo la adopción masiva de baterías necesaria si queremos hacer la transición a una sociedad que base su consumo energético en energías renovables.

El artículo se publicó en la revista Energy & Environmental Science, vol. 5: Continuous electrical pumping membrane process for seawater lithium mining.

Notas:

(1) La zona con Litio de Bolivia forma parte del «Triángulo del Litio», la región del mundo con mayores reservas. El artículo de la Wikipedia lo explica muy bien: Wiki(ESP): Triángulo del Litio

(2) ppm: partes pro millón.

(3) 1 angstrom es 10-10 m. Como los tamaños de los iones o núcleos atómicos son tan pequeños, es la unidad estándar para poder medir estos diámetros.

(4) Los ácidos y las bases son las dos formas principales de concentración de iones hidrógeno de los compuestos químicos. De los dos artículos de la Wikipedia sobre el tema, es de la Wikipedia en español es bastante corto, pero el de la Wikipedia en inglés es muy bueno: Wiki(ESP):Ácido y base. Wiki(ENG): Acid-base reaction. Por otra parte, la explicación de la Wikipedia en español sobre la reducción química es corta, pero muy bien escrita: Wiki(ESP):Reducción.

Usando los cantos de las ballenas para realizar sismografía.

Cuando se trata de realizar una imagen de las placas tectónicas, uno de los métodos más eficientes es enviar una onda sonora y recoger la onda reflejada en la superficie de la tierra, de forma que estudiando las diferencias entre la onda transmitida y la reflejada se pueden aprender cosas sobre la estructura de las placas. Esto, en principio, exige que se dispongan no sólo sistema de escucha de las ondas sonoras, micrófonos especializados, sino también el empleo de altavoces que emitan pulsos sonoros conocidos. O se pueden emplear los cantos de la ballena de aleta o rorcual común(1), como en un artículo reciente que me llamó la atención.

Resulta que el canto de estas ballenas está entre los más potentes conocido por el hombre, de forma que se escucha desde cientos de kilómetros de distancia, en frecuencias muy bajas, lo que permite que se emitan mejor por el medio marino, de en torno a 20 Hzs. Por otro lado, hay dispuesta en el fondo del mar una red de sismógrafos que «escuchan» las vibraciones de la tierra, precisamente para frecuencias de 50 Hzs y menores. Estos sismógrafos se colocan en el fondo marino cerca de zonas de especial interés, como fallas y regiones que podrían provocar un terremoto y conviene tener monitorizadas y controladas. Y escuchando los cantos de las ballenas, que se les cuelan entre las señales producidas por vibraciones de la propia Tierra, los dos autores del artículo han llegado a calcular detalles sobre la estructura interna de la Tierra.

Los cantos de las ballenas que emplean tienen la forma que se observa en al siguiente figura, muy repetitivos en el tiempo y a frecuencias muy definidas.

Forma del canto de las ballenas de aletas a lo largo del tiempo en sus frecuencias principales registrado en un sismógrafo submarino. Se observa como varía la frecuencia en trenes repetidos en el tiempo, de algunos segundos según la barra de escala temporal superior. De la fig. 1 (A) del artículo citado.

Esta estructura que recogen los sismógrafos submarinos no sólo contiene el canto de la ballena emitido desde la posición del animal, sino también las reflexiones de ese canto en el lecho marino, que son las que usan para estudiar la estructura del mismo, como se recoge en la siguiente figura:

Estructura en el tiempo del canto de la ballena. Se observa la emisión directa, por el camino nombrado W(direct) en la parte E de la figura y las reflexiones del mismo, mucho más atenuadas, el componente W(multiple). De la figura 1(B-E) del artículo citado.

Los sismógrafos estaban situados en la costa enfrente del estado norteamericano de Oregón, y de todas las señales grabadas, los autores del artículo se centraron en seis porque se distinguía con claridad que eran señales de un sólo animal.

Pudieron observar que las ballenas se movían a velocidades de 4 a 10 km/hr, con unas duraciones de sus cantos de horas, de 2,5 a 5 aproximadamente. De estas señales pudieron extraer, con métodos que describen con más detalle en los suplementos del artículo, las trayectorias seguidas por los animales suponiendo que estaban a unos 10 m por debajo del nivel del mar, su zona de navegación cuando cantan.

Con eso y el hecho de que al verse reflejadas en las diversas partes de la corteza terrestre debajo de ellas, las reflexiones llegan a tiempos distintos al sismógrafo, para cada llamada de una ballena pudieron obtener una gráfica que presentaba la intensidad del sonido en el tiempo y en función de la distancia del sismógrafo. Armados de modelos sobre la estructura del manto terrestre, pudieron medir la anchura de las diversas capas reflejadas, que aparecen en la siguiente figura, y compararlas con datos ya conocidos y obtenidos por métodos distintos de una región de estructura interna similar cercana geográficamente. Por supuesto, las transmisiones y tiempos de las ondas P y S(2) al viajar por la estructura del manto se observaron muy bien.

Comprobaron que las capas observadas usando los cantos de ballena se corresponden con las medidas anteriores en otras regiones similares, si bien algo más delgadas, unos 100 a 300 metros menos que en las otras medidas, probablemente por su mayor distancia a fuentes de sedimento en la región de los sismógrafos que las medidas con las que se comparó.

Descripción de la información sobre la estructura de la tierra obtenida mediante el registro de los cantos del rorcual común. La figura superior muestra las intensidades de la señal en el tiempo, con las concentraciones de la misma indicando las diversas capas internas de la Tierra, señaladas con colores y explicadas en la parte más baja de esta figura. La figura del medio, con escala de longitud falsa claro, muestra dónde y cómo se han ido reflejando los sonidos registrados en la primera figura, con las ondas P y S claramente separadas. Imagen adaptada de la fig. 3 del artículo citado.

El artículo se publicó en febrero de 2021 en la revista Science: Seismic crustal imaging using fin whale songs. Vol 371, Issue 6530 • pp. 731-735 • DOI: 10.1126/science.abf3962.

Referencias:

(1) La entrada de la Wikipedia en español sobre este tipo de ballena es muy completa: Wiki:Rorcual común.

(2) Las ondas P y S son los distintos tipos de ondas que se propagan en la superficie, o estructura interna, de la Tierra cuando oscila. Las P corresponden a ondas que oscilan en la dirección enla que se mueven, mientras que las S oscilan en una dirección perpendicular a su propagación. El artículo sobre ondas sísmicas de la Wikipedia en español lo explica bastante bien: Wiki: Ondas sísmicas.

Se puede trasferir el resultado del ejercicio usando componentes de la sangre.

En una investigación reciente publicada en Science, unos investigadores han logrado que los efectos del envejecimiento revirtieran en ratones mayores que no hacían ejercicio.

Comienzan el artículo hablando de la habilidad que tiene el ejercicio físico para revertir o disminuir las consecuencias de la edad avanzada en todo tipo de animales. Y comentan que es, por lo tanto, importante encontrar terapias que imiten este tipo de mejoras producidas por el ejercicio físico.

Siguen explicando que el efecto beneficioso del ejercicio en ratones de edad es muy similar al que se obtiene con transfusiones de sangre de ratones jóvenes.

Siguiendo esta línea de investigación, estos investigadores encontraron que la administración de plasma de ratones viejos que hacían ejercicio a los que no lo hacían también mejoraba de manera clara su salud. De hecho, identificaron a un compuesto producido por el cuerpo cuando se hace ejercicio como el causante de la mejora observada. El compuesto se produce en el hígado.

El procedimiento que siguieron fue el siguiente: primero, tener dos tipos de ratones mayores; uno al que se les proporcionó una rueda y otro a los que se les proporcionó material para hacer nidos. A los dos grupos se les extrajo sangre y, de ella, se extrajo sólo el plasma. Después, a un tercer grupo de ratones «ancianetes» se les inyectaron ambos grupos de plasmas, observando que se observaba mejoría solamente en los ratones que recibían el plasma de los ratones que hacían ejercicio.

Dado que también se mejoraba la salud de los ratones que recibían transfusiones de ratones jóvenes, quisieron encontrar qué factor exacto era el que mejoraba la salud de los roedores. Entonces, trataron de encontrar qué elementos dentro de la sangre eran los que causaban el efecto principal de luchar contra el envejecimiento. Dado que vieron que cerca del 60% o más de los factores que se expresan debido al envejecimiento tenían su origen en el hígado, buscaron aquellos factores que se expresaban allí. De todos los factores que se expresan, encontraron que dos de ellos estaban presentes en abundancia. De los dos, decidieron centrarse en la presencia de una enzima, llamada Gpld1 que no había estado previamente enlazada con el envejecimiento.

Confirmaron posteriormente que su concentración aumentaba en el plasma de los ratones que hacían ejercicio, independientemente de su edad. De hecho, esta concentración del compuesto Gpld1 se correlacionaba con menos errores de memoria al hallar la salida a un laberinto, como muestra la figura siguiente:

Correlación entre la concentración del factor Gpld1 en la sangre y la ausencia de errores en ejercicios de memoria. De la figura 2 E del artículo citado.

Después quisieron encontrar la fuente de este factor en el cuerpo de los ratones, y correlacionaron la expresión de sus genes con el hígado. Este resultado es consistente con investigaciones precias citadas en el artículo que indican que es éste órgano el responsable de su generación. Por otra parte, observaron que la generación del ARN(1) que expresa este factor en el cuerpo no cambian en función de la edad, o administración del mismo en ninguno de los ratones examinados. Pero sí observaron que el ARN se expresaba más después de hacer ejercicio, lo que les induce a pensar que justamente es el ejercicio el desencadenante de este factor Gpld1 en el hígado, y no otro.

Trataron luego de entender la ruta metabólica seguida por el factor Gpld1 en el cuerpo, sin demasiado éxito, dado que no fueron capaces de entender del todo cómo lograba sus resultados. Sí pudieron observar que no es a través del paso directo al cerebro, puesto que este factor apenas aparecía expresado en el cerebro.

Sigue después una sección previa a la discusión final del artículo en la que comentan que es necesario para que este factor Gpld1 trabaje que haya un sustrato en el cuerpo, pero debo reconocer que debido a mi falta de conocimientos de anatomía, no terminé de entender ni qué sustrato es, ni dónde debe estar.

El punto interesante de este artículo es que el uso de sangre o plasma de animales que hayan hecho ejercicio si se transfiere mediante transfusión del plasma sanguíneo, favorece también a animales que no hayan hecho ningún ejercicio.

El lector de ciencia-ficción ciberpunk que anida en mi no puede evitar pensar que, dado este resultado, en poco tiempo habrá un trabajo que sea hacer ejercicio para que te extraigan plasma los ricachos vagos que prefieren pagar antes que sudar para «envejecer» mejor…

El artículo citado se publicó en Julio de 2020 en Science, volumen 369: Horowitz et al., Science 369, 167–173 (2020).

(1) El ARN es el «producto» que se segrega dentro de las células para producir cualquier material o factor que la célula produzca. Así, si hay una gran cantidad de ARN que esté asociado a un factor determinado, quiere decir que cuanto más ARN de este tipo, más factor producirá la célula dentro del órgano.

Los móviles inteligentes se emplean para pensar menos.

Antes de comenzar con este comentario, un pequeño apunte personal. Como todo ser humano, soy algo paradójico. Por un lado, me apasiona la ciencia ficción y la tecnología, me encanta saber cómo funcionan las nuevas tecnologías que se desarrollan y tratar de probar varias de ellas, aparatos nuevos, etc. Por el otro, no dejo de ver y observar los graves inconvenientes que cualquier tecnología trae al ser humano, y concretamente, soy incapaz de sentir la acrítica alegría que observo frecuentemente sobre la introducción de los teléfonos inteligentes en nuestras vidas y sus efectos, siempre vistos desde sólo el punto de vista positivo. Por eso, este artículo que quiero resumir es perfecto: como sucede con frecuencia en ciencia, comienza con una pregunta: ¿afecta de alguna manera medible la posesión de un teléfono móvil al uso de la inteligencia? La respuesta, que desarrollaré, es que sí: el uso de teléfonos inteligentes fomenta la búsqueda de respuestas rápidas y fáciles sugeridas por el móvil en lugar de pensar de manera independiente y analítica, al menos para gente predispuesta a ello.

Comienzan en la introducción con una cita de McLuhan bastante famosa que se puede traducir, más o menos, como: «El medio es el mensaje». Es decir, que la información que nos trasmitimos, luego nuestra cultura, no es independiente del medio que se escoja para trasmitirla. Por ello, afirma que dado que la cantidad de móviles inteligentes ha explosionado en los últimos años, y que su número no para de aumentar, parece claro que se han convertido en un mensaje. Mensaje que en el artículo pretenden ayudar a descifrar.

Después de esta introducción, comienzan por definir la «mente extendida», el concepto que indica que la mente humana actúa acoplada con un ambiente exterior, de forma que influencia y se vé influenciada en su actividad cognitiva por ese ambiente. Luego dicen que dentro de esa mente extendida, es muy importante el concepto de «sistema cognitivo extendido». Un elemento tecnológico que permite realizar una función externamente a la mente que sin esa tecnología tendría que realizarse de manera interna. Un ejemplo sencillo es apuntar un número para recordarlo en un papel. En ese sentido, como apuntan los investigadores, los teléfonos móviles son un sistema cognitivo extendido muy poderoso y que se extiende ahora a una parte muy importante de la población humana total sobre la tierra. Concretamente, el número de usuarios de teléfonos inteligentes en la Tierra ahora mismo ronda la mitad de la población total (49%, 3.800 millones de teléfonos sobre un total de 7.800 millones de personas(1)). Y dado que una parte importante de la «inteligencia» de los móviles viene del hecho de que están conectados a Internet, y que ésta se usa y comprende como una memoria externa de fácil acceso, los investigadores comentan los sorprendentemente escasos artículos sobre el uso de los móviles como sistema cognitivo extendido.

En un apartado posterior reafirman, con una impresionante colección de once referencias, la teoría ampliamente aceptada de que los seres humanos somos «avaros cognitivos», es decir, que si podemos escoger una solución intuitiva a cualquier problema complejo, no lo pensamos y usamos la respuesta intuitiva. Esto nos lleva a descansar nuestros procesos mentales en soluciones más sencillas y atajos mentales de manera desproporcionadamente alta respecto a su eficiencia real.

Así, formulan la hipótesis de que dado que tenemos una tendencia general a buscar soluciones intuitivas y rápidas en vez de usar nuestro cerebro en procesos cognitivos más complicados, con la llegada de los teléfonos móviles es posible que su uso se vea correlacionado con el menor empleo de inteligencia analítica y menor inteligencia. Para comprobar esta hipótesis, realizaron tres estudios, que describen a continuación. Como aquí comienzan ya con temas muy técnicos, resumiré solamente las partes más fundamentales.

El primer estudio se llevó a cabo con ciudadanos norteamericanos de ambos sexos. Querían comprobar si el uso, o la tenencia, de un teléfono inteligente se correlacionaba con medidas de la inteligencia.

Observaron que el uso frecuente de estos dispositivos tenía una correlación positiva con valores más pequeños de empleo de cognición, es decir, las personas que empleaban más teléfonos móviles usaban menos el cerebro para resolución razonada de problemas, confiando en su lugar en resultados intuitivos.

Usando también un conjunto de norteamericanos, comprobaron su desempeño en funciones cognitivas analíticas, y las compararon con el uso de los móviles inteligentes. También añadieron el uso de ordenadores y redes sociales, tanto en ordenadores como en móviles. Es decir, en lugar de comprobar la disposición a usar el análisis en vez de la intuición, comprobaron la calidad de los análisis que hacían los encuestados. Los resultados son curiosos y confirman las hipótesis del primer estudio. Como en el estudio anterior, aquellos participantes que usaban más los móviles tenían una menor capacidad analítica, por lo que quedaba confirmado que el uso de estos dispositivos implica una mayor «tacañería cognitiva». Además, dado que el uso del ordenador no cambiaba demasiado en este grupo respecto los que menos usaban el móvil, quedó claro que no es que los que decían que usaban mucho el móvil no lo decían porque sobrestimaban su uso del mismo, sino que realmente lo usaban más.

Por otra parte, comentan en la introducción del tercer estudio que hay una gran cantidad de evidencia científica que indica que cuanto más se usa el móvil, peores son los resultados académicos entre los estudiantes universitarios, al menos. La principal razón que se esgrime en todos esos estudios es que los móviles actúan como distractor, no que se correlacionen con una disminución de las capacidades cognitivas. Por eso, el tercer estudio que hicieron lo realizaron con estudiantes de universidad, tratando de comprobar si la tendencia al aburrimiento, que ciertamente implica una menor tendencia al uso de funciones cognitivas superiores (son aburridas), podría explicar sus resultados. Los dos estudios presentados antes implicaban que el uso de los móviles, sobre todo para solución de problemas y búsqueda de información, está relacionado con la menor capacidad cognitiva.

Para ello, emplearon estudiantes de universidad canadienses, porque los autores son de una Universidad canadiense. Y los resultados siguieron en la línea de lo que habían visto en los dos estudios anteriores: el uso de los teléfonos móviles esa asociado con una menor capacidad cognitiva y una mayor tendencia al uso de soluciones intuitivas. Sin embargo, no observaron correlación entre la tendencia la aburrimiento y resultados académicos, como se observaba en estudios anteriores. La razón que esgrimen es que quizás lo que realmente correlaciona con menores resultados académicos es el uso en general de aparatos electrónicos o quizás que los resultados académicos de los encuestados fueron proporcionados directamente por ellos mismos.

En la sección siguiente, donde hacen un análisis general de sus resultados, comienzan indicando que los mismos proveen evidencias de que la tendencia a confiar más en resultados intuitivos que en el resultado del pensamiento relacionada con el mayor uso del móvil para buscar información es un signo de una mayor tendencia a la «tacañería cognitiva».

También dicen que hay algunos resultados negativos importantes. Entre ellos, que la correlación que encuentran entre uso intensivo del móvil y menor desempeño cognitivo sólo se produce para ese uso intensivo, si éste no se da, no hay ningún tipo de correlación.

Otro resultado es que, dado que la gente menos tendente a usar el pensamiento analítico es la que más usa el teléfono móvil para buscar respuestas, indicaría en principio que el tener un sentimiento de duda sobre algo incrementa el uso del móvil como herramienta de búsqueda de información, sustituyendo el uso del pensamiento analítico.

Deducen que dada la correlación negativa entre inteligencia y uso del móvil encontrada en sus experimentos, parece lógico suponer que gente más capaz intelectualmente usaría menos la ayuda externa del móvil para realizar tareas complejas, por tener mejores capacidades. Pero que tal idea deberá ser testada en otra ocasión.

En un pequeño párrafo antes de las conclusiones finales, hacen hincapié en las limitaciones de su estudio, que encuentran una clara correlación entre el uso muy frecuente de los teléfonos móviles para buscar información y una menor habilidad cognitiva. Pero correlación no implica causalidad, es decir, que aunque descartaron alguna otra explicación posible, no pueden descartar que haya alguna otra variable que no han comprobado que explique estos resultados. Personalmente, estoy convencido de que sí que es verdad que un uso excesivo del móvil provoque problemas cognitivos, pero ciertamente esto es una convicción no demostrada de manera inequívoca.

En las conclusiones finales comentan que su estudio es un primer paso para un tema fascinante que apenas se está estudiando: el efecto que tiene sobre la psicología humana la nueva cantidad de ayudantes electrónicos capaces de responder a varias cuestiones, o al menos de simularlo bien. Dicen que dados sus resultados, parecería más bien que tales ayudantes pueden reducir la brecha entre los más y los menos inteligentes, pero también advierten que su investigación no es capaz de predecir el efecto que el uso frecuente de tales ayudantes tiene en nuestra capacidad cognitiva futura.

El enlace al artículo publicado en la revista Computer in human Behaviour es: Computers in Human Behavior 48 (2015) 473–480.

(1) Fuentes: Número de usuarios de móviles. Población total de la tierra.

¡Bacterias a trabajar! El uso de bacterias en sistemas generación de hidrógeno con energía solar permite el uso de aguas residuales en lugar de agua pura.

Si bien la energía solar está disponible diaramente, es intermitente con intermitencias en todas los rangos temporales: día/noche, horas, nublado/soleado, etc. El número de horas de sol disponibles también varía diariamente en casi toda la superficie terrestre, siendo aproximadamente contante sólo cerca del ecuador.

Todo ello hace que su uso como fuente primaria de energía se vea restringido, por lo que hace falta almacenarla para su uso en el momento en que haga falta, no cuando se produzca. Uno de las formas de almacenar esta fuente de energía es la producción de algún producto químico que al oxidarse rápidamente, al «quemarse», produzca energía. Un químico adecuado es el hidrógeno molecular, puesto que su combustión sólo produce agua pura como subproducto.

Sin embargo, el uso de hidrógeno tiene varios problemas, de los cuales los más importantes son dos.

Por una parte, su almacenamiento no es sencillo. Al ser tan ligero y pequeño, al almacenarlo en sistemas de alta presión tiene una tendencia muy fuerte a difundirse por las paredes del recipiente que lo contiene; se «escapa» de su recipiente con facilidad.

Además, la producción de hidrógeno con luz solar es cara y no viable comercialmente por varias razones:

  • Necesita sistemas de generación de corriente eléctrica muy complicado: para disociar la molécula de agua hay que tener un potencial eléctrico de ~1,8 Voltios, que para conseguirlo con sistemas fotovoltaicos implican el uso de iones complicadas, en varias capas de materiales, que además son muy caros.
  • Tiene que usar agua ultrapura, lo que tiene un coste energético que hay que considerar en el balance energético final.
  • Además, algunos de los productos químicos empleados no duran mucho tiempo. Al necesitar usar un ánodo y un cátodo, los materiales de ambos polos no siempre son totaltmente reversibles y se pueden agotar con el uso; se «gastan» transformándose irreversiblemente en sustancias distitntas de las originales.
  • Y por si fuera poco, debido a la alta demanda energético de la ruptura del enlace del agua, suele hacer falta una corriente eléctrica extra que debe añadirse al gasto energético de depurar y filtrar el agua.

Una alternativa que puede soslayar parte de los problemas, sobre todo los relacionados con la generación de hidrógeno molecular desde la luz solar, es el uso de microorganismos en el diseño del sistema; éstos oxidan los líquidos orgánicos del agua residual, más que el agua misma, para generar electrones que se recombinan con los huecos generados en el cátodo semiconductor.

Este sistema tiene varias ventajas, porque al usar los microbios como donadores de electrones y «rompedores» de la molécula de agua, no hace falta usar más energía eléctrica, además de eliminar la necesidad de catalizador y la posibilidad de usar aguas residuales.

Por supuesto, este sistema también tenía problemas. Esencialmente, los mismos ya apuntados anteriormente y que el grupo que presenta esta investigación logró soslayar en parte con el uso de un catalizador de GaInP2, pero su coste y el uso de tierras raras, materiales muy caros y escasos, impidió su comercialización.

En el estudio que se comenta aquí, han logrado un avanze muy significativo con el uso de nanoestructuras de silicio negro(1) con forma de queso suizo(2) y aguas residuales de una fábrica de cerveza; claramente, los científicos también tienen sentido del humor. Además, no sólo es que lograran un sistema muy barato y escalable, es que produce una cantidad de energía que es superior a todos los valores obtenidos hasta ahora y durando 90 horas antes de agotar los substratos. Como beneficio adicional, trataron las aguas residuales, disminuyendo aún más los costes de operación del sistema.

(1) La traducción es personal. En inglés se denomina «black-silicon» o «b-Si». Es una nanoestructuración del Silicio descubierta por casualidad, consistente en un «bosque» de agujas muy pequeñas de Silicio. Se puede construir por métodos empleados en la industria de los semiconductores, y tiene una importancia cada vvez mayor en la industria de las células fotovoltaicas porque absorve mucho mejor la luz visible que el Silicio cristalino normal. Un enlace interesente sobre este este material es el de la Wikipedia: https://en.wikipedia.org/wiki/Black_silicon
(2) Copia literal del artículo del nombre de la estructura.

Nuevas soluciones de almacenamiento a largo plazo de energía solar.

En un artículo muy reciente (Energy Environ. Sci. 2019. 12. 187) se ha descrito un nuevo producto químico capaz de almacenar energía solar durante periodos prolongados de tiempo.

Uno de los problemas más graves, y todavía sin soluciones claras, es cómo almacenar una fuente de energía intermitente de manera que pueda ser empleada constantemente: Nuestra sociedad actual exige el uso de energía 24 horas al día, 7 días por semana, mientras que viento y luz son fuentes de energía intermitentes y con muy alta variabilidad. Un sistema muy prometedor consiste en el uso de moléculas que tienen dos estados químicos: Uno metaestable(1), al que se accede mediante su exposición a luz solar, y otro estable, al que se accede tras el uso de un catalizador reutilizable.

Por supuesto, decirlo es mucho más fácil que conseguirlo, y de hecho, como indican en el artículo antes citado, hay una serie de materiales que podrían usarse encontrados en investigaciones anteriores. Se les denomina generalmente MOST, de las siglas inglesas molecular solar thermal storage, y en el artículo se usa una variante del químico Norbodarniene, ya empleado anteriormente para esta función, pero no en esta configuración que llaman NBD1 y que encontraron tras realizar cálculos mecano-cuánticos sobre la estabilidad de la molécula fundamental y muchos ensayos.

Los autores han logrado que la parte del químico reactiva a la luz solar lo sea a una fracción más grande del espectro, lo que implica una mayor eficiencia, como indica la figura 1. Con otra característica muy deseable para este tipo de usos: hay una gran diferencia en la absorvancia del isómero(2) metaestable respecto al estable.

Fig. 1: (a) Estructura química de lso dos isómeros; (b) diferencia en la absorvancia de luz del NBD1, línea azul, al QC1, línea roja; (c) Flujo de calor tras el paso de la solución de QC1 por un catalizador. (Del artículo citado)

Esto le concede una estabilidad temporal de 30 días a 25º C, lo que posibilita su uso como almacén de energía solar a medio plazo, donde las baterías habituales tienen unas eficiencias muy bajas.

En este tipo de usos es fundamental que el catalizador(3) que revierte el estado metaestable al estable, extrayendo la energía, sea rápido y no se gaste mucho por el uso, lo que implica capacidad de estar fijo a un sólido y mantener su actividad catalítica. El compuesto del Cobalto empleado en este trabajo puede ser inmovilizado en un sólido de Carbono, algo básico para poder usarlo en ciclos contínuos. También tiene un tiempo de respuesta relativamente rápido, de minutos.

De hecho, probaron directamente en un prototipo la transformación del isómero estable al metaestable que se hacía directamente usando luz solar que iluminaba una disolución del compuesto NBD1 en tolueno en una tubería «al aire» en una demostración clara de que este nuevo producto puede ser implementado industrialmente con facilidad.

En resumen, un trabajo que abre la puerta al almacenamiento de energía solar de manera más eficiente, lo que sin duda extenderá su uso.

(1) Metaestable: Que si bien puede cambiar en el tiempo de manera espontánea, necesita un aporte de energía extra.

(2) Isómero: Producto químico de la misma composición, pero distinta forma.

(3) Catalizador: Producto químico que facilita una reacción química, sin necesidad de reaccionar, y por lo tanto gastarse, en el proceso.

Uso de enjambres de robots para crear estructuras

Los seres vivos pluricelulares son algo profundamente curioso, por poco que uno se ponga a pensar en ello: De una unión de dos células, se produce un ser con millones o más células perfectamente diferenciadas y organizadas en tejidos, y todo ello sin intervención externa, un proceso denominado «morfogénesis». Si se pudiera replicar este tipo de generación de estructuras automáticas con enjambres de robots, se podrían hacer cosas como casas, paredes, estructuras de varios tipos, etc. sin control humano, más allá de dejar los robots en el medio en el que tienen que crear la estructura. Y si estas estructuras tuvieran la capacidad de autorreparación de los seres vivos, tendríamos la posibilidad de construir estructuras autorreparables sin control humano.

Tal posibilidad abre la puerta a llevar enjambres de robots a lugares muy lejanos o peligrosos, dejar que ese enjambre genere una estructura funciona, sin intervención humana, y luego ocupar la estructura.

Un pequeño paso para lograr algo así se ha dado con un gran número de robots: cerca de 300. Uno de los problemas fundamentales en tales estudios está en el propio bloque de construcción: Hasta hace poco, no existían robots pensados para ser usados en enjambre, de forma que los experimentos se hacían con no más de decenas. Pero con el diseño del kilobot, esto ha cambiado. Unos investigadores usaron estos kilobots para programarlos mediante algoritmos que imitaban la morfogénesis biológica mediante dos estrategias:

  • Formación automática de patrones mediante algoritmos de Turing. Estos algoritmos formalizan matemáticamente la generación de patrones por difusión de una o varias sustancias en un sustrato, que se sabe es un mecanismo similar al empleado por los seres vivos en la morfogénesis. Las células vivas cambian su forma en respuesta a la concentración de determinadas sustancias, dando lugar en el crecimiento fetal a diversos tejidos y órganos. En este enjambre de robots se empleó la «concentración» de dos «moléculas virtuales», es decir, cada robot emitía un pulso de color o no, teniendo pues la concentración de la molécula «creadora», la luz, y de la inhibidora, su falta.
  • La migración celular o movimiento de tejido. Este proceso consiste en el movimiento de las células, de forma que los tejidos y órganos que forman se adapten a un determinado patrón.

Los resultados obtenidos son realmente impresionantes, como se puede ver en la figura de abajo:

De la fig. 4.B del artículo reseñado abajo. Se observa la generación de una estructura usando los dos métodos comentados antes para un «pequeño» números de sólo 110 robots..

En estos experimentos, las estructuras no son fijas, lo que dificulta su mantenimiento o uso, pero es un primer paso muy importante en la generación de estructuras sin intervención humana.

El artículo completo se puede consultar en la siguiente dirección: http://robotics.sciencemag.org/content/3/25/eaau9178http://robotics.sciencemag.org/content/3/25/eaau9178

Impresión en 3D realmente rápida

La impresión en 3D es joven, tiene unos treinta años y se empieza a emplear en multitud de aplicaciones y materiales. Uno de los problemas más graves de la fabricación aditiva o impresión en 3D, estriba en la lentitud del proceso, lo que limita seriamente sus posibilidades en la industria.

Pues unos investigadores han descubierto un sistema capaz de imprimir casi cualquier producto que pueda ser endurecido, o curado, según métodos químicos u ópticos, que además, no presenta algunas de las limitaciones más habituales y exigentes en cuanto al tamaño de impresión, como que todo el volumen de impresión se alcance por el brazo «impresor», el sistema de extrusión

El sistema empleado es el uso de un gel granular como medio de suspensión. En él se introduce mediante algún brazo robótico el líquido a endurecer, se endurece según su método habitual y luego se puede extraer, lavando la pieza producida. La clave es que este gel se comporta de dos maneras distintas según la tensión que se le introduce: Si está sometido a una tensión grande, actúa como un líquido, que rodea el objeto como el agua una cuchara que se introduce en un vaso. Si, por el contrario, la fuerza ejercida por el objeto sumergido en el gel es pequeña, actúa como un sólido, sujetando el material que la aguja a dejado en su interior. El gel se hace con un polímero que se usa en cosmética al que se añade agua…

Un detalle muy curioso es que el sistema de impresión no se basa en hacer rodajas finas que luego se imprimirán capa a capa, sino que más bien el objeto a imprimir se de be visualizar como una línea tridimensional que se convierte a una línea paramétrica cuasi contínua, al estilo de los sistemas CNC, donde las rutas de la herramienta son una línea.

Impresión por RLP de un cilindro de 15 x 15 x 20 cm en goma. ¡El tiempo total de la impresión fue de 4 min y 49 s! Imagen del artículo https://link.springer.com/article/10.1140%2Fepjd%2Fe2007-00305-4

El artículo está publicado en https://link.springer.com/article/10.1140%2Fepjd%2Fe2007-00305-4

Mayor comprensión de los diversos mecanismos de formación de superficies hidrofóbicas.

En un artículo reciente, unos investigadores han logrado medir con mayor precisión la tensión generada en una gota sobre tres tipos de superficies hidrofóbicas, esto es, que repelen los líquidos en su superficie, logrando confirmaciones experimentales de modelos sobre la tensión ejercida por la gota con la superficie en movimiento.

Esta medida es importante porque la tensión producida sobre la hoja «desfavorece» el movimiento. Es decir, cuanto más pequeña sea, más hidrofóbica es una superficie. Y además, saber cómo se comporta con la velocidad relativa del fluido sobre la superficie es fundamental si quieres calcular, o estimar, el rozamiento del fluido en la superficie. Y hasta ahora nadie había logrado observar las diferencias entre las diversas superficies hidrofóbicas con tanto nivel de detalle.

Figura 01. Del artículo PHYSICAL REVIEW LETTERS 120, 244503 (2018)

Como indican en el artículo, una de las claves está en el método que tienen para poder medir las fuerzas. Como cualquier idea genial, es simplísima una vez que se cuenta, pero muy difícil de darse cuenta y de hacer: Usan un «cantilever», que parece ser se traduce por guía voladiza, pegada a la gota. Es decir, una finísima barra de cristal, concretamente un tubo capilar, se acerca con cuidad extremo a la gota del líquido sobre la superficie para poder medir la flexión en el tubo de cristal, y por aplicación directa de la ley de Hooke ( F = k Δx ) sacan del desplazamiento la fuerza, fijaos en la figura 1. La otra opción genial es deslizarla  un ángulo determinado y comprobar su dinámica en el tiempo, su x(t), que es muy distinta según la gota esté sometida o no a una fuerza constante o a ninguna fuerza.

Con el segundo método se obtiene la segunda figura, donde los desplazamientos a lo largo del tiempo evidencian las fuerzas a las que se somete la gota por la superficie en la que se desliza.

Figura 02. x(t) para las tres superficies estudiadas. Del artículo PHYSICAL REVIEW LETTERS 120, 244503 (2018)

Las tres superficies hidrofóbicas estudiadas son las más comunes:

  • Una superficie conformada con pilares nanométricos para atrapar el aire y generar menos arrastre de la gota,
  • Una superficie con «cepillos moleculares», que debido a las proteínas que forman la superficie impiden el paso del líquido y
  • Una superficie lubricada con un aceite, lo que provoca un mayor deslizamiento de la gota del agua por la superficie.

Los tres tipos de superficies hidrofóbicas estudiadas en el artículo.
De PHYSICAL REVIEW LETTERS 120, 244503 (2018)

La figura 03 muestra un ejemplo de los tres tipos de superficies. El artículo original está aquí, y salió publicado en la revista Physical Review Letters.