Prótesis capaz de percibir tacto y dolor

Recientemente se ha publicado un artículo en la revista Science Robotics en el que se describe una prótesis con un recubrimiento que imita la piel humana, al menos en la transmisión de sensaciones de tacto y dolor, algo que hasta ahora estaba vedado a sistemas protésicos.

Comienzan explicando lo obvio: Nuestro sistema sensorial es fundamental para obtener información del mundo exterior, incluyendo por supuesto el sentido del tacto que, junto con nuestro propio sentido de nuestra posición(1), nos permite realizar tantas tareas cotidianas con nuestras extremidades, especialmente las manos.

Dentro de este sentido del tacto, la importancia del dolor es muy fuerte: nos permite saber si una superficie o algo que tocamos es seguro o no. Por eso ha habido una investigación muy intensa en los últimos años tratando de lograr algún tipo de retroalimentación sensora de las prótesis a sus usuarios, para lo cual se han seguido varios caminos.

Por ejemplo, se han publicado estudios con varios sistemas sensores capaces de proporcionar información sobre la posición de la prótesis al ususario, pero los avances más significativos han sido la demostración de la capacidad de proporcionar sentidos artificiales del tacto a amputados mediante electrodos implantados o simplemente en contacto con el cuerpo del paciente.

El avance fundamental de este artículo estriba en la inclusión del dolor como posibilidad a sentir desde una prótesis, lo que esperan que ayude a crear y diseñar sistemas más realistas y cómodos para los ususarios.

Para ello, desarrollaron dos sitemas distintos: una <<piel sintética>> con capacidad del sentido del tacto y una interfaz neuromórfica(2) que, combinados, dan al paciente la capacidad de sentir no sólo el tacto de lo que está tocando la prótesis, sino también de sentir dolor de la misma.

El esquema de funcionamiento se muestra en la siguiente figura:

Adaptada del artículo. Esquema de cómo funciona el sistema para porporcionar tacto. La piel sintética recibe una señal, que se codifica por su controlador en una serie de pulsos eléctricos similares a los producidos por una extremidad viva, y que alimentan un estimulador que envía las señales directamente al cerebro mediante cables insertados debajo de la piel.

La piel sintética funciona imitando la natural, con dos capas diferenciadas con distintas sensibilidades, que ayudan a poder percibir las formas de los objetos que se estén tocando.

Para ser capaces de darle retroalimentación de los datos de la prótesis al usuario, mediante el uso de cables intertados bajo la piel, TENS siguiendo sus siglas en inglés(3) proporcionaron estímulos al cerebro del paciente, para que el les dijera qué estaba <<sintiendo>> de su miembro ausente, es decir, qué regiones percibía como tocando algo (el dedo índice de la mano izquierda, el de la mano derecha, etc) de manera que elaboraron un mapa de qué estímulos le decían a su cerebro que estaban tocando el miembro amputado. Con ellos, podían engañarlo para decirle que un dedo estaba tocando algo, cuando en realidad producían la señal desde la prótesis.

Para imitar la percepción espacial de objetos, la piel artificial estaba dividida en partes discretas, de tal forma que según el número y situación de las partes de la piel activadas, el sistema de retroalimentación era capaz de mapear una forma del objeto que estaba siendo tocado y transmitirle esa información al paciente. Las diversas formas de distribuir la presión en los sensores para tres objetos muy diferentes las muestran los autores en su figura 4, que reproduzco:

Adaptada del artículo citado. La primera fila desde arriba muestra los diversos objetos, todos del mismo largo, que la prótesis percibió. La segunda y tercera enseñan las señales de presión y su situación en el sensor de la punta del dedo y la última las señales eléctricas que se enviaron.

Para terminar de mejorar el sistema, añadieron la capacidad de hacer percibir al sujeto dolor de la prótesis cambiando la frecuencia y duración de las señales que emitieron mediante TENS(3) a su cerebro, y además proporcionaron, a modo de prueba, un cierto sistema reflejo a la prótesis capaz de soltar aquello que le causaba dolor sin intervención consciente, de un modo muy similar a como funciona el sistema reflejo humano real.

El artículo original se puede encontrar en:

Prosthesis with neuromorphic multilayered e-dermis precieves touch and pain,

Science Robotics  20 Jun 2018. Vol. 3, Issue 19, eaat3818
DOI: 10.1126/scirobotics.aat3818

https://robotics.sciencemag.org/content/3/19/eaat3818

Notas:

(1) Llamado propiocepción, una características de los seres humanos que se considera ya un sentido como la vista, el oido, etc.

(2) Interfaz neuromórfica: Quieren decir un sistema de comunicación entre la piel y el usuario que imita el sistema neuronal humano.

(3) TENS: Transcotaneus Electrical Dermal Stimulation, Estimulación eléctrica dermal transcutánea.

Uso de teoría de redes para comprender la dinámica del terrorismo.

En un artículo muy interesante, unos investigadores indios han empleado la teoría de redes para tratar de estudiar la dinámica del terrorismo en el mundo y sus cambios en el tiempo.

Comienzan en la introducción comentando que, en principio, la evidencia disponible apunta a que la cooperación entre seres humanos es la fuerza dominante, dado que nuestra historia como especie empezó formando pequeñas tribus para acabar con la formación de los actuales estados, unas organizaciones muy complicadas donde personas totalmente extrañas entre sí cooperan.

Al mismo tiempo, en toda nuestra historia actos violentos má o menos organizados han sido también grandes protagonistas; basta con recordar las dos últimas guerras mundiales o cualquiera de los múltiples conflictos violentos abiertos en el planeta. Y dentro de ellos, por supuesto, actos de terrorismo, aquí definidos como actos violentos realizados por grupos pequeños de personas con el objetivo de alcanzar un cambio en el estatus político, religioso o social imperante.

El artículo trata de usar la teoría de redes, muy empleada por físicos de formación para el estudio de instituciones humanas de cualquier tipo recientemente, para poder analizar las relaciones existentes entre grupos terroristas, sus víctimas y los potenciales vínculos entre ellos.

Como base de datos de relaciones entre terroristas y víctimas emplearon una base de datos denominada Base de datos de terrorismo global (Global Teroorism Database en inglés), que recoge de las noticias sobre ataques violentos sucedidos en el mundo que aparecen en prensa el número de víctimas, el grupo que inició el ataque terrorista y otra información relevante.

Tras construir el grupo de datos que emplean en el análisis, pueden mostrar gráficos tan impresionantes com la figura siguiente, donde observan la evolución temporal de los ataques en todo el mundo; el terrorismo de ETA es muy claro en la península ibérica.

Ataques teorristas en el mundo separados por décadas. Obsérvese como los ataques sufridos por África en los últimos años aparecen claramente marcados. Adaptado de la figura 1 del artículo citado.

Entre sus conclusiones, la primera que sacan es que casi todos los grupos terroristás están fuertemente ligados, de tal forma que un gran cluster de grupos o personas terroristas fuertemente unidos conforman el 8% de todos los nodos presentes.

Otra de las cosas que comprobaron es la resiliencia de la red de terrorismo a sus ataques, que resultó ser baja si lo que se se hace es extraer aquellos elementos más destacados de la red, frente a ataques aleatorios a la red. Esto tiene importancia a la hora de diseñar políticas de contención del terrorismo, porque implica que antes que un control global y aleatorio, para acabar con el terrorismo es preferible un control más selectivo de objetivos de alta importancia en la organización terorista: cabecillas de diversos grupos, altos mandos, etc.

Además, también presentan clara evidencia empírica de algo que todos los que vivimos actualmente tenemos claro de forma intuitiva: según avanzó el siglo XX y el XXI, la cantidad de grupos terroristas aumenta, con una mayor disparidad y cantidad de víctimas conforma avanza el tiempo. La consecuencia de esto y del resultado anterior es clara: cada vez resulta más difícil evitar o neutralizar las redes terroristas, pues para ello hay que descabezarlas y hay cada vez más cabezas.

Como eejmplo, citan el conflicto entre palestinos e israelíes, que hasta 1970 tenía dos actores principales: el estado israelí y el palestino (o lo que pudieran tener), para años después, con la incorporación de otros grupos como Hamás, complicar de manera clara la geometría de la red, como demuestra la figura siguiente:

Estructura de la red de terroristas y víctimas a lo largo de décadas para Israel (ISR, arriba) y Colombia (COL, abajo). Observen como la aparición de varios agentes en los actos de violencia en ambos casos complica la red. Por otra parte, se observa que en Israel un gran número de grupos (color violeta) atacan al mismo tipo de víctimas(color rosado), mientras que en Colombia la violencia está más repertida. Adaptado de la figura 5 del artículo citado.

Por otra parte, dentro de la geometría de a red se observa con frecuencia una estructura de estrella: o bien un mismo objetivo terrorista sufre ataques de varios grupos a la vez, o bien un grupo ataca varios blancos diferentes.

El artículo se puede encontrar en el siguiente enlace: Identifying the global terror hubs and vulnerable motifs using complex network dynamics

Electrones como partículas fluidas. Mediciones directas

Uno de los aspectos más fascinantes de la mecánica cuántica es el hecho de que el comportamiento colectivo de las partículas se aleja mucho del esperado para cada una de ellas individualmente.

Así, se pensaba y teorizaba que los electrones en movimiento colectivo llegaría un momento en el que se comportarían como un fluido, de forma que podría tener una dinámica de flujo en régimen laminar, con un campo de velocidades de tipo Poiseuille. La forma en la que esto pasa es análoga a la aproximación de medio continuo que se hace de un fluido: cuando tienes un montón de partículas tan grande que el contarlas es imposible, puede decir que la distancias entre ellas se hacen cero y tienes un material continuo, aunque en realidad esté formado por partículas o moléculas discretas. En el caso de los electrones, el factor que hace que se pueda pasar de un régimen «molecular», donde cada electrón está aislado, a otro «fluido» es la temperatura del medio en el que se encuentra el electrón y la densidad de electrones presentes para actuar como portadores de corriente eléctrica, llamada densidad de portadores.

En un experimento muy reciente publicado en la revista Nature, un grupo de investigadores, usando un substrato de grafeno combinado con nitruro de boro hexagonal(1), y controlando la densidad de portadores del mismo y su temperatura, pudieron observar experimentalmente estos dos regímenes: el de Poiseuille y el «balístico» o discreto.

Concretamente, observaron en lugar de la velocidad asociada a los fluidos más habituales, el campo eléctrico, que por lo tanto depende de dos maneras distintas de la corriente transversal, como muestran en la figura 2, de la que se extrajo la siguiente gráfica:

Imagen extraída de la figura 2 del artículo. Se observa el resultado de la medida experimental del campo eléctrico producido en el material en la dos situaciones, cuando se considera el modelo «balístico» (izquierda) y el «fluido» (derecha) o de Poiseuille (izquierda), con su característica curva parabólica.

El «fluido de electrones» tiene un número de Knudsen de valor 0,16; esto sitúa al este tipo de fluido dentro del modelo de medio continuo.

En el artículo indican con claridad que sus medidas de la corriente eléctrica es muy parecida para ambos casos, pues la distribución de corriente varía muy poco con la distribución de movilidad de los electrones.

Después de observar la emergencia de la distribución de Poiseuille en los electrones, los investigadores se dedicaron a comprobar cómo afectaba a esta fase las variaciones en la densidad de portadores y la temperatura del material, T, obteniendo un diagrama de fases.

En este diagrama se emplean las distancias lMR y lee, que se corresponden con el camino libre medio de relajación del momento(2) y la longitud de dispersión electrón-electrón(3) dividida por el ancho del material, W, en el que se hacen las medidas.

Para calcular las diversas «fases» del material usaron como parámetro de medida la curvatura del campo eléctrico, dado que es un buen indicador del tipo de modelo que sigue la dinámica de los electrones.

De la figure 3 del artículo. Diagrama de fases obtenido por los investigadores. Los cuadrados insertados en las esquinas representan la distribución del campo eléctrico (línea negra con sombreado violeta) y la forma en la que se dispersan los electrones (dibujo a la izquierda). En esos diagramas, las cruces son los fonones(4) o impurezas que dispersan los electrones.

Notas:

(1) Un material en el que los electrones pueden moverse a distancias controlables desde el exterior del material.

(2) Momentum-relaxing mean free path en el artículo. Esencialemnte, la distancia que le lleva al electrón perder una gran cantidad de moemnto lineal, de energía cinḉetica por lo tanto.

(3) electron-electron scattering length en el ariculo. La distancia mínima a la que tiene que estar dos electrones para poder dispersasrse por choques entre ellos.

(4) Los fonones son la expresión del movimiento iónico debido a su temperatura.

El artículo original se encuentra aquí.

¡Bacterias a trabajar! El uso de bacterias en sistemas generación de hidrógeno con energía solar permite el uso de aguas residuales en lugar de agua pura.

Si bien la energía solar está disponible diaramente, es intermitente con intermitencias en todas los rangos temporales: día/noche, horas, nublado/soleado, etc. El número de horas de sol disponibles también varía diariamente en casi toda la superficie terrestre, siendo aproximadamente contante sólo cerca del ecuador.

Todo ello hace que su uso como fuente primaria de energía se vea restringido, por lo que hace falta almacenarla para su uso en el momento en que haga falta, no cuando se produzca. Uno de las formas de almacenar esta fuente de energía es la producción de algún producto químico que al oxidarse rápidamente, al «quemarse», produzca energía. Un químico adecuado es el hidrógeno molecular, puesto que su combustión sólo produce agua pura como subproducto.

Sin embargo, el uso de hidrógeno tiene varios problemas, de los cuales los más importantes son dos.

Por una parte, su almacenamiento no es sencillo. Al ser tan ligero y pequeño, al almacenarlo en sistemas de alta presión tiene una tendencia muy fuerte a difundirse por las paredes del recipiente que lo contiene; se «escapa» de su recipiente con facilidad.

Además, la producción de hidrógeno con luz solar es cara y no viable comercialmente por varias razones:

  • Necesita sistemas de generación de corriente eléctrica muy complicado: para disociar la molécula de agua hay que tener un potencial eléctrico de ~1,8 Voltios, que para conseguirlo con sistemas fotovoltaicos implican el uso de iones complicadas, en varias capas de materiales, que además son muy caros.
  • Tiene que usar agua ultrapura, lo que tiene un coste energético que hay que considerar en el balance energético final.
  • Además, algunos de los productos químicos empleados no duran mucho tiempo. Al necesitar usar un ánodo y un cátodo, los materiales de ambos polos no siempre son totaltmente reversibles y se pueden agotar con el uso; se «gastan» transformándose irreversiblemente en sustancias distitntas de las originales.
  • Y por si fuera poco, debido a la alta demanda energético de la ruptura del enlace del agua, suele hacer falta una corriente eléctrica extra que debe añadirse al gasto energético de depurar y filtrar el agua.

Una alternativa que puede soslayar parte de los problemas, sobre todo los relacionados con la generación de hidrógeno molecular desde la luz solar, es el uso de microorganismos en el diseño del sistema; éstos oxidan los líquidos orgánicos del agua residual, más que el agua misma, para generar electrones que se recombinan con los huecos generados en el cátodo semiconductor.

Este sistema tiene varias ventajas, porque al usar los microbios como donadores de electrones y «rompedores» de la molécula de agua, no hace falta usar más energía eléctrica, además de eliminar la necesidad de catalizador y la posibilidad de usar aguas residuales.

Por supuesto, este sistema también tenía problemas. Esencialmente, los mismos ya apuntados anteriormente y que el grupo que presenta esta investigación logró soslayar en parte con el uso de un catalizador de GaInP2, pero su coste y el uso de tierras raras, materiales muy caros y escasos, impidió su comercialización.

En el estudio que se comenta aquí, han logrado un avanze muy significativo con el uso de nanoestructuras de silicio negro(1) con forma de queso suizo(2) y aguas residuales de una fábrica de cerveza; claramente, los científicos también tienen sentido del humor. Además, no sólo es que lograran un sistema muy barato y escalable, es que produce una cantidad de energía que es superior a todos los valores obtenidos hasta ahora y durando 90 horas antes de agotar los substratos. Como beneficio adicional, trataron las aguas residuales, disminuyendo aún más los costes de operación del sistema.

(1) La traducción es personal. En inglés se denomina «black-silicon» o «b-Si». Es una nanoestructuración del Silicio descubierta por casualidad, consistente en un «bosque» de agujas muy pequeñas de Silicio. Se puede construir por métodos empleados en la industria de los semiconductores, y tiene una importancia cada vvez mayor en la industria de las células fotovoltaicas porque absorve mucho mejor la luz visible que el Silicio cristalino normal. Un enlace interesente sobre este este material es el de la Wikipedia: https://en.wikipedia.org/wiki/Black_silicon
(2) Copia literal del artículo del nombre de la estructura.

Nuevas soluciones de almacenamiento a largo plazo de energía solar.

En un artículo muy reciente (Energy Environ. Sci. 2019. 12. 187) se ha descrito un nuevo producto químico capaz de almacenar energía solar durante periodos prolongados de tiempo.

Uno de los problemas más graves, y todavía sin soluciones claras, es cómo almacenar una fuente de energía intermitente de manera que pueda ser empleada constantemente: Nuestra sociedad actual exige el uso de energía 24 horas al día, 7 días por semana, mientras que viento y luz son fuentes de energía intermitentes y con muy alta variabilidad. Un sistema muy prometedor consiste en el uso de moléculas que tienen dos estados químicos: Uno metaestable(1), al que se accede mediante su exposición a luz solar, y otro estable, al que se accede tras el uso de un catalizador reutilizable.

Por supuesto, decirlo es mucho más fácil que conseguirlo, y de hecho, como indican en el artículo antes citado, hay una serie de materiales que podrían usarse encontrados en investigaciones anteriores. Se les denomina generalmente MOST, de las siglas inglesas molecular solar thermal storage, y en el artículo se usa una variante del químico Norbodarniene, ya empleado anteriormente para esta función, pero no en esta configuración que llaman NBD1 y que encontraron tras realizar cálculos mecano-cuánticos sobre la estabilidad de la molécula fundamental y muchos ensayos.

Los autores han logrado que la parte del químico reactiva a la luz solar lo sea a una fracción más grande del espectro, lo que implica una mayor eficiencia, como indica la figura 1. Con otra característica muy deseable para este tipo de usos: hay una gran diferencia en la absorvancia del isómero(2) metaestable respecto al estable.

Fig. 1: (a) Estructura química de lso dos isómeros; (b) diferencia en la absorvancia de luz del NBD1, línea azul, al QC1, línea roja; (c) Flujo de calor tras el paso de la solución de QC1 por un catalizador. (Del artículo citado)

Esto le concede una estabilidad temporal de 30 días a 25º C, lo que posibilita su uso como almacén de energía solar a medio plazo, donde las baterías habituales tienen unas eficiencias muy bajas.

En este tipo de usos es fundamental que el catalizador(3) que revierte el estado metaestable al estable, extrayendo la energía, sea rápido y no se gaste mucho por el uso, lo que implica capacidad de estar fijo a un sólido y mantener su actividad catalítica. El compuesto del Cobalto empleado en este trabajo puede ser inmovilizado en un sólido de Carbono, algo básico para poder usarlo en ciclos contínuos. También tiene un tiempo de respuesta relativamente rápido, de minutos.

De hecho, probaron directamente en un prototipo la transformación del isómero estable al metaestable que se hacía directamente usando luz solar que iluminaba una disolución del compuesto NBD1 en tolueno en una tubería «al aire» en una demostración clara de que este nuevo producto puede ser implementado industrialmente con facilidad.

En resumen, un trabajo que abre la puerta al almacenamiento de energía solar de manera más eficiente, lo que sin duda extenderá su uso.

(1) Metaestable: Que si bien puede cambiar en el tiempo de manera espontánea, necesita un aporte de energía extra.

(2) Isómero: Producto químico de la misma composición, pero distinta forma.

(3) Catalizador: Producto químico que facilita una reacción química, sin necesidad de reaccionar, y por lo tanto gastarse, en el proceso.

Uso de enjambres de robots para crear estructuras

Los seres vivos pluricelulares son algo profundamente curioso, por poco que uno se ponga a pensar en ello: De una unión de dos células, se produce un ser con millones o más células perfectamente diferenciadas y organizadas en tejidos, y todo ello sin intervención externa, un proceso denominado «morfogénesis». Si se pudiera replicar este tipo de generación de estructuras automáticas con enjambres de robots, se podrían hacer cosas como casas, paredes, estructuras de varios tipos, etc. sin control humano, más allá de dejar los robots en el medio en el que tienen que crear la estructura. Y si estas estructuras tuvieran la capacidad de autorreparación de los seres vivos, tendríamos la posibilidad de construir estructuras autorreparables sin control humano.

Tal posibilidad abre la puerta a llevar enjambres de robots a lugares muy lejanos o peligrosos, dejar que ese enjambre genere una estructura funciona, sin intervención humana, y luego ocupar la estructura.

Un pequeño paso para lograr algo así se ha dado con un gran número de robots: cerca de 300. Uno de los problemas fundamentales en tales estudios está en el propio bloque de construcción: Hasta hace poco, no existían robots pensados para ser usados en enjambre, de forma que los experimentos se hacían con no más de decenas. Pero con el diseño del kilobot, esto ha cambiado. Unos investigadores usaron estos kilobots para programarlos mediante algoritmos que imitaban la morfogénesis biológica mediante dos estrategias:

  • Formación automática de patrones mediante algoritmos de Turing. Estos algoritmos formalizan matemáticamente la generación de patrones por difusión de una o varias sustancias en un sustrato, que se sabe es un mecanismo similar al empleado por los seres vivos en la morfogénesis. Las células vivas cambian su forma en respuesta a la concentración de determinadas sustancias, dando lugar en el crecimiento fetal a diversos tejidos y órganos. En este enjambre de robots se empleó la «concentración» de dos «moléculas virtuales», es decir, cada robot emitía un pulso de color o no, teniendo pues la concentración de la molécula «creadora», la luz, y de la inhibidora, su falta.
  • La migración celular o movimiento de tejido. Este proceso consiste en el movimiento de las células, de forma que los tejidos y órganos que forman se adapten a un determinado patrón.

Los resultados obtenidos son realmente impresionantes, como se puede ver en la figura de abajo:

De la fig. 4.B del artículo reseñado abajo. Se observa la generación de una estructura usando los dos métodos comentados antes para un «pequeño» números de sólo 110 robots..

En estos experimentos, las estructuras no son fijas, lo que dificulta su mantenimiento o uso, pero es un primer paso muy importante en la generación de estructuras sin intervención humana.

El artículo completo se puede consultar en la siguiente dirección: http://robotics.sciencemag.org/content/3/25/eaau9178http://robotics.sciencemag.org/content/3/25/eaau9178

Impresión en 3D realmente rápida

La impresión en 3D es joven, tiene unos treinta años y se empieza a emplear en multitud de aplicaciones y materiales. Uno de los problemas más graves de la fabricación aditiva o impresión en 3D, estriba en la lentitud del proceso, lo que limita seriamente sus posibilidades en la industria.

Pues unos investigadores han descubierto un sistema capaz de imprimir casi cualquier producto que pueda ser endurecido, o curado, según métodos químicos u ópticos, que además, no presenta algunas de las limitaciones más habituales y exigentes en cuanto al tamaño de impresión, como que todo el volumen de impresión se alcance por el brazo «impresor», el sistema de extrusión

El sistema empleado es el uso de un gel granular como medio de suspensión. En él se introduce mediante algún brazo robótico el líquido a endurecer, se endurece según su método habitual y luego se puede extraer, lavando la pieza producida. La clave es que este gel se comporta de dos maneras distintas según la tensión que se le introduce: Si está sometido a una tensión grande, actúa como un líquido, que rodea el objeto como el agua una cuchara que se introduce en un vaso. Si, por el contrario, la fuerza ejercida por el objeto sumergido en el gel es pequeña, actúa como un sólido, sujetando el material que la aguja a dejado en su interior. El gel se hace con un polímero que se usa en cosmética al que se añade agua…

Un detalle muy curioso es que el sistema de impresión no se basa en hacer rodajas finas que luego se imprimirán capa a capa, sino que más bien el objeto a imprimir se de be visualizar como una línea tridimensional que se convierte a una línea paramétrica cuasi contínua, al estilo de los sistemas CNC, donde las rutas de la herramienta son una línea.

Impresión por RLP de un cilindro de 15 x 15 x 20 cm en goma. ¡El tiempo total de la impresión fue de 4 min y 49 s! Imagen del artículo https://link.springer.com/article/10.1140%2Fepjd%2Fe2007-00305-4

El artículo está publicado en https://link.springer.com/article/10.1140%2Fepjd%2Fe2007-00305-4

Mayor comprensión de los diversos mecanismos de formación de superficies hidrofóbicas.

En un artículo reciente, unos investigadores han logrado medir con mayor precisión la tensión generada en una gota sobre tres tipos de superficies hidrofóbicas, esto es, que repelen los líquidos en su superficie, logrando confirmaciones experimentales de modelos sobre la tensión ejercida por la gota con la superficie en movimiento.

Esta medida es importante porque la tensión producida sobre la hoja «desfavorece» el movimiento. Es decir, cuanto más pequeña sea, más hidrofóbica es una superficie. Y además, saber cómo se comporta con la velocidad relativa del fluido sobre la superficie es fundamental si quieres calcular, o estimar, el rozamiento del fluido en la superficie. Y hasta ahora nadie había logrado observar las diferencias entre las diversas superficies hidrofóbicas con tanto nivel de detalle.

Figura 01. Del artículo PHYSICAL REVIEW LETTERS 120, 244503 (2018)

Como indican en el artículo, una de las claves está en el método que tienen para poder medir las fuerzas. Como cualquier idea genial, es simplísima una vez que se cuenta, pero muy difícil de darse cuenta y de hacer: Usan un «cantilever», que parece ser se traduce por guía voladiza, pegada a la gota. Es decir, una finísima barra de cristal, concretamente un tubo capilar, se acerca con cuidad extremo a la gota del líquido sobre la superficie para poder medir la flexión en el tubo de cristal, y por aplicación directa de la ley de Hooke ( F = k Δx ) sacan del desplazamiento la fuerza, fijaos en la figura 1. La otra opción genial es deslizarla  un ángulo determinado y comprobar su dinámica en el tiempo, su x(t), que es muy distinta según la gota esté sometida o no a una fuerza constante o a ninguna fuerza.

Con el segundo método se obtiene la segunda figura, donde los desplazamientos a lo largo del tiempo evidencian las fuerzas a las que se somete la gota por la superficie en la que se desliza.

Figura 02. x(t) para las tres superficies estudiadas. Del artículo PHYSICAL REVIEW LETTERS 120, 244503 (2018)

Las tres superficies hidrofóbicas estudiadas son las más comunes:

  • Una superficie conformada con pilares nanométricos para atrapar el aire y generar menos arrastre de la gota,
  • Una superficie con «cepillos moleculares», que debido a las proteínas que forman la superficie impiden el paso del líquido y
  • Una superficie lubricada con un aceite, lo que provoca un mayor deslizamiento de la gota del agua por la superficie.

Los tres tipos de superficies hidrofóbicas estudiadas en el artículo.
De PHYSICAL REVIEW LETTERS 120, 244503 (2018)

La figura 03 muestra un ejemplo de los tres tipos de superficies. El artículo original está aquí, y salió publicado en la revista Physical Review Letters.

Superficies hidrofóbicas que aguanten sumergidas

Uno de los mayores problemas del transporte de líquidos en general y del transporte en líquidos, es decir, del transporte marítimo, es el alto rozamiento del fluido en estado líquido. De hecho, al transportar líquido por una tubería existe el problema de que una parte importante de la energía que se le proporciona al fluido se tiene que emplear en eliminar el rozamiento del líquido con la tubería que lo transporta.

En ambos casos una solución muy elegante consiste en colocar un fluido en estado gas entre el líquido que se mueve y la superficie sólida contra la que se mueve. Entonces, el rozamiento desciende muchísimo porque lo que roza es el sólido contra un gas y un gas contra un líquido. El problema es «sujetar» el gas cerca del sólido. El muy desgraciado del gas tiene a escaparse hacia el líquido, promoviendo de nuevo ese contacto líquido-sólido que sería deseable evitar.

Una forma de mantener el gas cerca de la superficie sólida es el uso de cavidades de tamaño nanométrico, donde en principio el gas se queda algo más de tiempo. El problema es que al moverse el líquido respecto a la superficie, y simplemente por la presión del líquido, se acaba llenando de líquido la nanocavidad con gas. Hasta ahora, si ahora es el 2014, claro. En el artículo PRL-vol113-136103(2014) se presenta un modelo capaz de predecir si el aire (gas empleado) se quedará atrapado en la ranura empleada o no. Y se demuestra que el modelo es válido con una ranura real.

Según el modelo que se presenta en el artículo, la clave para lograr que una ranura «atrape» aire por un tiempo indefinido (más de 50 días en el experimento) es la altura que el agua, o líquido, tiene sobre la ranura, de forma que hay un altura crítica a partir de la cual se moja la ranura.  Las buenas noticias son que esa altura crítica depende de la anchura de la ranura, las malas que la altura crítica máxima es del orden de los centímetros, lo que dado que un barco se sumerge metros, implica que el uso de estos sistemas para evitar rozamiento queda descartado.

Sin embargo, es un gran experimento que creo interesante reseñar porque presenta datos y modelos sencillos y elegantes para entender un problema muy complejo. La esencia de la física bien hecha. El montaje experimental es el de la figura siguiente:

Montaje experimental. Artículo PRL-Vol311-136103(2014)

La figura de la izquierda muestra una ranura con las dimensiones y convenciones empleadas en el artículo, mientras que en la derecha se observa un esquema del sistema experimental. Con este montaje experimental, observar si la ranura se moja o no es cuestión de explorar imágenes proporcionadas por una cámara ajustada a la lente de la figura anterior, con lo que se obtienen gráficas como la siguiente, donde se muestra lo que pasa con altura de líquido por debajo de la crítica, es decir, con el aire atrapado de manera estable y con una altura por encima de ese valor, lo que implica que el aire no permanece en la ranura:

Permanencia o no del aire en la ranura. Artículo PRL-Vol311-136103(2014)

La forma de medir si hay aire o no es mediante la posición del menisco que se forma en la ranura. La gráfica presenta la distancia máxima de ese menisco desde el comienzo de la ranura hasta su fondo. Cuando llega a unos 80 micras, llega al fondo de la ranura. Fíjense que cuando al altura del agua es superior a la crítica, la ranura se moja, esto es, se vacía de aire en «sólo» ocho horas, mientras que para una altura de agua por debajo de la crítica, la ranura permanece indefinidamente llena de aire. Observen además la fantástica coincidencia entre el modelo y los datos experimentales, que indica que el modelo acierta en sus predicciones.

Para hacer montañas de granos, es importante saber cómo se formó la montaña.

A lo mejor no parece importante, pero un auténtico misterio de la física hasta hace poco era la formación de montones con material granular en caída libre. Es decir, yo dejo caer desde una distancia fija algo en forma granular, y trato de predecir o modelar la forma que tendrá ese montón.  Hasta hace algún tiempo había resultados experimentales y teóricos contradictorios, entre otras cosas porque no hay un modelo claro de material granular: El material granular son pequeñas piezas con formas distintas entre sí y no se sabe muy bien cómo modelar ni la forma del grano, ni la interacción entre ellos.

Piensen que el material en forma granular tiene interacciones entre granos o partículas vecinas que los separa del sólido rígido, que es el equivalente a granos formando un auténtico continuo, como en los metales, y del modelo de partículas rígidas separadas, cuando no hay demasiados granos. Un modelo que daba algún resultado decente es adaptar el modelo de sólido deformable y quizás elástico con propiedades constitutivas propias para el material granular. Es decir, se hace una aproximación de un material en estado discreto por un continuo cuya descripción encaja en los experimentos con diversos materiales granulares.

Este tipo de aproximaciones no ha sido capaz de resolver un problema de la generación de montones: que la distribución de presiones en el centro del montón depende de cómo se haya formado el montón, de forma que si se genera desde un sólo punto de caída del material, aparece una depresión en la base del montón; cuando se genera median una «lluvia», es decir desde múltiples puntos de caída del material, la depresión en el centro no es visible. En el artículo PRL – Vol113 – 068001 (2014) se demuestra que el uso de modelos elastoplásticos que no eran capaces de predecir estos dos resultados sí que funcionan, pero si se usa un modelo matemático que tiene en cuenta la historia del fenómeno para la descripción numérica.

Cuando se simula un sistema tridimensional en un ordenador, hay que hacer una malla tridimensional de puntos en la que se calculan las propiedades del material, presión, densidad, fuerzas, etc. Esta malla puede seguir o no al material en su movimiento. Cuando la malla es fija y el material se mueve dentro de ella, podemos tener en cuanta la historia de este movimiento mejor.

El resultado final es que en simulaciones con dos modelos distintos de materiales elastoplásticos, se observa la caída de presión en le centro de la pila o montón que ya fue observada experimentalmente, como la figura tres del artículo muestra:

Perfiles de presión de pilas de material granular. Del artículo PRL-Vol311-0068001 (2014), figura 3.

En la figura se muestran los perfiles de presión según el material granular caiga en forma de «lluvia», izquierda, o desde un punto, derecha. Ambos están marcados por la relación entre el ancho de la boca y el radio del montón. En el primer caso, R/W0 es 1. Cuando R/Wo es 10, es decir, todo el material cae desde un sólo punto, se puede observar como según el instante de tiempo en el que observemos el perfil de presiones, éste cambia y termina desarrollando la depresión central al final.