Expertos y autoridades se movilizan ante la irrupción de las redes neuronales en el campo de la biología sintética, una tecnología que podría facilitar el desarrollo de biomoléculas que amenacen la salud global
Noticia de Antonio Martínez Ron (elDiario.es)
Imagine que tomamos el argumento de las películas Terminator y Contagio y los combinamos en una sola trama apocalíptica. El resultado sería una ficción en la que una inteligencia artificial (IA) diseña un nuevo virus letal que pone a la humanidad contra las cuerdas. Esta posibilidad, que hace unos años habría sonado estrambótica hasta para un título de serie Z, empieza a preocupar seriamente a autoridades y expertos. El motivo es que los nuevos modelos de inteligencia artificial son capaces de hacer algo que parecía imposible: diseñar nuevas proteínas que funcionan y que podrían servir tanto para curar enfermedades como para matar a millones de personas.Diseñan un virus sintético para llevar terapia génica hasta las células
La velocidad con la que ha avanzado el uso de redes neuronales en biotecnología ha obligado a convocar varias conferencias de bioseguridad y a proponer nuevas regulaciones. En Estados Unidos se ha puesto en marcha la tramitación de la Ley de Seguridad de Síntesis de Genes, que obligará a las empresas a implementar protocolos de detección del uso indebido de estos productos de biología sintética, mientras que la Unión Europea –a pesar de su avanzada legislación sobre IA– se está quedando atrás a la hora de tomar medidas, aunque empieza a recopilar informes para regularlo.
Marc Güell, experto en Biología Sintética de la Universidad Pompeu Fabra (UPF), es miembro del grupo de trabajo de análisis de riesgos biotecnológicos de la UE que elabora uno de estos documentos. “Esto se ha discutido claramente y se ha puesto el énfasis en la interacción de IA y biotecnología”, informa a elDiario.es. “Y nos han hecho trabajar bastante rápido, así que supongo que tienen intención de ponerse las pilas”.
Se ha puesto el énfasis en la interacción de IA y biotecnología y nos han hecho trabajar bastante rápido, así que supongo que tienen intención de ponerse las pilas
Marc Güell — Experto en Biología Sintética de la Universidad Pompeu Fabra y miembro del grupo de análisis de riesgos biotecnológicos de la UE
El laboratorio de Güell trabaja diseñando estas proteínas y secuencias de ADN, por lo que conoce bien los mecanismos y los posibles riesgos. “Hasta ahora los biólogos sintéticos nos inspirábamos en la naturaleza y básicamente reutilizábamos cosas que ya existían”, explica. “Pero ahora por primera vez sí que tenemos la capacidad de generar proteínas sintéticas que cumplen con la biología pero no existen, con un sistema parecido a ChatGPT, que hace frases sintéticas que no ha hecho ningún humano pero cumplen las reglas de la semántica”.
El especialista se refiere a sistemas como ProtGPT2, que ya se usa para el diseño experimental de proteínas y está encabezando una revolución biotecnológica. “Siempre se dice que un ingeniero aeronáutico diseña un avión y vuela; en biología no podíamos hacer esto, hay que probar y probar”, relata Güell. “Pero, claro, con este ChatGPT que habla [idioma] proteína empieza a parecer posible, y de hecho es algo que estamos haciendo en el laboratorio y que va a llegar”. Y esta posibilidad que abre la tecnología de “inventar” una nueva biología tiene unos riesgos implícitos aterradores.
Los riesgos reales
¿De qué peligros estamos hablando? “Si tuviera que hacer un ránking de riesgos —indica Güell— pondría arriba del todo la posibilidad de hacer virus, un covid sintético más sofisticado, por ejemplo, o con partes más sofisticadas. Esto no sé si puede pasar mañana, en un año o en tres, pero claramente es algo que no está muy lejos a nivel de técnica”. “Estamos hablando de la posibilidad de diseñar, por ejemplo, una molécula que interfiera con la cadena respiratoria de las mitocondrias (nuestra gasolina, la fuente de energía) o una molécula que interfiera con la comunicación sináptica entre neuronas, como hacen los gases nerviosos como el gas sarín, serían venenos peligrosísimos y toxiquísimos que provocarían la muerte por colapso de forma inmediata”, enumera Lluis Montoliu, genetista e investigador del CNB-CSIC.
Si tuviera que hacer un ránking de riesgos pondría arriba del todo la posibilidad de hacer virus, un covid sintético más sofisticado. Es algo que no está muy lejos a nivel de técnica
Marc Güell — Experto en Biología Sintética de la Universidad Pompeu Fabra (UPF)
“Si tú puedes seleccionar proteínas o, mejor dicho, secuencias genéticas de ADN que codifiquen eventualmente para proteínas que tengan una finalidad beneficiosa, ¿por qué no pensar que lo mismo lo puedes hacer para generar una proteína que sea una enzima clave que rompa una ruta metabólica y cause un estropicio celular y que sea absolutamente tóxica?”, insiste Montoliu. “¿O sintetizar una molécula que bloquee algún receptor de membrana y que, en lugar de curar o de facilitar o mejorar la vida para los enfermos de una determinada enfermedad, lo que haga es provocar esa enfermedad o incluso provocar la muerte?”. “Después del covid, ha quedado claro que el potencial destructivo de la biología es indudable”, añade Güell. “Hemos tenido millones de muertos por un trozo de ARN dando vueltas por el mundo”.
La ‘caja de Pandora’
Todos estos escenarios que parecen fantasiosos y catastrofistas se convirtieron en una posibilidad real en 2020, cuando dos investigadores de la empresa Collaborations Pharmaceuticals, Sean Ekins y Fabio Urbina, se preguntaron qué pasaría si ponían a la inteligencia artificial a trabajar para el mal. Para ello, tomaron la red neuronal MegaSyn, que estaban utilizando para diseñar fármacos, y cambiaron un solo parámetro: en lugar de buscar productos que no dañaran la salud humana, probaron qué pasaba si le pedían a la IA que seleccionara las combinaciones tóxicas. En solo unos minutos, y con un ordenador de sobremesa, la IA les arrojó una lista de 40.000 moléculas que eran tan tóxicas o más que el compuesto VX, uno de los más letales que se ha sintetizado nunca.
En una hora, los chatbots sugirieron cuatro posibles patógenos pandémicos e identificaron protocolos para iniciar una pandemia
Más recientemente, en junio de 2023, un equipo del MIT encabezado por Kevin M. Esvelt encargó a un grupo de estudiantes no científicos que investigaran si se podría solicitar a un modelo de lenguaje LLM, como ChatGPT, que les ayudara a provocar una pandemia. “En una hora, los chatbots sugirieron cuatro posibles patógenos pandémicos, explicaron cómo se pueden generar a partir de ADN sintético utilizando genética inversa, proporcionaron los nombres de empresas de síntesis de ADN que probablemente no examinarían los pedidos, identificaron protocolos detallados y cómo solucionarlos”, explicaron los investigadores en su artículo con los resultados. Acababan de demostrar que los modelos como ChatGPT no solo pueden diseñar proteínas, sino que a nivel de usuario pueden guiar la actuación de alguien que desee aplicar estas moléculas para hacer daño.
Un registro del material sintético
En un artículo editorial publicado recientemente en la revista Science, dos grandes nombres de la biotecnología –el bioquímico David Baker y el genetista George Church– abordan la posibilidad de que estas herramientas se utilicen con malas intenciones y apuntan a posibles soluciones. En el texto, Baker y Church ponen el foco en que “esta tecnología es vulnerable al mal uso y a la producción de agentes biológicos peligrosos” y proponen “una política de detección y registro de todas las secuencias genéticas sintetizadas”. Se trata, en definitiva, de que las principales empresas que son capaces de sintetizar estas moléculas les coloquen una especie de “marca de agua” que sirva para identificar el origen de posibles malos usos y que funcione como barrera disuasoria para quienes quieran utilizarlas con malas intenciones.
Como recuerdan Baker y Church, las empresas de este sector siguen de forma voluntaria la regulación propuesta por el Consorcio Internacional de Síntesis Genética (IGSC) desde 2004. Esto se traduce en que, cuando reciben un encargo para sintetizar una molécula, lo contrastan con una base de datos para descartar que se trate de un agente peligroso. Ahora mismo, explica Güell, la síntesis de genes está muy centralizada en unos pocos productores, alrededor de una decena de empresas en Asia y EEUU. “Y son ellas las que actúan de filtro, cuando les mandas secuencias y quieres sintetizar un gen, ellos lo miran y contrastan con sus bases de datos y si sale una posible toxina, un virus o algo sospechoso, no lo sintetizan y te piden explicaciones”, confirma.
Los autores de este artículo editorial proponen ir más allá y sistematizar un registro para la creación de todo material sintético, una medida que no será suficiente para impedir el mal uso de esta tecnología, a juicio de Güell. “Yo, personalmente, veo muy difícil de implementar el control”, afirma. “Creo que hay que ir en la dirección que apuntan, porque no veo otra manera de que esta tecnología se canalice para un uso no malicioso, pero es verdad que es muy difícil, porque ¿cómo vamos a convencer a todas las empresas que venden estas herramientas de que cumplan las normas? Además, también se venden sintetizadores de ADN más sencillos, y con ellos un ingeniero bien equipado y con un presupuesto puede hacer cosas”.
Una solución sería que todas las secuencias generadas por IA incorporaran un código específico y único cuando son sintetizadas
Gemma Marfany — Catedrática de Genética de la Universidad de Barcelona (UB)
Para Gemma Marfany, catedrática de Genética de la Universidad de Barcelona (UB), la solución de un registro obligatorio tiene sentido. “Para garantizar la bioseguridad de estas moléculas y su trazabilidad, una solución sería que todas las secuencias generadas por IA incorporaran un código específico y único cuando son sintetizadas, y que todas estén registradas en repositorios obligatorios”, afirma. “Pero si no sé de la existencia de estas secuencias, difícilmente el hecho de que las deposite en una base de datos me va a permitir asociarlas con peligro si no es que voluntariamente quien las haya creado las deposita con una etiqueta y alerta al resto de las personas”, advierte Montoliu. “Esperar que todo el mundo vaya a seguir por el camino recto, y que nadie vaya a utilizarlo mal, probablemente sea una ingenuidad”.
Alfonso Valencia, director del departamento de Ciencias de la Vida en el Centro Nacional de Supercomputación de Barcelona y del Instituto Nacional de Bioinformática, es más optimista y cree, como dicen los autores del artículo, que “la complejidad biológica hace que sea muy improbable que se pueda crear un agente peligroso en un solo intento”. A su juicio, hoy por hoy no hay un escenario real para que esto sea posible. “El bioterrorismo como en las películas no es factible en la realidad –subraya–, pero sí es necesario ajustar las medidas que ya existen”.
El bioterrorismo como en las películas no es factible en la realidad, pero sí es necesario ajustar las medidas que ya existen
Alfonso Valencia — Director del departamento de Ciencias de la Vida en el Centro Nacional de Supercomputación de Barcelona y del Instituto Nacional de Bioinformática
Uno de los riesgos de los que más se ha hablado es la posibilidad de sintetizar una proteína parecida a la spike del SARS-CoV-2, recuerda, pero por fortuna los nuevos métodos de IA permiten predecir y sintetizar nuevas proteínas, pero no dotarlas de propiedades específicas. “Es decir, a día de hoy no es posible sintetizar una nueva proteína que funcione como la proteína de spike sin parecerse a ella”, sentencia. “Al menos no con los métodos conocidos y sin una gran inversión combinando computación y experimentación”.
El problema que queda por resolver, advierte Valencia, es cómo se detectará el nivel de peligrosidad de nuevas construcciones que no se parezcan a nada conocido. “El argumento de Baker y Church, que me parece acertado, es que el propio hecho de registrar las construcciones disminuirá el riesgo, además de hacer posible trazar el origen de las construcciones”. En cualquier caso, concluye, está claro que se debe continuar trabajando para evitar este tipo de escenarios.