Dos milenios buscando la tumba de Platón. Acaban de localizarla gracias a la iA

Noticia de Marcos Merino (Genbeta)

Un equipo de investigadores ha revelado que los papiros de Herculano (enrollados y carbonizados tras la erupción del Vesubio en el año 79 d.C) contienen información precisa sobre la ubicación de la tumba de Platón

Parece una trama sacada de la última película de Indiana Jones, pero esto es cosa de la inteligencia artificial, no de los viajes en el tiempo: un equipo de investigadores italianos ha revelado que los papiros de Herculano (que se habían conservado, enrollados y carbonizados, tras la catastrófica erupción del Vesubio en el año 79 d.C) contienen información precisa sobre la ubicación de la tumba de Platón, el filósofo ateniense, alumno de Sócrates, de quien Alfred North Whitehead dijera aquello de que “la tradición filosófica europea consiste en una serie de notas a pie de página” de sus escritos.

Estos documentos han podido sobrevivir gracias a que la misma catástrofe que impedía leerlos hasta ahora los protegió de la degradación natural

La IA, clave para desentrañar los papiros de Herculano

El equipo del proyecto GreekSchools liderado por Graziano Ranocchia, papirólogo de la Universidad de Pisa, ha revelado detalles nunca antes vistos sobre la historia de la Academia de Platón después de que lograran escanear cientos de imágenes del documento carbonizado que fueron analizadas por un algoritmo de inteligencia artificial.

Hace ya unos meses nos hacíamos eco de un proyecto relacionado con este, el “Vesuvius Challenge”: un desafío lanzado en marzo de 2023, nada menos que por Nat Friendman —ex CEO de GitHub—, que premió a un estudiante de informática con 40.000 dólares por descifrar una palabra de otra porción de esta colección de papiros, usando otro algoritmo de IA ejecutado sobre una ‘obsoleta’ GPU Nvidia GTX 1070.

Decíamos entonces que “haber descifrado una única palabra parece poca cosa, pero es el primer paso para desarrollar una tecnología mucho más completa”. Y aquí estamos ahora, rellenando huecos que creíamos perdidos de la biografía de Platón.

Última hora sobre Platón (en pleno siglo 21)

Hasta ahora sólo sabíamos que Platón estaba enterrado en algún lugar dentro de la Academia que él mismo fundó en Atenas en el 387 a.C., pero ahora sabemos, gracias a la IA y a un texto del filósofo Filodemo de Gadara recopilado en los papiros de Herculano, que Platón fue enterrado en un jardín privado cerca del llamado Museion (‘santuario sagrado de las Musas’, de donde procede el término ‘museo’), dentro de los confines de dicha Academia.

Además, los textos reevaluados ofrecen nueva luz sobre eventos de la vida de Platón que hasta ahora habían sido malinterpretados o desconocidos. Por ejemplo, los papiros sugieren que Platón fue vendido como esclavo en la isla de Egina, lo que vendría a corregir especulaciones anteriores que situaban dicho hecho en Sicilia.

6 trabajos que la Inteligencia Artificial está creando y qué tipo de preparación requieren

Noticia de Margarita Rodríguez (BBC News World)

“Hay muchos estudios que dicen que la Inteligencia Artificial (IA) está creando más empleos que los que destruye”.

De hecho, están naciendo nuevas carreras, le dice a BBC Mundo Elena Ibáñez, CEO de Singularity Experts, una startup que brinda asesoría laboral.

Y, al mismo tiempo, esa tecnología “está haciendo evolucionar profesiones tradicionales en absolutamente todos los sectores”.

La pregunta -dice la experta- no es hacia dónde apuntan las oportunidades laborales, sino en qué nos tenemos que formar dentro de nuestras profesiones para capturar las oportunidades que la IA está generando.

“Lo que estamos viendo en el mercado, sobre todo hablando con clientes tanto del sector tecnológico como de industrias más tradicionales, no es que la IA viene a destruir empleos”, le dice a BBC Mundo Francisco Scaserra, líder de Tecnología en Argentina de la compañía de reclutamiento de personal Michael Page.

“Probablemente seguimos pensando en los humanos para tareas que son demasiado básicas, creo que el gran desafío es hacer que las posiciones que ya existen evolucionen para tener un valor agregado diferente y no se queden con la transaccionalidad. De ella se puede encargar la IA”.

Creer que la IA es solo un asunto de Silicon Valley y las grandes tecnológicas, es no ver el abanico en toda su amplitud.

En el 2022, por ejemplo, el Departamento de Operaciones de Paz de las Naciones Unidas buscaba un experto en IA y Machine Learning (aprendizaje automático). Y de hecho, en el Instituto Interregional de la ONU para Investigaciones sobre Delincuencia y Justicia opera un Centro de IA y Robótica.

“Imparable”

Pese a la perspectiva negativa con la que muchas personas ven la IA, no solo por su efecto en el mercado laboral, sino por el poder que temen puede llegar a desarrollar, no todos ven el panorama sombrío.

Si bien el Foro Económico Mundial indicó, en un informe de 2020, que la fuerza laboral se estaba automatizando “más rápido de lo esperado, desplazando a 85 millones de puestos de trabajo” para 2025, apuntó a que “la revolución robótica creará 97 millones de nuevos empleos”.

Una mujer en una entrevista de trabajo

En abril de 2023, Gilbert F. Houngbo, director general de la Organización Internacional del Trabajo (OIT) fue contundente: “La inteligencia artificial es imparable. Tenemos que aceptar que avanzará más y más”.

“Pero hablando en términos generales, los avances tecnológicos y digitales suelen crear más empleos de los que son destruidos. Eso lo sabemos”, le indicó el funcionario a la agencia EFE.

No es el fin del trabajo”, le dice a BBC Mundo Janine Berg, economista en la OIT. “Se trata de incorporar esta tecnología para hacernos más eficientes, para ayudarnos a hacer nuestro trabajo”.

“Hay ocupaciones que van a ser creadas, pero que ahora mismo no podemos prever en qué consistirán”.

La experta reconoce que “hay muchas personas que están entrenando a los sistemas de IA, en ciertas empresas, cuyas condiciones de trabajo no son tan buenas”.

Ese es uno de los tantos desafíos que enfrenta ese sector: los cientos de miles de trabajadores, muchos de bajos ingresos y en países pobres, sin los cuales no existirían varios sistemas de IA.

Pese a sus tantas controversias, la IA ya está integrada a nuestras vidas.

“Lo importante es sentirse cómodo con la tecnología y eso no significa que tienen que estudiar programación, sino ser conscientes de que en el mercado de trabajo los empleadores van a estar buscando personas que usen la IA como una herramienta para su trabajo, para ser más productivos”.

Y, de acuerdo con Berg, no se requiere hacer costosas especializaciones en el exterior, en América Latina se cuentan con centros de estudio e iniciativas de formación a tono con las demandas del mercado.

“La clave es tener la disposición para aprender y hacer preguntas”.

Te contamos sobre algunos trabajos que se están creando en el campo de la IA:

1. Ingeniero de prompts

Imagina que te pido algo, pero no te doy suficiente información ni un contexto de lo que necesito. Seguramente me intentarás ayudar, pero tu respuesta quizás no va a ser tan acertada como si hubieses contado con más datos.

Llevemos ese ejemplo a los varios modelos de IA generativa que se han vuelto cada vez más eficientes a la hora de comprender el lenguaje natural, el que usamos tú y yo para comunicarnos: el prompt engineer o ingeniero de prompts es la persona que diseña prompts, peticiones o premisas, para después someterlas a una herramienta de IA.

Una joven escribe con un lápiz sobre un papel

La clave para que la herramienta, ante la pregunta de un usuario, arroje el mejor resultado depende en gran medida de que el ingeniero prompt haya desarrollado unas instrucciones realmente eficaces (en forma de texto), en las que la precisión y el contexto son fundamentales.

En marzo de 2023, el Foro Económico Mundial lo incluía en “3 empleos nuevos y emergentes”, mientras que Business Insider califica la ingeniería del prompt como uno de los hottest trabajos en IA generativa. El mismo adjetivo lo usan Forbes, “the hot new job”, y la Universidad Estatal de Arizona al presentar uno de sus cursos: “one of the hottest new jobs”.

En abril, la revista Time señalaba que para este tipo de trabajo no se necesitaba “un título en ingeniería informática, ni siquiera habilidades avanzadas de programación”.

Y si bien algunas fuentes concuerdan con que no es imprescindible contar con formación tecnológica y resaltan que la clave para esa posición es poseer habilidades como el pensamiento crítico, el análisis de datos y la creatividad, varias ofertas de empleo vistas por BBC Mundo también piden el manejo de lenguajes de programación como Python y TensorFlow, así como experiencia con modelos de aprendizaje automático.

Pero no todos los expertos ven la ingeniería de prompts con entusiasmo desbordante. Para muchos, es una ocupación que puede llegar a ser efímera dado el rápido avance de la IA.

“Tengo la fuerte sospecha de que la ‘ingeniería de prompts’ no va a ser un gran negocio a largo plazo… no es el trabajo del futuro“, escribió Ethan Mollick, profesor asociado de la Universidad de Pennsylvania, en X (antes Twitter).

Otros la ven más como una habilidad para ser más competitivos, como en su momento fue Microsoft Excel, por ejemplo.

“Se dice que si eres bueno en ingeniería de prompt, podrías evitar ser reemplazado por la IA, e incluso podrías aspirar a un salario alto. Aunque aún queda por verse si ese seguirá siendo el caso”, escribió Richard Fisher, autor y editor de BBC Future.

2. Investigador de IA

Su rol es identificar maneras de usar la IA para superar problemas y limitaciones que tengan las organizaciones.

Jóvenes trabajando frente a un computador

Se especializa en “comprender grandes conjuntos de datos y convertir ese aprendizaje en ideas y planes para desarrollar nuevas tecnologías de IA que los científicos de datos materializarán”, señala la Universidad de Leeds, en el artículo What are the Top 5 Jobs in AI? (¿Cuáles son los 5 trabajos top en IA?)

Un investigador de IA debe contar con lo que se conocen como habilidades blandas, aquellas que se relacionan con la inteligencia emocional, el pensamiento crítico, la resiliencia, la adaptabilidad, entre otras.

Son destrezas clave, dice la institución académica, porque su “rol implicará una tormenta de ideas frecuente para encontrar nuevos métodos y enfoques”.

En lo técnico, serán importantes también habilidades “matemáticas para utilizar estadísticas y predecir cómo se ejecutarán los programas de IA, y la capacidad de analizar datos con experiencia en herramientas como RapidMiner o SketchEngine”.

Para Ibáñez, este profesional debe ser experto en tres campos: ingeniería del software, estadística y negocios.

“Es decir, es un perfil muy completo que aplica todo su conocimiento técnico a la mejora de un negocio”.

3. Experto en procesamiento de lenguaje natural

Es el experto humanista que domina los modelos lingüísticos y apoya al equipo de desarrollo de software con el procesamiento del lenguaje, dice la especialista.

Teclas con diferentes idiomar

Usualmente, se requiere una carrera de filología, lingüística o traducción e interpretación.

Y, aunque no se necesita de un conocimiento tecnológico profundo, una especialización en procesamiento de lenguaje natural o un máster en lingüística computacional, enriquece el perfil del candidato.

La lingüística computacional, que es un campo interdisciplinario que lleva décadas con nosotros, busca traducirle a las máquinas la lógica del lenguaje escrito y hablado para que después, a través del entrenamiento de modelos, puedan ejecutar tareas.

Es así como detrás de los chatbots no solo hay científicos de datos y desarrolladores de softwares, sino miembros de otras disciplinas humanistas, como la filosofía y la psicología.

4. Experto en automatización robótica de procesos o RPA (Robotic Process Automation)

Se trata de gestionar sistemas de software que automatizan tareas repetitivas y manuales en una empresa.

De acuerdo con Ibáñez, para formarse en esto, hay varias licenciaturas como programación y sobre todo especializaciones relacionadas con la RPA.

Una pantalla que dice RPA

Empresas como Microsoft asocian la adopción de la RPA, por parte de las organizaciones, con aumentos en la productividad.

“La RPA beneficia a su negocio al automatizar varias actividades, incluida la transferencia de datos, la actualización de perfiles de clientes, la entrada de datos, la gestión de inventario y otras tareas más complejas”, indica en su página web.

5. Auditor de algoritmos

Ibáñez explica que este trabajador revisa algoritmos de sistemas o aplicaciones para asegurarse de que carezcan de sesgos que discriminen a las personas por género, raza, edad.

Puede tener tanto una formación técnica (desarrollador de software, informático) como una preparación más humanista que profundice en la ética.

Una mujer frente a una computadora

De hecho, los auditores de algoritmos deben tener una comprensión práctica de cómo los algoritmos pueden afectar a las personas.

De ahí, la importancia de que trabajen estrechamente con los científicos de datos para revisar con regularidad los algoritmos, cerciorarse de que “sean transparentes, justos y explicables” y que una vez publicados mantengan la imparcialidad, señala en su página Singularity Experts.

“Además, proporcionará recomendaciones a los desarrolladores sobre cómo hacer que el modelo sea más ético y entendible para la población”.

6. Especialista en ética y leyes con conocimiento de la IA

“Independientemente de dónde te encuentres en la cadena de valor de IA, ya sea que produzcas tecnología, que la uses o que hagas contenido para entrenarla, es importante que tengas a tu lado a abogados y especialistas en ética que sepan de IA”, le dice a BBC Mundo Mathilde Pavis, profesora asociada de la escuela de Derecho de la Universidad de Reading, en Inglaterra.

“Eso te va a permitir asegurarte de que no estás haciendo algo que, más adelante, tenga que ser eliminado”.

La balanza de la justicia rodeada de varios iconos

Como especialista en derecho de propiedad intelectual, ética y nuevas tecnologías, Pavis también asesora a gobiernos, organizaciones y negocios sobre el impacto de la IA en el manejo de datos confidenciales.

Plantea que algunas de las principales preguntas que genera la IA son: ¿se violan los derechos de propiedad intelectual cuando es entrenada con información que está en internet o en las redes sociales? ¿Al hacer eso se atenta contra los derechos a la privacidad?

“Obviamente hay un potencial riesgo de que la tecnología que desarrolles sea mal utilizada por otros, aunque esa nunca haya sido tu intención”, advierte la profesora. Que se use, por ejemplo, para difundir información falsa, cometer fraudes, desestabilizar elecciones.

Códigos en una computadora

Por eso es fundamental, que desde el principio se implementen mecanismos de control de cara al impacto legal, social y ético de la tecnología de IA que se cree o se use.

Y ese es uno de los campos del derecho que la IA está abriendo.

Se necesitan abogados que puedan entender y conectar dos mundos:

  • El del derecho comercial, que incluye la propiedad intelectual
  • El del derecho penal y la ciberseguridad

Son mundos que no suelen comunicarse entre sí. Pero, “la IA oscila en ese espectro: es un producto con un gran potencial comercial y, al mismo tiempo, con un potencial para que se le dé un mal uso”.

Un abogado que quiera incursionar en el campo de la IA debe, por ejemplo, asesorar a una compañía que quiera llevar “un gran producto, una innovación de IA, al mercado”, con el marco legal mercantil y con el marco de la regulación en internet.

Un micrófono en un estudio

Pavis se especializa en el uso de la IA en las industrias creativas. Más específicamente en el contenido generado con IA: voces y rostros, “clonación digital de seres humanos”.

Asesora startups que “quieren asegurarse” de que la tecnología de clonación que están desarrollando no infringe la ley.

“También trabajo con artistas que quieren participar en la ‘revolución de la IA’, pero quieren estar seguros de que los activos que traen a la mesa -las grabaciones de su voces, sus actuaciones- no se usarán indebidamente o que, de alguna manera, se conviertan en su propia competencia en el mercado”.

“Y también trabajo con empresas y medios de comunicación que quieren comisionar productos que involucren IA, pero quieren asegurarse de que todo se haga de manera adecuada y ética”, finaliza.

Por qué Llama 3 lo está cambiando todo en el mundo de la IA

Noticia de Diego Bastarrica (Digitaltrends)

Las razones son múltiples y variadas. Es de uso gratuito, tiene una amplia base de usuarios y, sí, es de código abierto, por nombrar solo algunos. He aquí por qué Llama 3 está arrasando en la industria de la IA y puede dar forma a su futuro durante algún tiempo

En el mundo de la IA, sin duda has oído hablar de lo que OpenAI y Google han estado haciendo. Y ahora, el LLM (modelo de lenguaje grande) Llama de Meta se está convirtiendo en un jugador cada vez más importante en el juego, especialmente con su naturaleza de código abierto. Meta recientemente causó un gran revuelo con el lanzamiento de su modelo de IA Llama 3, y ha sacudido el campo dramáticamente.

Llama 3 es realmente bueno

Podemos debatir hasta que las vacas vuelvan a casa sobre lo útiles que son las IA como ChatGPT y Llama 3 en el mundo real, no son malas para enseñarte las reglas de los juegos de mesa, pero los pocos puntos de referencia que tenemos sobre la capacidad de estas IA le dan a Llama 3 una clara ventaja.

Algunos de los desarrolladores de Llama 3 han estado compartiendo pruebas comparando los últimos modelos con algunas de las principales alternativas y, en muchos casos, Llama 3 sale ganando. Estos puntos de referencia abarcan las matemáticas, el procesamiento del lenguaje natural, las habilidades de codificación y el conocimiento y la comprensión generales.

Sin embargo, no te fíes solo de su palabra. Puedes probar Llama 3 contra sí mismo y contra una variedad de otros modelos de IA en la Arena de IA.

Una base de usuarios masiva existente

Cuando OpenAI lanzó ChatGPT, tuvo algunas partes interesadas iniciales, pero tuvo que hacer crecer su audiencia de forma orgánica. Lo hizo increíblemente rápido, registrando decenas de millones de usuarios tras el éxito de sus modelos GPT 3 y GPT 4. Pero Llama 3 de Meta ya está integrado en su IA de Meta, que se puede usar en FacebookInstagramWhatsApp y Messenger, así como en las versiones de la aplicación web de todos estos servicios.

No se trata de millones de usuarios existentes. Son miles de millones. Todo lo que Meta tiene que hacer para obtener más datos sobre cómo se usa Llama 3, o cómo mejorarlo para los usuarios cotidianos, es empujar a estos miles de millones de usuarios a probarlo. Se trata de un público cautivo con el que pocas empresas tecnológicas pueden siquiera acercarse a competir.

Es totalmente gratis

Si la fallida iniciativa Horizons VR del CEO de Meta, Mark Zuckerberg, nos mostró algo, es que Meta no tiene ningún problema en invertir decenas de miles de millones de dólares en proyectos que realmente no van a ninguna parte. Pero esa falta de monetización necesaria es una fortaleza increíble de una empresa que invierte en un campo tan vanguardista, porque mientras que otros desarrolladores de IA pueden necesitar obtener un retorno de su inversión relativamente rápido, Meta realmente no lo necesita.

Con su gigantesca infraestructura de centro de datos y su firme flujo de ingresos fundamental de sus diversos servicios, Meta puede fijar el precio de Llama 3 exactamente a $ 0 para todos. Puede permitirse el lujo de gastar miles de millones de dólares en potencia informática en la búsqueda de un mayor desarrollo de Llama 3 y futuros LLM. Eso hace que Llama 3 sea más accesible para sus miles de millones de usuarios que cualquier otra IA de primer nivel.

Es de código abierto

Mientras que el precio es importante para los usuarios, la transparencia del código es importante para los desarrolladores. A diferencia de las IA de plataformas propietarias, como ChatGPT y sus diversos modelos de lenguaje, Llama 3 es de código abierto. Eso significa que los desarrolladores pueden ver cómo se ejecuta y realizar cambios en él. Pueden iterar sobre él y llevar el proyecto en sus propias direcciones intrigantes. Eso fomenta una mayor adopción, ya que más desarrolladores podrán integrar el modelo Llama 3 en sus propios proyectos, y fomenta un mejor código, ya que más personas pueden influir en su desarrollo.

Eso tiene el potencial de hacer de Llama 3 una especie de estándar, afianzando para el futuro previsible.

Puede ejecutarse localmente

Uno de los mayores inconvenientes de las IA de grandes modelos de lenguaje como Gemini de Google, ChatGPT o iteraciones anteriores de Llama de Meta es que requieren una cantidad desmesurada de potencia informática, no solo en el entrenamiento, sino en el funcionamiento real. Es por eso que hay que pagar por el privilegio de usar algunas IA más exigentes, y por eso la respuesta a veces es lenta cuando el servicio está ocupado.

Pero Llama 3 puede ejecutarse localmente en hardware de computadora portátil de consumo. Requiere un poco de salto a través de aros, y necesitará mucha memoria para que funcione de manera efectiva (la computadora portátil utilizada en el siguiente ejemplo es la MacBook Pro M1 Max con 64 GB de memoria RAM), pero eso no es una gran barrera de entrada.

Ahora bien, ese ejemplo no es el mejor modelo de Llama 3: se entrenó con 70 mil millones de tokens (palabras o puntos de datos que conforman su comprensión), en lugar de los 15 billones del modelo superior. Llama 3 también está lejos de ser el primer LLM que se ejecuta localmente, pero es el más capaz hasta ahora, y sugiere que podríamos ver este tipo de IA ejecutada en teléfonos inteligentes, gafas inteligentes, auriculares de realidad virtual y otros dispositivos en un futuro cercano.

Y esto es solo el principio

Llama 3 es increíble, pero hay muchas cosas que aún no puede hacer. Actualmente está completamente basado en texto, lo que significa que no es la IA multimodal que hemos visto con ChatGPT y servicios similares. No puede procesar vídeo, ni audio, ni imágenes. No puede responder a órdenes vocales ni responderte. Actualmente solo funciona con el idioma inglés.

Pero pronto será capaz de hacer todas esas cosas, y probablemente más. Llama 3 es un disparo de advertencia para muchos desarrolladores de IA que señalan que el tiempo de las nuevas empresas más pequeñas que se roban el protagonismo en el desarrollo de IA puede haber terminado. Sin el tipo de respaldo financiero, tecnológico y de infraestructura de una empresa como Meta, competir directamente podría ser muy difícil.

3 claves para entender el éxito de Nvidia, la compañía cuyo valor sobrepasó al de Google

Noticia de BBC News Mundo

Nvidia se ha coronado como el rey mundial de los chips al desarrollar potentes unidades de procesamiento de gráficos (GPU, por sus siglas en inglés)

El fabricante estadounidense de procesadores Nvidia alcanzó este viernes los US$2 billones de valor de mercado, una frontera que solo habían conquistado en EE.UU. los gigantes tecnológicos Microsoft y Apple.

Alphabet, cuya principal filial es Google, fue desplazada por Nvidia en capitalización de mercado.

“Las condiciones son excelentes para seguir creciendo”, dijo el director ejecutivo de la empresa, Jensen Huang, en una llamada con inversionistas.

En lo que va del año, las acciones de la firma han subido más de 60%, después de triplicarse en 2023.

Nvidia se ha coronado como el rey mundial de los chips al desarrollar potentes unidades de procesamiento de gráficos (GPU, por sus siglas en inglés).

Estos procesadores, los más utilizados en la industria de la inteligencia artificial, son circuitos electrónicos que pueden realizar cálculos matemáticos a alta velocidad y su valor se calcula en decenas de miles de dólares por unidad.

Son tan apetecidos que, como si se tratara de diamantes, son transportados en camiones blindados.

La firma le lleva una gran ventaja a Intel y AMD, sus mayores competidores, dominando cerca de un 80% del mercado de las GPU.

Estas son tres claves que explican el éxito del gigante tecnológico con sede en California.

1. El salto desde los videojuegos a la inteligencia artificial

Chip de Nvidia

Hace más de 30 años Nvidia comenzó como una empresa que fabricaba chips para el desarrollo de videojuegos.

Sus unidades de procesamiento de gráficos comenzaron a ser muy demandadas para el desarrollo de funciones de visualización como renderizar videos, imágenes y animaciones, ideales para videojuegos de alta exigencia.

Este fue durante mucho tiempo el principal negocio de Nvidia.

Pronto la firma descubrió que sus GPU también eran útiles para otras tareas exigentes, como acelerar el rendimiento informático de los cerebros de las computadoras, es decir, las unidades centrales de procesamiento.

Gigantes como Google, Microsoft y Amazon se interesaron en los procesadores de Nvidia para potenciar sus enormes centros de datos, como también lo hicieron las compañías dedicadas a la criptominería.

Al mismo tiempo, los ingenieros empezaron a utilizar sus chips para hacer cálculos de inteligencia artificial, dado que el tipo de matemática necesaria para construir sistemas complejos encajaba con la forma en que funcionan los chips gráficos.

Hoy, las GPU más avanzadas de Nvidia, como las llamadas H100, se utilizan en la creación de los sistemas de inteligencia artificial más sofisticados.

2. Adelantarse a los competidores

Logo Nvidia

La empresa se dio cuenta pronto de que los semiconductores diseñados para el procesamiento de gráficos, también eran útiles para entrenar sistemas de inteligencia artificial.

Iniciar la carrera antes que el resto le dio una valiosa ventaja frente a sus competidores.

A partir del 2006, Nvidia dejó clara su apuesta por la inteligencia artificial. En esa época, la empresa anunció la creación de CUDA, un lenguaje de programación que hizo posible que los chips de la firma pudieran resolver complejos problemas matemáticos.

Así fue como la firma entró con sus procesadores en el mundo de la inteligencia artificial antes que sus grandes competidores, como Intel o AMD.

Esa ventaja inicial podría verse acortada si las otras firmas aceleran su paso, dado están haciendo grandes inversiones para conseguir una mayor cuota de mercado.

Y, por otro lado, los gigantes dedicados a la computación en la nube, como Amazon, Microsoft o Google, también están dedicando esfuerzos a fabricar sus propios chips especializados para el entrenamiento de inteligencia artificial.

3. Una voraz demanda por sus productos

Jensen Huang

La gran demanda de los procesadores de Nvidia para juegos, centros de datos y aplicaciones de inteligencia artificial sigue aumentando.

Particularmente en el último año ha subido aceleradamente el interés por los costosos procesadores gráficos para los servidores que alimentan los grandes modelos de inteligencia artificial.

Nvidia, que solía ser una firma tecnológica menos conocida que el resto de los gigantes, pasó rápidamente a primer plano con el lanzamiento de ChatGPT, un sistema de inteligencia artificial desarrollado por la empresa OpenAI, que utiliza sus procesadores.

Los chips de Nvidia parecen ser, dicen los expertos, los más adecuados para entrenar a los modelos de inteligencia artificial.

Lo que no se sabe es cuánto tiempo estos procesadores seguirán liderando el mercado de las GPU o si los rivales de Nvidia conseguirán una buena tajada del pastel.

Por ahora, la balanza está a su favor. La demanda de uno de sus productos estrella, el chip H100, es tan grande, que algunos clientes han tenido que esperar hasta seis meses para recibirlo.

Analistas del mercado plantean que probablemente en alrededor de un año podría mejorar la oferta de chips para inteligencia artificial, en la medida que AMD e Intel sigan avanzando con sus desarrollos.

TikTok lanza en Europa un feed exclusivo de contenido educativo sobre ciencia y tecnología

Noticia de Christian Collado de La Vanguardia

Un impulso al conocimiento: TikTok estrena en el mercado europeo un feed dedicado exclusivamente al contenido educativo STEM, tras el éxito y la alta demanda de vídeos científicos y tecnológicos en la plataforma

TikTok ha anunciado hoy la llegada de un nuevo feed específico dentro de su red social, destinado a mostrar contenidos STEM, siglas que engloban ciencia, tecnología, ingeniería y matemáticas, destinado a los usuarios europeos. Esta estrategia es parte de los compromisos de la red social para potenciar y enfocar su contenido hacia la educación y divulgación en campos científicos y tecnológicos, y sigue a la misma acción que llevó a cabo en Estados Unidos en el año pasado.

TikTok potencia el contenido educativo STEM en Europa

Desde el lanzamiento en Estados Unidos, la cifra global de vídeos de contenido STEM publicados ha alcanzado los 15 millones, según datos de la compañía. El objetivo es potenciar la producción y difusión de este tipo de contenido, que ha escalado un 24% desde que la nueva función se introdujo en Norteamérica. Como indicador de su relevancia, un tercio de la audiencia adolescente accede a esta sección cada semana.

Además de esto, TikTok también ha llevado a cabo acuerdos con diversas asociaciones con el propósito de promover contenidos STEM de alta calidad, precisos y relevantes, con el objetivo de transformar la plataforma en un espacio de aprendizaje en el que los usuarios puedan familiarizarse con ciencia y tecnología de manera amena y educativa.

Con respecto al Feed Para Ti, los usuarios pueden seleccionar el feed STEM para acceder a una variedad de contenidos en inglés, los cuales cuentan con subtítulos traducidos de manera automática. Contará con la supervisión de dos entidades independientes, e incorporará la aportación de distintos creadores y asociados en la plataforma que estén activos en campos STEM, desde científicos que realicen experimentos hasta publicaciones que vengan del ámbito espacial.

El nuevo feed STEM llega hoy a Reino Unido e Irlanda. En cuanto a los usuarios de España, estos podrán disfrutar de la nueva función en unas pocas semanas a través de la app de la red social.

TikTok ha tenido en cuenta la edad de sus usuarios en la incorporación del nuevo feed. Los menores de edad verán activada por defecto esta función, pero podrán desactivarla a través de la configuración de contenido. En cambio, los mayores de 18 años podrán elegir la función de contenido STEM a través de la misma configuración de la aplicación.

Prueban el sistema de soporte vital de la futura estación espacial Orbital Reef

Noticia de Noticiasdeciencia.com

Las pruebas fueron superadas con éxito, lo cual constituye un paso importante en el camino que sigue la NASA hacia la ampliación de las actividades de astronautas en órbita terrestre baja

El diseño de la estación espacial comercial Orbital Reef de la empresa Blue Origin, un proyecto impulsado por la NASA, fue sometido recientemente a pruebas clave de viabilidad de su sistema de soporte vital.

Las pruebas fueron superadas con éxito, lo cual constituye un paso importante en el camino que sigue la NASA hacia la ampliación de las actividades de astronautas en órbita terrestre baja.

Los seres humanos que viven y trabajan en el espacio lo hacen en un entorno cerrado que debe ser vigilado y controlado.

En la Estación Espacial Internacional, los componentes del sistema de control medioambiental y soporte vital mantienen el aire y el agua limpios para los astronautas. El sistema regenerativo recicla y recupera la mayor parte del agua y del oxígeno consumidos durante las actividades humanas cotidianas. Esto reduce significativamente la cantidad de masa que habría que lanzar a esa estación espacial para estas funciones.

La Orbital Reef contará con un sistema similar. En las cuatro pruebas se evaluaron distintas partes del sistema, entre ellas un detector de cantidades diminutas de ciertas sustancias contaminantes, un sistema de recuperación de agua a partir de la de orina y el depósito de agua.

La prueba del detector de contaminantes traza evaluó materiales para eliminar impurezas nocivas del aire. La prueba de recuperación del agua de la orina y la prueba del depósito de agua se centraron en tecnologías para purificar agua y almacenarla para su reutilización.

Chatgpt-4, superado por Claude 3 Opus, según los usuari@s

Noticia de Javier Pastor (Xataka)

OpenAI ha dominado con mano de hierro el segmento de los modelos de IA generativa de texto. Desde que lanzó ChatGPT, la capacidad de su chatbot ha estado siempre por encima de sus competidores, que lo utilizaban como vara de medir: cada vez que salía un nuevo chatbot, este prometía que era mejor que ChatGPT según ciertos benchmarks.

Lo cierto es que aunque en pruebas sintéticas eso podía ser verdad, la experiencia de usuario decía lo contrario. La primera versión de ChatGPT, basada en GPT-3.5, ya mostraba sus poderes desde el principio, pero fue el lanzamiento de GPT-4 (usado en ChatGPT Plus y base también de Copilot, antes Bing Chat) el que puso claramente el LLM de OpenAI por encima del resto. Los demás iban a la zaga, y aunque mejoraban, no lograban “transmitir” un mejor comportamiento cuando los usábamos.

Eso acaba de cambiar según Chatbot Arena, un ranking cada vez más prestigioso que fue creado por la organización Large Model Systems (LMSYS ORG) en colaboración con varias instituciones académicas. Su calificación y clasificación de grandes modelos de lenguaje se ha convertido en todo un referente, y lo es porque es especialmente distinto de otras herramientas de este tipo.

Lo que se hace en Chatbot Arena es permitir que los usuarios voten por el modelo que mejor responde a sus consultas. Cualquiera puede participar, y gracias a ello este ranking permite tener en cuenta no solo parámetros técnicos de modelos como GPT-4, sino también la experiencia de usuario que ofrece. Así, lo que los usuarios piensan de cada chatbot acaba siendo tan importante como lo que dicen las pruebas sintéticas. O más.

Ranking

Y como comentan nuestros compañeros de Genbeta, los votos de 400.000 usuarios han permitido dejar claro que hoy por hoy GPT-4 ha sido superado. Lo ha sido por Claude 3 Opus, el modelo que la firma Anthropic presentó hace pocas semanas y que es (por poco) el ganador en esa particular puntuación ELO —un concepto adaptado del mundo del ajedrez— que en Chatbot Arena asignan a cada modelo.

Es cierto que la diferencia con GPT-4 es muy pequeña, pero aún así esto representa un singular punto de inflexión que demuestra que hay una sana competencia en el mundo de los chatbots. Gemini Pro es el cuarto clasificado, mientras que Mistral, el chatbot de la startup francesa, ocupa la octava plaza. Es cierto que las variantes de GPT-4 copan el ranking, pero aún así el avance aquí de Anthropic es una excelente noticia para la competitividad en este mercado.

Leader

Otros estudios recientes parecen confirmar el auge de Claude 3. Lo hace por ejemplo el llamado Berkeley Function-Calling Leaderboard (BFCL), un nuevo conjunto de pruebas que no evalúan el comportamiento de preguntas y respuestas de los chatbots, sino su capacidad para convertirse en la base de los futuros y cada vez más populares agentes de IA.

En este benchmark Claude 3 Opus fue superior a GPT-4, que una vez más dominó el ranking aunque también se metía en esa particular clasificación Mistral. Parece por tanto que esa capacidad de “conectarse” con otros servicios a través de funciones en lenguajes como Java, JavaScript, Python, consultas SQL o llamadas a APIs REST es especialmente destacable en el modelo de Anthropic, que desde luego tiene un futuro prometedor.

Estos rankings, eso sí, no pararán de cambiar a corto y medio plazo: la evolución de estos LLMs sigue siendo frenética y de hecho los indicios apuntan a que GPT-5 está a la vuelta de la esquina. Mientras, los modelos que aprovechan licencias Open Source como Llama 2 o Grok —que acaba de estrenarse en ese apartado— podrían también comenzar a ganar enteros en todos estos apartados.

Google obligada a borrar millones de datos de su modo incógnito

Noticia de Antonoi Vallejo (Genbeta)

Tres personas demandaron a Google en 2020 alegando que su modo incógnito recopilaba datos de los usuarios y pedían 5.000 millones de dólares como compensación

En 2020, tres personas denunciaron a Google por rastrear la actividad de los usuarios en el modo incógnito, algo que la compañía no explicaba de manera explícita cuando un usuario lo activaba en su navegador. Estas personas pedían 5.000 millones de dólares a Google, una demanda que se ha ido alargando durante todos estos años hasta que, finalmente, en 2023 acabaron llegando a un acuerdo.

Con el fin de resolver la demanda, Google accedió esta misma semana a eliminar una gran cantidad de datos de navegación, según The Wall Street Journal. Estos datos estaban siendo recopilados mientras los usuarios accedían al navegador a través del modo incógnito. Con motivo de esta demanda, Google hasta agregó hace tiempo varias líneas a la descripción de su modo incógnito para especificar que los datos se siguen recopilando a pesar de que no quedan almacenados en el historial de navegación.

Google accede a borrar miles de millones de datos y a actualizar sus políticas

En la demanda impuesta en 2020, se alegaba que Google rastreaba los datos de navegación de los usuarios incluso en el modo incógnito. Debemos recordar que este modo únicamente permite navegar sin que se quede un registro de los sitios web visitados en nuestro historial de navegación. No obstante, esto no impide que Google, sitios web, empresas de terceros o nuestro proveedor de servicios no puedan obtener esta información.

Esta demanda afirmaba que el gigante tecnológico no fue sincero sobre sus políticas de uso de datos, y que la recolección de datos en dicho modo es algo que todavía muchos desconocen pese a haber aceptado las políticas de la compañía sobre el cómo comparten nuestros datos.

Según Wall Street Journal, los detalles del acuerdo se presentaron en el tribunal federal de San Francisco, indicando que la compañía trabajará ahora para cambiar sus políticas en torno a la navegación privada por medio de su modo incógnito.

Junto a esto, Google ha acordado eliminar miles de millones de datos que la propia demanda alega que fueron impropiamente obtenidos por parte de Google. Además, la compañía también está obligada a actualizar la información de su sitio web indicando las políticas corregidas sobre la navegación privada y a ofrecer los usuarios de Chrome la posibilidad de desactivar las cookies de terceros.

“A un alto nivel, hemos realizado varios cambios importantes en nuestra información para aclarar cómo se recopilan tus datos y cómo de visibles son tus actividades cuando visitas un sitio web utilizando el modo incógnito”, declaró un portavoz de Google.

La demanda especifica que Google violó además las leyes federales sobre la monitorización. Con motivo de ello, los demandantes pedían 5.000 millones de dólares como compensación, aunque Google ya afirmó que no pagaría este dinero en daños. A pesar de ello, el abogado David Boies, subrayó en un documento que “Este acuerdo es un paso histórico al requerir que empresas tecnológicas dominantes sean honestas con la información brindada a los usuarios sobre cómo recolectan y emplean sus datos”.

A pesar de que Google ha acordado realizar todos estos cambios, aún necesita una aprobación final por parte de la jueza Yvonne Gonzalez Rogers, del Distrito Norte de California. Un portavoz de Google afirmó al medio Android Central que “estaban encantados de resolver esta demanda” y que siempre creyeron que “carecía de fundamento”. “Nunca asociamos datos a los usuarios cuando utilizan el modo Incógnito. Nos complace eliminar datos técnicos antiguos que nunca se asociaron a una persona y nunca se utilizaron para ninguna forma de personalización,” añadía.

Ni misil balístico ni satélite de Starlink; un meteoroide rozador cruzó la península el pasado viernes

Noticia de José García (Xataka)

El pasado viernes 29 de marzo algo sobrevoló nuestra península. Vino desde Francia, cruzó Cataluña y, finalmente, acabó perdiéndose al sur de la Comunidad Valenciana. Hoy, la respuesta oficial del Gobierno de España es que se trataba de un “meteroide rozador”

El pasado viernes 29 de marzo algo sobrevoló nuestra península. Vino desde Francia, cruzó Cataluña y, finalmente, acabó perdiéndose al sur de la Comunidad Valenciana. Un “bólido artificial, posiblemente un misil”, dijeron algunos que era. Hoy, la respuesta oficial del Gobierno de España es que se trataba de un “meteroide rozador”. Alemania, sin embargo, no está de acuerdo.

SPMN290324ART. Como indicábamos anteriormente, el pasado viernes a las 23:59 hora española peninsular un objeto sobrevoló nuestras cabezas. Fue avistado llegando desde Francia, pasó por encima de Girona y Barcelona y, finalmente, desapareció al sur de la Comunidad Valenciana. El objeto, bautizado como SPMN290324ART, fue captado por varios aficionados a la astronomía y los vídeos corrieron como la pólvora.

Es un misil. Esa fue una de las primeras teorías que comenzaron a circular. El motivo fue el tweet publicado en el perfil oficial de la Spanish Meteor Network (SPMN), organismo dependiente del CSIC. Dicho mensaje decía que “nos decantamos por un misil balístico”. Ese mismo término, “misil balístico”, llegó a los titulares de algunos medios de comunicación poco después.

Bueno, no. Poco después, el CSIC rectificó en un comunicado emitido en su propia web. En el nuevo texto, el organismo apuntó que “el bólido detectado anoche sobre el este de la península ibérica fue producido por la reentrada de un objeto artificial en órbita terrestre y, por lo tanto, descarta que se trate de un misil balístico como se barajó en un primer momento”. Según el astrofísico Josep María, trigo, del Instituto de Ciencias del Espacio y coordinador del SPMN:

“Los datos preliminares obtenidos hasta el momento nos hacen decantarnos porque el bólido fuese producido por la reentrada de un objeto artificial en órbita terrestre […] Las reentradas son cada vez más frecuentes”.

Trayectoria del meteoroide rozadorTrayectoria del meteoroide rozador | Imagen: CSIC

La explicación. En el mismo hilo de Twitter que comenzaba diciendo que podría ser un misil balístico, la SPMN explicó que, finalmente, se decantaban por “una reentrada de un objeto artificial de alta inclinación (aprox. 64º) tipo Molniya o en la de satélites Naval Ocean Surveillance System”. Desde el organismo dijeron que que el objeto tuvo una velocidad media de 15 km/s y que la ausencia de fragmentación permitía sugerir la naturaleza metálica del meteroide.

“Confirmamos la hipótesis del bólido rozador”, dijo el organismo, que aseguró que este evento había supuesto “un reto por las características inusuales y su velocidad próxima a la de un satélite en alta inclinación (unos 10,5 km/s)”. Además, concluyó diciendo que “los vídeos también sugieren que el meteoroide podría haber vuelto al espacio, algo que confirmaremos tras un estudio colaborativo”. Habrá que esperar a dicho estudio.

Entra la Fuerza Aérea alemana. En respuesta a un tweet publicado por el diario El Mundo, el perfil oficial de Luftwaffe alemana dijo que “según nuestro Centro de Conocimiento de la Situación Espacial, se trata de la reentrada de un satélite Starlink”. Y de nuevo, esta información saltó a los medios de comunicación. Más allá de ese tweet, la Luftwaffe no publicó ningún comunicado argumentando su respuesta en su web.

Al habla el Centro de Operaciones y Vigilancia Espacial. También llamado COVE, este centro se encuentra en la Base Aérea de Torrejón y es dependiente del Ministerio de Defensa. En un comunicado, el COVE afirma que tras haber analizado el vídeo y consultar con el consorcio europeo y otros actores espaciales, “el COVE llegó a la conclusión de que “la naturaleza armamentística del fenómeno no era real”’ y descartó también “que fuera un satélite privado (de la empresa Starlink, como se sugirió)”.

El organismo ha consultado al Centro de Vigilancia de Alerta de Misiles Balísticos del Mando Aéreo de la OTAN, que confirmó que “no constaba ningún lanzamiento en ese espacio de tiempo”. Asimismo, ha explicado que existe un protocolo nacional e internacional de alertas espaciales que, de haber habido riesgo de caída o reentrada de un objeto de cierta masa, se habría activado.

SatélitesImagen: Xataka con Midjourney

5.000 kilos. Según han explicado desde el COVE, este protocolo se activa cuando la masa del objeto supera los 5.000 kilos. Un satélite Starlink pesa 300 kilos por lo que, en palabras del COVE, “su masa en tan mínima que la atmósfera es capaz de desintegrarla”. Según el teniente coronel Manuel Olmos, jefe del COVE, “por eso no se considera una alerta”.

La próxima versión de Google Chrome traducirá a cualquier idioma todo lo que estés reproduciendo en tiempo real

Noticia de Antonio Vallejo(Genbeta)

Google Chrome ha habilitado por defecto la función de ‘Live Translate’ en la última versión de Chrome Canary, pudiendo así generar subtítulos automáticamente de todo lo que se está reproduciendo en el navegador

Cada actualización de Google Chrome le va sentando cada vez mejor. El navegador ha añadido funciones muy interesantes a lo largo de estos años y próximamente obtendrás una opción por defecto para traducir todo lo que ves y escuchas en caso de que reproduzcas contenido en otros idiomas frecuentemente.

Si bien esta característica ya se encuentra disponible en los teléfonos Pixel, ahora Google ha decidido traerla a su navegador para ordenadores. Y es que Google Chrome ha habilitado por defecto la función de ‘Live Translate’ en la última versión de Chrome Canary, pudiendo así generar subtítulos automáticamente de todo lo que se está reproduciendo en el navegador.

Traducciones automáticas en Google Chrome

Para que esta característica pueda funcionar correctamente, debemos habilitar la función de ‘Live Caption’ (Subtítulos automáticos), la cuál nos ofrecerá subtítulos de todo lo que se esté reproduciendo. Con ‘Live Translate’, esos subtítulos generados automáticamente se traducirán al idioma que escojamos, algo muy útil en caso de que reproduzcamos contenido en otros idiomas desde Google Chrome.

Para habilitar Live Translate en las versiones Canary de Chrome, había que hacerlo mediante una línea de comando en ‘chrome://flags’. Sin embargo, de ahora en adelante, esta función se encontrará habilitada por defecto a partir de Chrome Canary 124, pudiendo habilitarla directamente desde el menú de accesibilidad de Chrome.

La información la ha traído Leopeva64, conocido experto que suele filtrar muchas de las funciones en las que está trabajando Google. La página de Chromium da fe del desarrollo de esta función en Chrome. La idea es que pronto llegue también a los canales de Chrome Dev y Beta antes de su lanzamiento a la versión estable de Chrome el próximo 10 de abril.

Como decíamos antes, para que Live Translate pueda funcionar, la opción de Live Captions (Subtítulos automáticos) debe estar también disponible. Esta función se puede encontrar en la pestaña de accesibilidad de los ajustes de Chrome. Live Translate no aparecerá en la versión pública de Chrome hasta que no se lance oficialmente en abril. La función llegará con el lanzamiento de la versión 124 de Chrome.

Entre las funciones más interesantes que están por llegar a Chrome, también sabemos que la compañía está trabajando en una completa renovación de Google Lens, herramienta que aparece si hacemos clic derecho sobre cualquier imagen y presionamos sobre ‘Buscar imagen con Google’.