Actualizado el 15/04/2025

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. AMD lanza proyecto de código libre para ejecutar LLMs en local

AMD lanza proyecto de código libre para ejecutar LLMs en local

Escrito por Guillem Alsina el 08/04/2025 a las 15:47:10
159

AMD ha dado a conocer públicamente su nuevo proyecto de inteligencia artificial, una aplicación para Windows llamada GAIA que facilita la ejecución de modelos de lenguaje grandes (LLM, por sus siglas en inglés) en local, aprovechando para ello la potencia de cálculo de los modernos ordenadores, preparados precisamente para la IA con potentes GPUs y NPUs, de las que GAIA hace uso.


Además, GAIA es de código abierto, la podemos descargar desde su repositorio de GitHub, estando disponible para Windows, siempre y cuando el ordenador cumpla con unos requisitos mínimos, que son disponer de un procesador AMD Ryzen AI de la serie 300, y el driver de NPU 32.0.203.237 o superior sobre Windows 11 Home o Pro. Al menos por el momento, ni macOS ni GNU/Linux se encuentran entre las plataformas software soportadas por esta solución.


Entre los ordenadores citados por AMD que pueden ejecutar esta aplicación, se encuentran el Asus ProArt PX13/P16 y el HP Omnibook que monta el chip Ryzen AI 9 HX serie 370. Además de la exigencia del procesador, también requiere de 32 GB de memoria RAM y el software AMD Adrenalin instalado.


Esta es una configuración exigente, por ahora todavía poco extendida, pero que sin lugar a dudas empezaremos a ver con mayor asiduidad a lo largo de los próximos meses y años y, especialmente, en el ámbito profesional, habida cuenta de la renovación de ordenadores que se espera con el fin de vida de Windows 10 y el creciente interés por el uso de IA en el puesto de trabajo.


LLMs disponibles


Pero GAIA no es un modelo de lenguaje en sí, por lo que ejecuta otros modelos como, por ejemplo, el popular Llama (desarrollado por Meta, pero de código abierto) o Phi, además de poder construir derivaciones de estos para casos de uso concretos.


También destaca por sus agentes de IA, que son autónomos y pueden utilizar herramientas externas para completar sus trabajos. Por ejemplo el agente Clip permite buscar contenidos en YouTube y responder a preguntas y, aunque tanto este como los demás agentes que hay, son bastante sencillos en su finalidad, desde AMD se está trabajando en ampliar el número de agentes disponibles.


Las ventajas de ejecutar un modelo de lenguaje en local en vez de en la nube son obvias: en primer lugar, la privacidad, ya que los datos se quedan en privado y no se van a un servicio online con el cual no sabemos ni dónde acabarán, ni qué uso se les puede dar, además de que es más difícil que un ciberdelincuente pueda acceder a ellos.


También podremos trabajar sin necesidad de conexión como, por ejemplo, durante un vuelo en avión o cuando estemos de viaje en el extranjero, aunque las soluciones para obtener conectividad segura en cualquier lugar del mundo son, cada vez, más asequibles.