Actualizado el 18/02/2025

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. La nueva IA de DeepSeek causa revuelo

La nueva IA de DeepSeek causa revuelo

Escrito por Guillem Alsina el 11/02/2025 a las 16:34:07
208

Ha sido la comidilla a lo largo de las últimas semanas, aunque no se ha limitado solamente a ser la aplicación de inteligencia artificial más descargada de las tiendas de aplicaciones, sino que también ha provocado un profundo impacto en la cotización bursátil de las grandes tecnológicas, empezando por la de NVIDIA, y ha seguido con una serie de preguntas sobre su concepción y entrenamiento que podrían acabar en algún juzgado estadounidense por violar -presuntamente- la propiedad intelectual de OpenAI, además de las ya habituales y consabidas dudas sobre la privacidad de los datos personales que recaba, y que pueden acabar en las manos de los servicios de inteligencia chinos.


La revolución tecnológica de DeepSeek con su modelo R1 consiste en hacer lo mismo o casi que hace OpenAI con su modelo o1, pero consumiendo muchos menos recursos de computación, hasta el punto de que es factible ejecutar el modelo en un ordenador doméstico (de cierta potencia, sí, pero que podemos comprar en tiendas de informática), con buenos resultados en problemas matemáticos o de codificación.


Al igual que los modelos competidores desarrollados por OpenAI, DeepSeek-R1 utiliza una “cadena de pensamiento”, consistente en realizar un razonamiento en varios pasos, una forma de trabajar que imita a la del cerebro humano. Es gracias a ello que puede ofrecer respuestas a problemas complejos, ofreciendo un rendimiento en tareas de matemáticas o desarrollo de código informático, similar al del o1 de OpenAI.


En su entrenamiento, se ha utilizado la técnica conocida como GRPO (Group Relative Policy Optimization), una forma de enseñar a una inteligencia artificial a mejorar sus respuestas sin que estas tengan que ser puntuadas a cada nuevo intento.


En lugar de esto, lo que se le pide al sistema es que genere varias respuestas para la misma pregunta, y las compara entre ellas. Si una respuesta resulta mejor que la media de todas, recibe un "premio" que le ayuda a aprender a dar respuestas más claras y correctas.


Sería, para poner un ejemplo, como si comparamos la nota de cada alumno de una clase en un examen, con la nota media de la misma clase, y otorgamos un premio adicional al alumno que ha obtenido la mejor cualificación para que, en el futuro, los demás sigan su ejemplo.


De esta manera, la IA se entrena comparando sus propios resultados en grupo, sin necesidad de tener muchas respuestas puntuadas previamente para comparar. Esta técnica es, además, más rápida y económica.


Podemos utilizarlo en casa


Quienes tengan un equipo con una GPU de cierta potencia, como las que se pueden encontrar en ordenadores de gaming, pueden descargar el modelo desde Internet, instalarlo y utilizarlo libremente, puesto que este se ha puesto a disposición de todo el mundo bajo una licencia de uso libre, concretamente la del MIT. Herramientas como LM Studio ya lo incorporan entre otros modelos abiertos, como Llama, de la Meta de Mark Zuckerberg.


Si bien he dicho que el modelo es libre, eso no es del todo correcto: DeepSeek ha abierto el código del algoritmo del modelo R1, pero no su conjunto de datos de entrenamiento, que continúan en su poder de forma cerrada. Ello no impide que cualquier persona pueda utilizarlo de forma libre y como crea conveniente.


Los desarrolladores también pueden incluirlo en sus creaciones, y los proveedores de servicios en sus ofertas, como es el caso de Snowflake en Cortex-AI.


Quienes no quieran complicarse tanto la vida, pueden echar mano de la interfaz web (es preciso registrarse, aunque puede hacerse de manera gratuita), o bien de las apps móviles.