Actualizado el 17/12/2024

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. OpenAI se actualiza por primavera

OpenAI se actualiza por primavera

Escrito por Guillem Alsina el 28/05/2024 a las 20:59:20
671

Al famoso eslogan “ya es primavera en El Corte Inglés” podríamos sumar el de “ya es primavera en OpenAI” si en el futuro la compañía de Sam Altman toma la tendencia de presentar novedades en primavera, puesto que la última gran actualización de su LLM (modelo de lenguaje grande, por sus siglas en inglés) recibe el nombre de “Spring update” (actualización de primavera).


El principal legado de dicha actualización es GPT-4o, una revisión del modelo GPT-4 (se rumoreaba con la presentación de GPT-5 que Altman declaró hace unos días que ya se encontraba próxima en el tiempo, pero que finalmente no se ha producido). La “o” de GPT-4o corresponde a “omni”, e indica que el modelo acepta cualquier combinación de texto, audio, imágenes y vídeo como entrada, respondiendo igualmente con una combinación de dichos elementos para la salida.


No obstante, desde la compañía explican que el despliegue de esta característica “multimodal” se hará de forma paulatina por motivos de seguridad y, de forma inmediata, ya se puede disponer de los modos de entrada de texto e imágenes, y de la salida de texto. Las otras modalidades se irán liberando a lo largo de las próximas semanas y meses a medida que el equipo de desarrollo de OpenAI las haya acabado de entrenar e implementar las medidas de seguridad necesarias.


Así, por ejemplo, las salidas de audio solamente cuentan con una serie limitada de voces en el momento de su lanzamiento, para evitar que se puedan llegar a hacer deep fakes con esta herramienta.


Otro aspecto que se ha mejorado en la nueva revisión del modelo es la velocidad de respuesta; como muestra, desde OpenAI afirman que puede responder a una entrada de audio en menos de 320 milisegundos, un tiempo similar a la respuesta de un ser humano. Para comparar, los anteriores modelos podían dar una latencia de 2,8 segundos. Además, también indican que el modelo ha sido entrenado para que “comprenda” mejor cual es el ruido de fondo de una grabación de audio, cuando el usuario rie, o el tono con el que expresa emociones.


Para los usuarios del modelo vía API, las interacciones les saldrán más baratas, puesto que se ha aplicado un mecanismo de compresión de tokens (unidad que contabiliza el número de caracteres que incluye un prompt y la respuesta que este devuelve).


Los usuarios de ChatGPT en su modalidad gratuita ya pueden disfrutar de esta actualización, aunque los usuarios de la suscripción de pago (Plus) disfrutan de un límite en la longitud de los mensajes que quintuplica la de sus homólogos que emplean la versión gratuita. Los desarrolladores también pueden acceder a este modelo vía APIs, a un precio que les resultará más económico que el GPT-4 Turbo, y con unos límites también mayores.