Uno de los principales problemas que ha supuesto la introducción de los modelos de lenguaje grandes y los chatbots de IA accesibles a todo el mundo, consiste en la dificultad de diferenciar el contenido generado por la IA, de un contenido generado por una persona humana, sobretodo cuando el primero ha sido revisado por alguien para evitar ciertas repeticiones y frases con un sentido incompleto que generan estos modelos.
Ello es preocupante en el caso de detectar fake news o trabajos académicos en los que el autor no es el alumno, sinó una IA que ha hecho el trabajo por él.
Herramientas para la detección de este contenido generado existen, pero no son muy fiables, no detectando algunos textos generados, así cómo dando falsos positivos para algunos textos que, realmente, han sido escritos íntegramente por una persona.
En este contexto, el Wall Street Journal revela que OpenAI dispone de una herramienta de uso interno, que facilita la detección de contenido generado por un modelo de lenguaje de IA, y que es capaz de ofrecer una efectividad del 99,99%.
Por lo que ha trascendido, esta herramienta funciona mediante la introducción de una “marca de agua” en los textos generados que, luego, la herramienta detecta.
Como es lógico pensar, y pese a que la empresa de Sam Altman no ha querido dar muchos más detalles, se sospecha que dicha marca de agua no es explícita, sinó que consistiría en un patrón específico o más de uno, que un algoritmo sería capaz de detectar, aunque sería imperceptible al ojo humano e, incluso, podría resistir a algunos cambios menores realizados manualmente en el contenido, cómo el cambio de palabras por sinónimos.
Entre las limitaciones que presenta, tenemos en primer lugar que solamente es válido para detectar textos generados con ChatGPT, no dando ninguna garantía con textos generados por Gemini o Llama. También podría ser sorteable si, precisamente, utilizamos uno de estos otros modelos para reescribir el texto, o realizamos una traducción automática con él empleando, por ejemplo, Google Translate.
Tampoco es seguro que funcione con la misma efectividad (o, incluso, que funcione mínimamente) con textos escritos en otros idiomas distintos del inglés. Incluso una técnica como generar en otro idioma y, luego, traducirlo al inglés, podría llegar a despistar a la herramienta de detección.
Hasta que OpenAI no se decida a informar abiertamente de esta herramienta, no sabremos nada cierto.
Por el momento, se mantiene oculta del uso público por el temor que pueda llevar a acusaciones injustas de hacer trampa mediante IA: según encuestas internas de la compañía, un 69% de los usuarios de ChatGPT cree que el detector podría generar falsos positivos, y un 30% indicó que cambiaría a otro modelo de IA si la herramienta se pusiera en marcha.
El temor a que otros puedan descubrir el patrón que conforma la marca de agua, y desarrollar métodos para eludir el detector, también pesa en la decisión de OpenAI, ya que invalidaría un uso, por ejemplo, en detección de fake news.
No obstante, la firma estadounidense no descarta un futuro lanzamiento público y, según informa el Wall Street Journal, está considerando alternativas, ya que hay una fuerte demanda por un detector de este tipo, con datos internos que muestran que un 80% de los encuestados a nivel mundial apoya su existencia.
En cualquier caso, este debate subraya la importancia de ser críticos con la información que consumimos, garantizando que, independientemente de la fuente, podamos confiar en su veracidad.