Cómo utilizar ChatGPT en el trabajo sin comprometer los datos de la empresaEscrito por Redacción TNI el 17/10/2023 a las 11:20:35798
Los debates sobre las herramientas de IA están a la orden del día y cada vez son más las personas que lo utilizan en su trabajo, debido a su capacidad para aumentar la productividad y ahorrar tiempo. Sin embargo, antes de aprovechar las ventajas de las innovadoras herramientas de IA, debes saber cómo interactuar con ellas de forma segura, sin poner en peligro la seguridad de los datos de la empresa.
“Las herramientas de IA pueden ayudarnos a desarrollar ideas, resumir o reformular fragmentos de texto, o incluso crear una base para una estrategia empresarial o encontrar un error en un código. Sin embargo, al utilizar la IA debemos recordar que los datos que introducimos en las herramientas dejan de pertenecernos en cuanto pulsamos el botón de envío”, recuerda Josep Albors, director de investigación y concienciación de ESET España.
Una de las principales preocupaciones a la hora de utilizar grandes modelos lingüísticos (LLM), como ChatGPT, es compartir datos sensibles con grandes empresas internacionales, señala ESET. Estos modelos son texto en línea, lo que les permite interpretar y responder eficazmente a las consultas de los usuarios. Sin embargo, la compañía líder en ciberseguridad recuerda que, cada vez que interactuamos con un chatbot y le pedimos información o ayuda, podemos compartir inadvertidamente datos sobre nosotros o nuestra empresa, ya que, cuando escribimos una consulta para un chatbot, los datos introducidos se hacen públicos. “Esto no significa que los chatbots utilizan inmediatamente esta información como base para responder a otros usuarios, pero el proveedor de LLM o sus socios pueden tener acceso a estas consultas y podrían incorporarlas a futuras versiones de la tecnología”, añade Albors.
En este sentido, OpenAI, la organización que está detrás de ChatGPT, introdujo la opción de desactivar el historial de chat, lo que evita que los datos de los usuarios se utilicen para entrenar y mejorar los modelos de IA de OpenAI. De esta forma, los usuarios tienen más control sobre sus datos. Por tanto, si los empleados de una empresa desean utilizar herramientas como ChatGPT, es conveniente que desactiven el historial de chat, según ESET.
Pero incluso con el historial de chat desactivado, todos los datos de los avisos siguen almacenados en los servidores del chatbot. Al guardar todos los avisos en servidores externos, existe la amenaza potencial de acceso no autorizado por parte de piratas informáticos. Además, los errores técnicos pueden permitir ocasionalmente que personas no autorizadas accedan a datos pertenecientes a otros usuarios del chatbot. Por ello, ESET aconseja sobre cómo utilizar plataformas como ChatGPT de forma segura, y advierte de los erres más comunes al utilizar esta herramienta y cómo evitarlos:
“Las herramientas de IA no son sólo el futuro de nuestro trabajo; ya están presentes. Como los avances en el campo de la IA y, en concreto, del Machine learning avanzan día a día, las empresas necesitan inevitablemente seguir las tendencias y adaptarse a ellas. Por eso, es importante preguntarse si podemos utilizar estas nuevas tecnologías sin arriesgarse a una fuga de datos”, concluye Josep Albors. |