A lo largo de las últimas semanas hemos podido leer -en algunos casos, en esta misma publicación- numerosos artículos (procedentes en su mayoría de fabricantes de soluciones antimalware) sobre cómo los ciberdelincuentes aprovechan ChatGPT para mejorar sus ardides en trampas de phishing, entre otras.
Existe, no obstante, otra cara de ChatGPT, diametralmente opuesta, ya que permite precisamente contribuir a la lucha contra estas tretas, y a la protección de quienes son los objetivos de los ciberdelincuentes.
Así lo explica en la prestigiosa revista Forbes, Tirthankar Dutta, miembro del consejo tecnológico de la publicación, en base a un experimento realizado por él mismo.
Dutta explica que lo crucial del phishing es la formación de los usuarios para detectarlo, aunque dicha formación es algo que muchas veces estos negligen o, en caso de duda, la consulta sobre un correo concreto tarda más de lo que fuera deseable, ya que el personal encargado de validar las solicitudes no puede satisfacerlas en tiempo real. Y este, es otro aspecto crucial de la protección, que en caso de duda, esta pueda ser resuelta por parte del usuario en un lapso de tiempo lo más breve posible.
Para solucionar esto último, Dutta propone el empleo de ChatGPT, al cual se le podría pasar copia del mensaje de correo electrónico, para que el chatbot valide si es o no phishing.
Antes de redactar dicha propuesta en forma de artículo, Dutta experimentó pasándole a ChatGPT correos electrónicos de phishing, y su ratio de identificación correcta fue de un impresionante 100%.
Pero, tal como explica él mismo en el artículo de Forbes, llevar a un usuario final a que interactúe con ChatGPT es demasiado pedir, por lo que también propone que este servicio se integre en las aplicaciones corporativas de la empresa, poniendo un ejemplo de interacción mediante un plugin de Python (código incluido) para Slack, una herramienta muy popular en los entornos corporativos.