Coincidiendo con la inauguración del nuevo centro europeo de ciberseguridad de Google, la plataforma de intercambio de información sobre amenazas VirusTotal ha presentado un nuevo estudio que pone de manifiesto el potencial de la IA para mejorar el análisis del malware.
El informe, titulado “Empowering Defenders: How AI is shaping malware analysis” es el resultado del análisis de cientos de miles de muestras de malware, que VirusTotal evaluó a lo largo de un periodo de seis meses, en el marco de su iniciativa Crowdsourced AI. VirusTotal descubrió que la IA analiza código malicioso con una enorme eficacia y que es capaz de identificar un 70% más de fragmentos de código malicioso que las herramientas tradicionales por sí solas. Los investigadores también descubrieron que la IA llega a ser hasta un 300% más precisa que estas herramientas a la hora de detectar intentos por parte de scripts maliciosos de atacar o explotar dispositivos con vulnerabilidades comunes.
La ciberseguridad es un motivo de preocupación en alza entre los ciudadanos, las empresas y las autoridades públicas europeas y el malware se cita como una de las mayores amenazas. Europa tiene un déficit de 500.000 expertos en ciberseguridad y, precisamente, el análisis de malware es una de las competencias más demandadas. Estos perfiles requieren una gran capacitación técnica por lo que, con frecuencia, los departamentos de seguridad de las organizaciones más grandes y con más recursos copan la oferta disponible en el mercado. El estudio que se ha publicado hoy muestra el modo en que la IA puede agilizar el análisis del malware, ganando en precisión y haciéndolo más accesible a personal sin tanta experiencia. Como resultado, muchísimas organizaciones europeas podrían mejorar su grado de protección.
El informe de VirusTotal va en la misma línea que el Cybersecurity Forecast 2024 de Google Cloud, que afirma que “en la ciberdefensa, se utilizarán tecnologías relacionadas con la IA generativa para reforzar la detección, respuesta y atribución de adversarios a gran escala, así como para agilizar el análisis y otras tareas laboriosas, como la ingeniería inversa”. Google Cloud incluso pronostica que, en el futuro, la ciberdefensa hará uso de la IA para analizar y contextualizar grandes volúmenes de datos.
Hace unos meses, VirusTotal implantó la funcionalidad Code Insight basada en IA. Previamente, para identificar código malicioso, los responsables de seguridad se veían obligados a analizar manualmente scripts complejos. La IA no solo sirve para acelerar esa tarea —muy laboriosa—, sino también para explicarle al analista, en un lenguaje sencillo, si el código es malicioso y qué es lo que hace. Esta funcionalidad multiplica la efectividad de las herramientas de seguridad existentes, ya que proporciona a los defensores una comprensión más profunda de cómo opera y qué intenta hacer el código analizado. Con ello, mejora notablemente la capacidad para mitigar posibles amenazas.
Como explica Vicente Díaz, estratega de inteligencia de amenazas de VirusTotal, Google Cloud: “Del mismo modo que la tecnología puede crear nuevas amenazas, también puede ayudarnos a combatirlas. La capacidad de la IA para analizar scripts maliciosos y explicarnos su modus operandi tiene enormes implicaciones para la ciberseguridad. Por ejemplo, abre la puerta a que personas no expertas detecten y eviten ataques de malware, sin tener una experiencia o conocimientos de seguridad altamente especializados. La IA también puede ahorrar muchísimo tiempo a los investigadores y los expertos en ciberdefensa, y nos ayudará a protegernos contra un amplio espectro de herramientas, utilizadas por toda clase de agentes”.
En su Cybersecurity Forecast 2024, Google Cloud apunta que la IA generativa y los grandes modelos de lenguaje podrían utilizarse en phishing, SMS y otras operaciones de ingeniería social, para hacer más verosímiles los contenidos y materiales maliciosos. El estudio de VirusTotal encontró evidencias de que los agentes que están detrás de estas amenazas no solo utilizan imágenes y textos generados por IA para hacer que su malware parezca más convincente sino que, cada vez más, están creando malware camuflado como productos de IA. En estos casos, los sitios web maliciosos llegan a utilizar iconos de productos de IA conocidos para dar una falsa sensación de credibilidad. La víctima, confiada, descarga malware o facilita datos, que son robados.
Según Phil Venables, director de Seguridad informática, Google Cloud: “Trabajamos para ayudar a que internet sea mejor y más seguro. Una de las principales funciones del recién inaugurado Centro de ingeniería de seguridad de Google en Málaga consiste en compartir inteligencia sobre amenazas y analizar nuevas amenazas: eso es exactamente lo que hace este informe. Desde luego, es preocupante que haya en internet programas disfrazados de productos de IA que no hacen más que mostrar publicidad. Sin embargo, es tranquilizador saber que la IA nos puede ayudar a detectar y prevenir vulnerabilidades o exploits comunes; en algunos casos con una precisión hasta un 300% mayor. Y todavía mejor es la perspectiva de que, cuanto más la entrenemos, mejor será la capacidad de detección y prevención de la IA. En otras palabras: lo mejor está todavía por llegar”.