Un informe reciente de Google Threat Intelligence Group (GTIG) advierte que el mismo avance tecnológico de la inteligencia artificial está siendo adoptado por ciberdelincuentes para lanzar ataques cada vez más sofisticados y masivos.Te puede interesar:Bill Gates revela los tres empleos que sobrevivirán a la inteligencia artificial
El uso de IA en la creación y explotación de vulnerabilidades conocidas como “de día cero” marca un punto de inflexión para la ciberseguridad global, afectando a los dispositivos y aplicaciones de los usuarios.
PUBLICIDAD
Qué es una vulnerabilidad de día cero y por qué la IA cambia el juego
Una vulnerabilidad de día cero es una falla de seguridad desconocida para los desarrolladores de un software el mismo día que se descubre, lo que permite que los atacantes la exploten antes de que exista una solución.Te puede interesar:Así puedes limpiar la papelera oculta de WhatsApp y lograr que tu celular funcione más rápido
Tradicionalmente, identificar y aprovechar estas brechas requería mucho conocimiento técnico y tiempo. La llegada de la IA ha reducido drásticamente estas barreras, permitiendo que los atacantes automaticen la búsqueda y explotación de errores.
Google detecta el primer caso de una vulnerabilidad de día cero desarrollada con IA, que permitió eludir la autenticación de doble factor en software de administración web. (Imagen Ilustrativa Infobae)
Según el informe de Google, los ciberdelincuentes han pasado de experimentar con la IA a emplearla en operaciones organizadas y a gran escala. Este cambio implica que ya no hablamos de amenazas teóricas: los atacantes están usando modelos de IA para encontrar vulnerabilidades, crear malware más avanzado, automatizar ataques y perfeccionar campañas de desinformación.Te puede interesar:Apple rompe una racha de 19 años: su producto más importante ya no es el iPhone
Ya se detectó el primer caso de esta modalidad
Google ha identificado lo que considera el primer caso exitoso de una vulnerabilidad de día cero desarrollada con ayuda de la inteligencia artificial. El caso consistió en un script en Python que permitía a un atacante saltarse la autenticación de doble factor (2FA) en una popular herramienta de administración de sistemas basada en web y de código abierto.
PUBLICIDAD
Los investigadores detectaron múltiples señales de que la IA estuvo involucrada en la creación de este exploit: por ejemplo, una puntuación CVSS inusual y una estructura de código demasiado “de manual”, características típicas de contenido generado por modelos de lenguaje.
El hallazgo no solo evidencia el uso real de IA para crear exploits, sino también el avance hacia ataques automatizados difíciles de detectar y detener. Aunque Google logró identificar y neutralizar la amenaza antes de que fuera utilizada en una campaña masiva, el precedente es alarmante para toda la industria.
Ciberdelincuentes emplean modelos de IA para identificar errores, perfeccionar exploits y lanzar ataques de phishing cada vez más creíbles y personalizados. (Imagen Ilustrativa Infobae)
Cómo afecta este riesgo a los usuarios comunes
El impacto para los usuarios es concreto y directo. La IA permite que los ciberdelincuentes personalicen y ajusten campañas maliciosas de forma más efectiva, lo que se traduce en un aumento de la velocidad y la escala de los ataques.
Por ejemplo, la automatización de la creación de malware y la identificación de vulnerabilidades facilita que cualquier persona pueda lanzar ataques, incluso sin conocimientos técnicos avanzados.
Hoy, basta con acceder a versiones modificadas de chatbots como ChatGPT en la dark web para disponer de herramientas orientadas a la creación de software malicioso. Estas versiones pueden ser utilizadas para eludir medidas de seguridad, como la autenticación de doble factor, y para diseñar ataques dirigidos a miles de usuarios o empresas simultáneamente.
Desde el punto de vista práctico, esto significa que las amenazas informáticas evolucionan más rápido que nunca. Los usuarios se enfrentan a campañas de phishing más creíbles, malware más difícil de detectar y brechas de seguridad que pueden ser explotadas antes de que los desarrolladores tengan oportunidad de corregirlas.
Ataques automatizados y de difícil detección surgen a partir de la colaboración entre ciberdelincuentes y herramientas de IA desarrolladas en entornos de prueba como OpenClaw y OneClaw. (Imagen Ilustrativa Infobae)
Qué hacen los ciberdelincuentes con la inteligencia artificial
Los ciberdelincuentes han incorporado la IA en distintos aspectos de sus operaciones. Según los informes de Google, se han detectado grupos como APT45 utilizando agentes de IA en entornos de prueba para perfeccionar sus ataques. Estos agentes, como OpenClaw y OneClaw, refinan las cargas útiles generadas y aumentan la fiabilidad de los exploits antes de su lanzamiento.
Otros grupos, como APT27, han empleado IA para acelerar el desarrollo de aplicaciones de gestión de flotas que sirven para gestionar redes de equipos comprometidos. Además, existen alianzas entre desarrolladores de herramientas de IA y empresas de ciberseguridad, como Virus Total, para intentar mitigar el uso malicioso de estas tecnologías.
PUBLICIDAD
La IA también es empleada para crear “deepfakes” utilizados en campañas de desinformación, perfeccionar malware y lanzar ataques automatizados de sondeo a empresas, buscando vulnerabilidades de manera persistente y autónoma.
El responsable de GTIG, John Hultquist, destaca que la IA está permitiendo a los atacantes probar operaciones, mantener la persistencia frente a sus objetivos y mejorar tanto la calidad como la evasión de sus herramientas maliciosas.
Fuente: Infobe.com

Sea el primero en comentar en "La IA ya ataca errores de tus dispositivos y programas desconocidos por fabricantes: esto descubrió Google"