La IA complica la ciberseguridad: ataques digitales logran ocultar su origen con mayor precisión

La inteligencia artificial generativa está transformando el panorama de la ciberseguridad y, según advierten expertos, ya permite a los ciberdelincuentes lanzar ataques más sofisticados y, al mismo tiempo, ocultar mejor su origen.Te puede interesar:Android 17 ya disponible: lista oficial de los 30 móviles que pueden actualizar

Un informe reciente del equipo Global Research and Analysis Team (GReAT) de Kaspersky señala que esta tecnología no solo incrementa la eficacia de los ataques, sino que también dificulta su rastreo, al eliminar las huellas digitales que tradicionalmente permitían identificar a los responsables.

El análisis, centrado en las Predicciones de Amenazas Persistentes Avanzadas (APT) para 2026, indica que uno de los principales desafíos para los especialistas será la atribución de los ciberataques. Es decir, determinar quién está detrás de una intrusión será cada vez más complejo debido al uso creciente de herramientas basadas en inteligencia artificial.Te puede interesar:Estados Unidos prohíbe el uso de routers extranjeros en una medida que sacude al sector tecnológicoUn usuario con sudadera con capucha mira atentamente un monitor de computadora en la oscuridad. La pantalla muestra una alerta de seguridad roja sobre un archivo sospechoso.Hackers ahora usan la IA para ocultar su código de programación. (Imagen Ilustrativa Infobae)

Hasta ahora, los investigadores podían apoyarse en ciertos patrones para rastrear a los atacantes. Elementos como el estilo de programación, errores lingüísticos en correos de phishing o incluso comentarios en el código permitían identificar características propias de grupos o regiones específicas. Sin embargo, este escenario está cambiando rápidamente.https://797126126b64bffee30566389772ede8.safeframe.googlesyndication.com/safeframe/1-0-45/html/container.html

Con la incorporación de IA generativa, muchos de estos indicadores desaparecen. Los modelos son capaces de producir código malicioso, mensajes de fraude y otros elementos de ataque con un estilo neutral y estandarizado, lo que elimina las pistas que antes facilitaban la identificación de los ciberdelincuentes. Según Kaspersky, este fenómeno reduce la fiabilidad de los métodos tradicionales de análisis forense digital.Te puede interesar:Si quieres recuperar velocidad en tu celular deberías desinstalar esta app de inmediato

El impacto de esta transformación no se limita a la ocultación de la identidad. La inteligencia artificial también acelera el desarrollo de herramientas maliciosas. De acuerdo con investigadores de Check Point Software Technologies, el uso de IA agéntica permite crear malware avanzado en cuestión de días, cuando antes estos procesos podían tardar meses y requerían equipos especializados.Una persona de espaldas sentada frente a tres monitores en una habitación oscura; las pantallas muestran códigos, una advertencia de "ACCESS DENIED" y símbolos de dólar.Con la inteligencia artificial, los hackers han logrado acelerar herramientas de malware. (Imagen Ilustrativa Infobae)

Un caso que ilustra esta evolución es VoidLink, un framework de malware diseñado para entornos Linux en la nube. Este software incluye más de 30 módulos de post-explotación, capacidades avanzadas para operar en infraestructuras cloud y técnicas como rootkits para mantener el acceso al sistema comprometido.

Lo llamativo, según los expertos, es que su nivel de complejidad sugiere el trabajo de un equipo durante meses, pero en realidad fue desarrollado por un solo individuo apoyado en herramientas de inteligencia artificial.

Otro ejemplo es Slopoly, un malware generado con IA que ha sido utilizado en campañas de extorsión a gran escala. Este tipo de programas permite a los atacantes mantener el control de servidores durante periodos prolongados, facilitando el robo de información o la ejecución de otras acciones maliciosas sin ser detectados de inmediato.IA - ciberataque - tecnología - 24 de febreroAgentes de ciberseguridad no han podido detectar a qué organismos pertenecen los ataques cibernéticos por culpa de la IA. (Imagen Ilustrativa Infobae)

Este nuevo escenario plantea retos significativos para la industria de la ciberseguridad. La dificultad para atribuir ataques no solo complica la respuesta técnica, sino también las acciones legales y diplomáticas contra los responsables. En un contexto donde las amenazas digitales tienen implicaciones globales, la falta de claridad sobre el origen de los ataques puede limitar la capacidad de los gobiernos y organizaciones para reaccionar de manera efectiva.

Además, el uso de inteligencia artificial por parte de los ciberdelincuentes amplía el acceso a herramientas avanzadas. Lo que antes estaba restringido a grupos altamente especializados ahora puede ser utilizado por actores con menos experiencia técnica, lo que incrementa el volumen potencial de ataques.

Frente a este panorama, los expertos coinciden en que será necesario adaptar las estrategias de defensa. Esto incluye el desarrollo de nuevas técnicas de detección basadas en comportamiento, así como el uso de inteligencia artificial para contrarrestar amenazas automatizadas.(Imagen Ilustrativa Infobae)Especialistas en ciberseguridad deben adoptar nuevas estrategias de defensa ante el avance de la IA. (Imagen Ilustrativa Infobae)

En definitiva, la incorporación de IA en el ámbito del cibercrimen marca un punto de inflexión. No solo redefine cómo se ejecutan los ataques, sino también cómo se investigan. En la medida en que estas tecnologías continúen evolucionando, la ciberseguridad deberá avanzar al mismo ritmo para hacer frente a un entorno cada vez más complejo e impredecible.

Fuente: Infobae.com

Sea el primero en comentar en "La IA complica la ciberseguridad: ataques digitales logran ocultar su origen con mayor precisión"

Deje un comentario

Su email no será publicado


*