La inteligencia artificial está revolucionando el campo de la ciberseguridad. No solo está beneficiando a los atacantes, sino también a aquellos que luchan contra ellos. En los últimos años, la inteligencia artificial ha pasado de ser un concepto futurista a una herramienta común tanto para los buenos como para los malos de internet. Los ciberataques se han vuelto más sofisticados, veloces y personalizados gracias a la IA generativa. Sin embargo, lo fascinante es que esta misma tecnología puede ser utilizada para mejorar nuestras defensas. De hecho, ya existen ejemplos concretos donde la IA está frustrando fraudes antes de causar daños.
En este artículo, te mostraremos cómo los hackers éticos emplean herramientas de IA para hacer perder tiempo a los ciberdelincuentes, evitando así que se concentren en posibles víctimas que podrían caer en sus redes.
La IA que confunde a los estafadores
Un ejemplo interesante de esta tendencia es Daisy, un sistema de IA creado en el Reino Unido para simular ser una víctima real durante llamadas de fraude. Su misión no es solo evitar caer en la trampa, sino hacer perder tiempo a los estafadores, manteniéndolos ocupados y reduciendo su efectividad. Y lo logra con éxito. Gracias a su interacción natural y su habilidad para responder de manera convincente, Daisy logra mantener la llamada activa durante varios minutos, tiempo en el que ese delincuente no puede contactar a otras personas.
Este uso innovador de la IA no se limita al ámbito personal. Cada vez más empresas están investigando el empleo de agentes inteligentes que identifican amenazas, analizan patrones sospechosos y generan respuestas automatizadas sin necesidad de intervención humana. La clave radica en programarlos con objetivos precisos, permitiendo que aprendan por sí mismos a mejorar sus métodos defensivos.
¿Y si utilizamos sus propias herramientas en su contra?
Los ciberdelincuentes han estado utilizando proxies, redes anónimas y entornos virtuales para ocultar su identidad durante años. Sin embargo, estos mismos recursos pueden ser empleados para el bien. Por ejemplo, los proxies bien configurados permiten a los analistas de seguridad acceder a foros de la dark web, mercados clandestinos y blogs de ransomware sin comprometer su seguridad. Además, estos permiten monitorear en tiempo real los tipos de amenazas que circulan, las técnicas que utilizan los atacantes y a quiénes están dirigidas.
Combinado con IA, este tipo de vigilancia se transforma en una herramienta extremadamente poderosa. Ya existen sistemas que pueden escanear millones de URLs diariamente y detectar automáticamente aquellas que contienen amenazas, incluso antes de que se activen. Esto se logra analizando patrones de comportamiento, lenguaje sospechoso y actividades de red anómalas, todo sin descargar contenido ni poner en riesgo la seguridad de los sistemas de la empresa.
Hacia una IA que investigue, detecte y responda de forma autónoma
La gran ventaja de los sistemas basados en agentes de IA es que pueden tomar decisiones de manera autónoma. Esto significa que no solo identifican una amenaza, sino que también actúan en consecuencia. Pueden aislar una red, bloquear un acceso, mover un archivo sospechoso a una zona segura o generar alertas detalladas para el equipo de ciberseguridad. Y lo hacen en cuestión de segundos.
Gracias a los avances en IA generativa y a la integración con infraestructuras como redes de proxies legales, estos agentes pueden aprender del comportamiento de los atacantes y anticiparse a sus movimientos. En lugar de esperar a que ocurra un problema, adoptan una postura proactiva. Y esto altera por completo el panorama de la ciberseguridad.
La clave está en quién la utiliza (y con qué propósito)
La IA en sí misma no es ni buena ni mala. Todo depende de quién la maneja y con qué fin. Lo positivo es que los profesionales de la ciberseguridad cuentan con herramientas tan poderosas como las que utilizan los atacantes, y pueden emplearlas para proteger a empresas, instituciones y usuarios de manera mucho más efectiva.
El desafío radica en actuar de manera ética, legal y con una visión clara de cómo aprovechar estas tecnologías de forma responsable. Si logramos esto, no solo podremos responder mejor a las amenazas: también estaremos un paso adelante de quienes intentan vulnerar el sistema desde dentro.





