Suscríbete!

Permanece al día de todas las noticias importantes del sector tecnológico y de la ciberseguridad

Los 'deepfakes' que evolucionan en tiempo real y la automatización del cibercrimen, principales amenazas de 2026

Los ‘deepfakes’ en tiempo real y la automatización del cibercrimen: principales amenazas de 2026


Recurso de manos sobre un teclado de ordenador portátil

– UNSPLASH/MORITZ KINDLER


   MADRID, 15 Dic. (CIBERPRO) –

   Los ‘deepfakes’ cada vez más sofisticados y que se pueden modificar en tiempo real se perfilan como una de las amenazas más relevantes para 2026, donde la inteligencia artificial (IA) generativa y de agentes jugará un papel clave tanto en la defensa como en actividades delictivas.

    Una vez más, la IA influirá en el ámbito de la ciberseguridad en 2026, utilizando modelos de lenguaje e inteligencia generativa que no solo optimizarán las capacidades de defensa, sino que también potenciarán las estrategias de ataque de los delincuentes cibernéticos.

   Esto se detalla en el informe ‘Kaspersky Security Bulletin 2025 Statistics’, que presenta las expectativas para el próximo año por parte de la firma de seguridad Kaspersky, y que resalta la creciente importancia de los ‘deepfakes’.

   Esta tecnología, que utiliza herramientas de IA para crear imágenes y vídeos de apariencia extremadamente realista, continuará evolucionando, especialmente en lo que respecta al audio, y los programas para generarlos serán aún más accesibles, eliminando la necesidad de conocimientos técnicos y aumentando el riesgo de su uso indebido.

   Las redes sociales y plataformas digitales han implementado sistemas que identifican el contenido generado por IA y lo etiquetan, alertando a los usuarios sobre la naturaleza del material que están visualizando. Sin embargo, el informe de Kaspersky subraya que actualmente no hay estándares consistentes y muchas etiquetas pueden ser fácilmente eliminadas.

    Por ello, se anticipa que el próximo año surgirán nuevas iniciativas técnicas y normativas para abordar esta problemática.

   Dentro de la evolución de los ‘deepfakes’, lo más destacado es la capacidad de realizar modificaciones en tiempo real, permitiendo que los ciberdelincuentes alteren la imagen o la voz durante una videollamada, aumentando la credibilidad de sus ataques y convirtiéndolos en herramientas sumamente efectivas para ciberataques dirigidos.

   Además, los modelos de código abierto están logrando rendimientos comparables a los modelos propietarios, pero carecen de los mismos controles y medidas de protección. Esto facilita que ambas tecnologías sean utilizadas tanto para fines legítimos como maliciosos.

   Los delincuentes cibernéticos son capaces actualmente de diseñar correos electrónicos falsos muy convincentes, suplantar identidades visuales de marcas y crear páginas web de ‘phishing’ que parecen profesionales. Mientras tanto, las grandes empresas están integrando contenido generado por IA en su publicidad, lo que dificulta distinguir entre lo auténtico y lo manipulado.

   La inteligencia artificial se aplicará en toda la cadena de ataque, desde la creación de código hasta la identificación de vulnerabilidades o la implementación de ‘malware’. Además, los ciberdelincuentes buscarán ocultar las evidencias del uso de IA para complicar el análisis forense.

   Simultáneamente, la IA se convertirá en un recurso clave para los equipos de ciberseguridad, según indican desde Kaspersky. Como se explica, las herramientas basadas en agentes podrán monitorear de manera continua la infraestructura de una organización, identificar vulnerabilidades y ofrecer información contextual lista para los analistas.

    Asimismo, los sistemas de defensa adoptarán interfaces en lenguaje natural, de modo que será suficiente con escribir una instrucción simple en lugar de ingresar comandos técnicos complicados.

Scroll al inicio