VALÈNCIA 14 Sep. (CIBERPRO) –
La Universitat Politècnica de València (UPV) está desarrollando un proyecto europeo enfocado en salvaguardar los sistemas de Inteligencia Artificial (IA) de posibles ciberataques. Este proyecto se centra en reforzar la seguridad de la IA frente a los denominados ataques adversarios (‘adversarial attacks’).
Estos ataques intentan engañar a la IA, haciéndola interpretar datos dañinos como si fueran seguros. Salvador Cuñat, investigador del grupo SATRD de la UPV, ha comentado que estos ataques «son especialmente peligrosos en ámbitos como la ciberseguridad, la visión por computadora y el procesamiento de Lenguaje Natural (NLP)», según lo indicado por la universidad en un comunicado.
Por ejemplo, pueden alterar el código de un malware para que un antivirus lo identifique como seguro, generar correos electrónicos con ligeras modificaciones para eludir filtros de phishing o spam, alterar huellas digitales sintéticas para evadir sistemas de control de acceso; o hacer cambios mínimos en un texto (errores tipográficos, símbolos invisibles) para confundir a detectores de discursos de odio o noticias falsas.
«Estos ataques pueden acarrear problemas menores (como un modelo de IA que confunde un animal), pero también pueden dar lugar a accidentes, fraudes y brechas de seguridad, lo que enfatiza la necesidad de crear nuevas herramientas para contrarrestarlos», ha añadido Cuñat.
En este sentido, uno de los objetivos del proyecto es desarrollar una nueva plataforma de seguridad que permita hacer los sistemas de IA «más resistentes» frente a este tipo de ataques cibernéticos.
Asimismo, se propone implementar la herramienta Cyber Ranges, destinada a entrenar a profesionales de IA en ciberseguridad. El proyecto está dirigido principalmente a desarrolladores de IA y analistas de datos, empresas y organizaciones de diversos sectores que integran la IA en su rutina diaria, asociaciones industriales y proveedores de ciberseguridad, así como a la comunidad científica.
«Este proyecto busca proporcionar una mayor protección y resiliencia a los sistemas de IA contra los ‘adversarial attacks’, así como poner a disposición nuevas herramientas para asegurar la seguridad y privacidad en la IA, al tiempo que contribuye a fomentar una mayor confianza y una adopción más amplia de la inteligencia artificial en Europa», ha concluido Cuñat.
Financiado por la Unión Europea a través del programa Horizon Europe (HORIZON-CL3-2023-CS-01), el proyecto CPAID está coordinado por Uni Systems Luxembourg Sàrl y finalizará en septiembre de 2027.





