– UNSPLASH/GEORGIY LYAMIN
MADRID, 11 Feb. (CIBERPRO) –
Microsoft ha advertido sobre el peligro de los agentes dobles, que explotan los accesos y permisos otorgados a los agentes de inteligencia artificial (IA) para llevar a cabo actividades maliciosas sin que las empresas lo detecten.
La presencia de agentes en empresas y organizaciones está en aumento. Según el informe Cyber Pulse 2026 de Microsoft, las compañías pioneras ya utilizan equipos mixtos de humanos y agentes de IA, y más del 80 por ciento de las empresas Fortune 500 han implementado agentes activos desarrollados con herramientas de ‘low code’.
Sectores como el software y la tecnología (16%), la manufactura (13%), las instituciones financieras (11%) y el comercio minorista (9%) ya están empleando agentes para facilitar el desarrollo de tareas cada vez más complicadas, como la redacción de propuestas, análisis de datos financieros, clasificación de alertas de seguridad, automatización de procesos repetitivos y obtención de información a la velocidad de las máquinas.
Estos agentes pueden operar de manera asistida, respondiendo a las instrucciones de los usuarios, o de forma autónoma, realizando tareas con escasa intervención humana.
No obstante, la adopción creciente conlleva nuevos riesgos, ya que los agentes de IA están evolucionando más rápido de lo que algunas empresas pueden gestionar, lo que genera una falta de visibilidad que puede dar lugar a lo que se conoce como IA en la sombra (‘shadow IA’) y agentes dobles.
Esta amenaza se manifiesta en el abuso de los agentes de IA, que pueden aprovechar sus amplios permisos y accesos a los sistemas para operar de manera autónoma. «Un agente con excesivos permisos -o instrucciones erróneas- puede transformarse en una vulnerabilidad», advierten desde Microsoft en un comunicado.
Al igual que los humanos, los agentes pueden volverse agentes dobles «si no son gestionados adecuadamente, si tienen permisos inapropiados o reciben instrucciones de fuentes poco fiables».
Según el Data Security Index de Microsoft, solamente el 47 por ciento de las organizaciones de todos los sectores afirman estar implementando controles de seguridad específicos para la IA generativa. Microsoft recomienda adoptar un enfoque de seguridad de confianza cero (‘Zero Trust’) con los agentes, lo que implica otorgar acceso con privilegios mínimos y esenciales, verificar quién o qué solicita acceso y diseñar los sistemas asumiendo que los atacantes podrían acceder.





