Suscríbete!

Permanece al día de todas las noticias importantes del sector tecnológico y de la ciberseguridad

Logo RedesZone

Este fallo en Microsoft Copilot expone e-mails confidenciales a través de resúmenes de IA

La inteligencia artificial (IA) brinda numerosas posibilidades a los usuarios, pero también puede presentar riesgos en ciertas circunstancias. Si se detecta una vulnerabilidad en alguna de las plataformas que utilizamos diariamente, puede resultar en la exposición de datos personales y confidenciales, además de permitir que los atacantes tomen control sobre los dispositivos. En este artículo, abordamos un incidente en Microsoft Copilot que revela correos electrónicos sensibles a través de resúmenes generados por IA.

Microsoft Copilot es un asistente de IA que se integra en Windows y en las aplicaciones de Microsoft 365. Su propósito es potenciar la productividad, automatizar tareas y facilitar el ahorro de tiempo. Por ejemplo, permite a los usuarios obtener respuestas a sus preguntas. Sin embargo, cuando se presentan fallos, como el mencionado en referencia Microsoft CW1226324, puede poner en riesgo la privacidad de los usuarios.

Incidente en Microsoft Copilot

Este incidente hace que el asistente de inteligencia artificial resuma incorrectamente los correos electrónicos que están protegidos con etiquetas de confidencialidad, ignorando las políticas configuradas de Prevención de Pérdida de Datos (DLP, por sus siglas en inglés). Esto puede llevar a la exposición de información confidencial de las organizaciones debido a un procesamiento no autorizado por parte de la IA.

Este fallo fue detectado por primera vez el 4 de febrero. Afecta a la función de chat en la “Pestaña Trabajo” de Copilot, que resume correos electrónicos, incluso aquellos que llevan etiquetas de confidencialidad y están sujetos a políticas restrictivas. Según la investigación de Microsoft, se identifica un defecto en el código como la causa principal de esta exposición.


Copilot tiene la capacidad de acceder a elementos almacenados en las carpetas de Elementos enviados y Borradores de los usuarios. Además, realiza esto sin que sea detectable y desatiende las etiquetas de confidencialidad aplicadas a esos correos. Si el sistema funcionara adecuadamente, dichas etiquetas servirían para evitar que Copilot accediera o procesara cualquier correo que se hubiera designado como confidencial.

Esto provoca que la IA genere resúmenes de correos electrónicos sensibles. Este hecho es especialmente alarmante en organizaciones que operan en sectores altamente regulados, como la sanidad o las finanzas.

Una semana después de que se conociera este incidente, el 11 de febrero, Microsoft comenzó a implementar una solución en los entornos afectados y a comunicar la situación a los usuarios. Sin embargo, como informan desde GB Hackers, un medio especializado, a fecha del 19 de febrero, aún persiste el problema en algunas organizaciones.


Inquietudes sobre la IA

Los expertos en seguridad aconsejan a los administradores que se mantengan atentos a las actualizaciones relacionadas con la referencia CW1226324 y que revisen los registros de actividad de Copilot para identificar accesos no autorizados al contenido etiquetado como confidencial.

Sin duda, incidentes como el de Copilot incrementan las dudas sobre la Inteligencia Artificial y los posibles problemas asociados con la seguridad y la privacidad. A medida que la IA se vuelve más común, también aumenta la posibilidad de que los cibercriminales la utilicen para llevar a cabo campañas maliciosas o que existan vulnerabilidades.

En resumen, un nuevo inconveniente afecta a la IA de Microsoft, Copilot, que puede comprometer la seguridad de los mensajes clasificados como confidenciales al utilizar resúmenes generados por IA. Es esencial utilizar la IA de manera adecuada, lo que implica revisar posibles actualizaciones y mantener una configuración correcta.

Preguntas frecuentes

¿En qué consiste exactamente el fallo de seguridad de Microsoft Copilot?

El fallo, que se identifica con la referencia CW1226324, provoca que la IA de Copilot ignore las etiquetas de confidencialidad y las políticas de Prevención de Pérdida de Datos (DLP), resumiendo de manera incorrecta correos que deberían estar protegidos.

¿Qué función específica está afectada por esta vulnerabilidad?

El problema afecta principalmente a la función de chat en la Pestaña Trabajo de Microsoft Copilot, que puede acceder y procesar elementos de las carpetas Elementos enviados y Borradores del usuario sin autorización.

¿Qué recomienda Microsoft a los administradores para mitigar el riesgo?

Se aconseja a los administradores de sistemas que estén atentos a las actualizaciones relacionadas con la referencia CW1226324 y que revisen proactivamente los registros de actividad de Copilot para detectar accesos indebidos.

Scroll al inicio