Suscríbete!

Permanece al día de todas las noticias importantes del sector tecnológico y de la ciberseguridad

Los 'deepfakes' se profesionalizan con modelos de IA: hacen más de cien videollamadas al día para engañar a sus víctimas

Los ‘deepfakes’ se vuelven más sofisticados con modelos de IA: realizan más de cien videollamadas diarias para engañar a sus víctimas



Archivo – Hacker con una máscara.

– FREEPIK. – Archivo

   MADRID, 17 Mar. (CIBERPRO) –

   Con el avance de la inteligencia artificial (IA), también surgen nuevas amenazas y fraudes que utilizan esta tecnología para implementar tácticas más sofisticadas, como el uso de «modelos de IA» en videollamadas mediante ‘deepfakes’, generando más de cien intentos al día para engañar a sus víctimas.

    Una investigación de Wired ha descubierto la existencia de canales y grupos en Telegram que ofrecen trabajo como «modelos de IA», a menudo sin detallar el propósito, provenientes de países como Camboya y diversas áreas del sudeste asiático.

   Hieu Minh Ngo, investigador de ciberdelincuencia de la ONG vietnamita ChongLuaDao, ha alertado sobre el reclutamiento de modelos por parte de grupos criminales especializados en ciberataques. «Proporcionan el software necesario para que puedan modificar sus rostros usando IA y llevar a cabo estafas románticas«, indicó.

   Asimismo, la organización dedicada a la lucha contra la trata de personas, Humanity Research Consultancy, ha señalado que individuos de Europa del Este, América Latina, norte de África o Asia central, también se anuncian en Telegram como «modelos de IA».

   Muchas de estas personas poseen experiencia laboral en Camboya, Dubái o Birmania, incluso residen en estas zonas. Sus labores anteriores incluyen aspectos como la «gestión del mercado estadounidense», abarcando criptomonedas y el comercio de oro, lo que les ha permitido participar en mercados vulnerables a fraudes.

   A pesar de que Wired envió a Telegram una lista con 24 canales que ofrecían este tipo de empleos, la empresa aún no ha eliminado dichos canales. Un portavoz de la plataforma, sin embargo, declaró al medio mencionado que el contenido que promueve o facilita estafas es explícitamente prohibido y se elimina al ser detectado, aunque en casos como este, «existen razones legítimas para que alguien comparta su imagen, lo que requiere un análisis caso por caso».

   Muchos de estos canales no especifican claramente el propósito de las modelos de IA, pero hay indicios que generan dudas. Ngo sugiere que primero se debe cuestionar la necesidad de la IA, y luego examinar el origen de la oferta y los requisitos, como el conocimiento del chino.

FUNCIONAMIENTO DE LOS «MODELOS DE IA»

   Los cibercriminales utilizan a los «modelos de IA» (generalmente mujeres jóvenes) para perpetrar estafas amorosas. Estas estafas implican el contacto con usuarios a través de redes sociales como Facebook o Instagram, estableciendo una relación con la víctima con el objetivo de obtener dinero.

   Para llevar a cabo este tipo de fraudes, los atacantes deben estar preparados para evitar cualquier sospecha de sus víctimas. Por ejemplo, si una víctima solicita una videollamada para verificar la autenticidad de la persona con la que está interactuando.

   Dado que la persona detrás de la pantalla no existe, utilizan ‘deepfakes’, que permiten la manipulación realista de imágenes, vídeos y audios mediante inteligencia artificial. De esta manera, la víctima tiene la impresión de estar en una videollamada «real», cuando en realidad se trata del atacante, o en este caso, de la modelo.

   Sin embargo, las condiciones laborales de estas «modelos de IA» pueden ser abusivas, con jornadas que alcanzan las doce horas diarias, y entre cien y 150 videollamadas diarias. Algunos anuncios analizados también mencionan que el pasaporte será retenido para la «gestión de visados y permisos de trabajo», lo que podría llevar al robo de pasaportes para retener a los empleados.

   En ciertos casos, los modelos esperan un salario mensual de 7.000 dólares (aproximadamente 6.071 euros), pero también hay solicitudes específicas como contar con una habitación privada, poder regresar a casa en su día libre o incluso disponer de una lavadora personal.

   En este contexto, Ling Li, cofundadora de la ONG EOS, menciona que las «modelos de IA» pueden disfrutar de más libertad que las víctimas de trata, pero aún así enfrentan maltrato por parte de sus jefes y pueden sufrir acoso sexual. «Una víctima europea nos relató que vio a algunas modelos italianas en su edificio, pero no puede determinar si estaban allí por voluntad propia o no, ya que las golpearon delante de él», detalló.

Scroll al inicio