Suscríbete!

Permanece al día de todas las noticias importantes del sector tecnológico y de la ciberseguridad

Anthropic advierte de que Claude se ha usado para dar "asesoramiento técnico y apoyo operativo" a ciberdelincuentes

Anthropic alerta sobre el uso de Claude para proporcionar «asesoramiento técnico y apoyo operativo» a ciberdelincuentes

   MADRID, 27 Ago. (CIBERPRO) –

   Anthropic ha reportado varios ejemplos recientes de mal uso de Claude, donde su asistente ha proporcionado «asesoramiento técnico y apoyo operativo activo» en ciberataques que normalmente habrían requerido un equipo de profesionales.

   La firma estadounidense ha alertado de que la IA se ha transformado en un «arma», subrayando que los modelos de lenguaje se están utilizando para llevar a cabo ciberataques sofisticados en diversas situaciones.

   En este contexto, Anthropic ha indicado que ha desmantelado las actividades de un ciberdelincuente que utilizaba su agente de codificación, Claude Code, para obtener «asesoramiento técnico y apoyo operativo activo» y llevar a cabo robos y extorsiones masivas de datos personales, según su informe de Inteligencia de Amenazas.

   La empresa ha explicado que el autor utilizó la IA de una manera «sin precedentes» aplicando la técnica del ‘vibe hacking’, que consiste en tácticas de manipulación psicológica que explotan las emociones o percepciones de la víctima para comprometer su seguridad, como generar una sensación de urgencia o pánico para que el usuario revele sus datos.

   El ciberdelincuente utilizó Claude Code para automatizar el reconocimiento, recolectar las credenciales de las víctimas y penetrar en las redes, mientras que Claude podía tomar decisiones tácticas y estratégicas, como qué datos extraer y cómo formular demandas de extorsión orientadas psicológicamente.

   Asimismo, el asistente de Anthropic fue capaz de analizar los datos financieros extraídos para definir las cantidades adecuadas de los rescates y generó notas de rescate «visualmente alarmantes» que aparecían en los ordenadores de las víctimas.

   En lugar de cifrar la información robada con ‘ransomware’ tradicional, amenazó con hacer públicos los datos para intentar extorsionar a las víctimas y forzarlas a pagar rescates que, en ocasiones, superaban los 500.000 dólares (aproximadamente 430.000 euros).

   Este autor tenía como objetivo al menos 17 organizaciones diferentes, incluyendo instituciones de salud, servicios de emergencia y entidades gubernamentales y religiosas.

   Anthropic anticipa que este tipo de ataques se volverán más frecuentes a medida que la codificación asistida por IA reduzca la experiencia técnica necesaria para la ciberdelincuencia.

AGENTES NORCOREANOS MANTIENEN FRAUDULENTAMENTE TRABAJOS EN EMPRESAS TECNOLÓGICAS DE EE.UU.

   Otro de los casos que ha detectado Anthropic es que agentes norcoreanos habían utilizado Claude para obtener y mantener fraudulentamente puestos de trabajo remotos en empresas tecnológicas estadounidenses de la lista Fortune 500.

   Estos actores usaban los modelos de Claude para crear identidades falsas elaboradas con antecedentes profesionales creíbles, realizar evaluaciones técnicas y de codificación durante el proceso de solicitud y entregar trabajo técnico real una vez contratados, según indica la compañía en su informe.

   Anthropic ha señalado que esta estrategia fue diseñada para generar beneficios para el régimen norcoreano, desafiando las sanciones internacionales. Se trata de una operación que comenzó antes de la aparición de los grandes modelos de lenguaje, y que incluso ha sido documentada por el FBI.

VENTA DE ‘RANSOMWARE’ GENERADO POR IA COMO SERVICIO

   El tercer caso descubierto por Anthropic involucra a un ciberdelincuente que utilizó Claude para desarrollar, comercializar y distribuir diversas variantes de ‘ransomware’, cada una con capacidades avanzadas de evasión, cifrado y mecanismos antirrecuperación.

   Estos paquetes de ‘ransomware’ se vendieron en foros de internet a otros ciberdelincuentes por precios que oscilaban entre los 400 y los 1.200 dólares (entre 345 y 1.035 euros).

   El informe señala que este actor parece haber dependido de la IA para desarrollar ‘malware’ funcional, ya que sin la asistencia de Claude no habría podido implementarlo ni resolver problemas relacionados con componentes esenciales del ‘malware’.

   Además, la firma estadounidense aborda otros usos maliciosos de sus modelos, como un intento de comprometer la infraestructura de telecomunicaciones vietnamita y el uso de múltiples agentes de IA para llevar a cabo fraudes.

   Así, el incremento del fraude y la ciberdelincuencia potenciados por IA es algo que preocupa «especialmente» a la empresa, por lo que planean priorizar la investigación en este ámbito.

   De esta manera, Anthropic ha explicado que los abusos que han descubierto les han permitido actualizar sus medidas de seguridad preventiva, además de compartir los detalles de sus hallazgos con equipos de seguridad externos.

Scroll al inicio