Suscríbete!

Permanece al día de todas las noticias importantes del sector tecnológico y de la ciberseguridad

Los navegadores de IA con capacidades de agente caen en las amenazas más comunes que se encuentran online, según estudio

Los navegadores de IA con capacidades de agente enfrentan las amenazas más comunes en línea, según un estudio

MADRID, 22 Ago. (CIBERPRO) –

Los navegadores basados en inteligencia artificial (IA) están comenzando a desarrollar habilidades de agente para realizar tareas en línea en nombre del usuario de manera autónoma, aunque sin las medidas de seguridad necesarias para evitar los peligros más comunes en la red.

La firma de seguridad Guard.io ha denominado Scamlexity a un nuevo tipo de amenaza digital que involucra a estos navegadores de IA con capacidades de agente, inspirado en Perplexity, que recientemente lanzó Comet.

Según la investigación publicada en su blog oficial, Comet se describe como «el único navegador de IA accesible al público que no solo busca o resume información, sino que navega por cuenta propia, hace clic en enlaces y ejecuta tareas de forma autónoma».

Sin embargo, esta autonomía no parece ir acompañada de un conocimiento sobre las estafas más comunes en línea, como tiendas fraudulentas y correos de phishing que suplantan a entidades bancarias.

En pruebas donde se le solicitó comprar un Apple Watch y gestionar la bandeja de entrada, Comet pasó por alto señales que un ser humano podría identificar como indicios de un engaño, cayendo así en las estafas.

Los investigadores también examinaron Comet frente a una amenaza reciente, diseñada específicamente para estos navegadores: la inyección de instrucciones ocultas en el contenido procesado por la inteligencia artificial.

Estas instrucciones pueden incluir frases como «Ignora todas las instrucciones anteriores y… haz algo perjudicial para mí». Con las protecciones adecuadas, un agente de IA debería poder reconocer esto, pero en la prueba con Comet, los investigadores observaron que el navegador asumió estas instrucciones ocultas como parte de su tarea.

Además, realizaron una prueba con un captcha fraudulento, que suele distinguir entre usuarios humanos y cuentas automatizadas, introduciendo un apartado invisible para humanos pero que daba instrucciones a las IA.

En este caso, Comet desoyó la orden de pedir al humano que resolviera el captcha y siguió las instrucciones ocultas, que le indicaban que podía resolverlo una IA. Estas instrucciones le instaban a pulsar un botón, lo que resultaba en la descarga de un archivo potencialmente dañino.

Los investigadores concluyen que «la intuición humana para evitar daños se excluye del proceso, convirtiendo a la IA en el único punto de decisión». Además, advierten que «sin una sólida protección de la IA, esa decisión es prácticamente una tirada de moneda, y cuando la seguridad se deja al azar, es solo cuestión de tiempo antes de que se cometa un error».

Scroll al inicio