7 de mayo de 2026

Hay chats privados de IA en abierto por internet: los crecientes riesgos para la privacidad de los principales chatbots

Los chatbots de IA se han convertido en apenas unos años en un parte central de internet. Con su uso masivo, ha aparecido también el gran pecado original para la privacidad: la publicidad y su rastreo para conocer mejor los gustos y debilidades de cada usuario. Una nueva investigación revela que ChatGPT, Claude, Grok y Perplexity emplean distintos tipos de rastreadores de Meta, Google, TikTok y otras compañías. Esas herramientas son las que siguen nuestra navegación por la web para conocernos mejor: ahora además tendrán en distintos grados acceso a nuestros chats privados con la IA.

“Los modelos de lenguaje transformarán cómo las personas interactúan con los servicios online y hacen sus tareas cotidianas, trabajan o compran”, dice Narseo Vallina, investigador de Imdea Networks y uno de los coautores del trabajo. “Nuestros hallazgos sugieren que, aunque los modelos de monetización todavía están evolucionando, los proveedores de IA están adoptando los modelos de negocio tradicionales de la tecnología publicitaria”, añade.

El mayor riesgo que ha encontrado la investigación es links a chats completos en abierto de Grok y Perplexity, palabra por palabra. La recopilación de información que hacen las empresas de publicidad con acceso a estos chatbots incluye un montón de detalles. Uno de ellos es el link de la conversación. En algunos casos, quien tuviera acceso a ese enlace tenía acceso a la conversación completa, no solo al título o algún otro detalle, que es más habitual: “En Grok o Perplexity, hasta el 3 de abril estos enlaces eran públicos por defecto [en esa fecha empezó un juicio contra Perplexity en EE UU precisamente por instalar rastreadores que transmiten las conversaciones de los usuarios a Meta y Google en tiempo real], de modo que cualquiera que conociera la dirección URL podía leer el intercambio entero, ya que no había ningún mecanismo de control de acceso. No tenemos evidencia de que un tercero haya leído el contenido de las conversaciones, pero el riesgo existe”, explica Guillermo Suárez-Tangil, también coautor e investigador de Imdea Networks.

No todas los chatbots tienen el mismo nivel de riesgo. En ChatGPT y Claude se comparte con terceros por ejemplo el título de cada conversación, lo que también revela información sobre la intención de la consulta, por ejemplo, preocupaciones médicas, fiscales, legales. EL PAÍS ha preguntado a OpenAI, Anthropic, Perplexity y xAI por su reacción a esta investigación pero no ha recibido por ahora ninguna respuesta.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *