Los grandes modelos de lenguaje —la tecnología detrás de ChatGPT y herramientas similares— pueden reconstruir un perfil psicológico detallado de cualquier persona usando datos que parecen inocentes: tus búsquedas, los textos que escribes, las horas en que usas tu teléfono. La privacidad digital que firmaste en ese aviso de cookies no cubre eso. Y esa brecha entre la regulación superficial y la soberanía personal real es el problema que nadie está atendiendo en serio.
Qué puede inferir una IA con tus datos cotidianos
No necesita que le cuentes nada directamente. Un LLM bien entrenado puede deducir rasgos de personalidad, tendencias emocionales, niveles de ansiedad y patrones de toma de decisiones a partir de cómo escribes un correo, qué buscas a las 2 de la mañana o en qué orden consumes contenido. qué datos recopila ChatGPT de los usuarios La materia prima no es tu nombre ni tu dirección: son los rastros de comportamiento que dejas sin pensar.
Investigadores de privacidad digital llevan meses documentando que los modelos de lenguaje modernos son particularmente eficientes construyendo lo que se llama un ‘perfil inferido’: una representación de quién eres que ningún formulario de consentimiento captura porque técnicamente nunca ‘diste’ ese dato. Lo inferiste tú sin saberlo, con cada interacción. [DATO PENDIENTE: citar estudio específico o publicación académica reciente sobre LLMs y perfilado psicológico inferido]
Por qué el consentimiento de cookies no sirve de nada aquí
El sistema de privacidad que conocemos —esa ventana de cookies que cierras en dos segundos, ese correo de ‘actualización de términos’ que nadie lee— fue diseñado para un internet de datos explícitos: nombre, edad, historial de compras. Los LLMs operan en otra dimensión. regulación inteligencia artificial Europa Trabajan con señales implícitas, patrones de lenguaje y correlaciones que no están en ningún campo de formulario.
El resultado es que puedes cumplir con toda la regulación vigente —GDPR incluido— y aun así tener tu perfil psicológico reconstruido con una precisión que muchos psicólogos clínicos envidiarían. No es un fallo del sistema de privacidad. Es que ese sistema fue construido para proteger algo diferente a lo que hoy está en riesgo.
Qué significa esto para cualquier persona con un celular
La discusión sobre privacidad digital suele quedarse en el territorio abstracto: reguladores, tecnocrátas, debates en Bruselas. Pero el perfil que una IA puede construir de ti no es abstracto. Puede usarse para personalizar publicidad con una precisión casi manipuladora, para evaluar riesgo crediticio, para decidir qué contenido político te muestran o para inferir vulnerabilidades emocionales que alguien —una empresa, un gobierno, un actor mal intencionado— podría aprovechar. uso de IA en publicidad personalizada redes sociales
La soberanía personal en el espacio digital ya no significa controlar qué datos ‘compartes’. Significa controlar qué pueden inferir de ti. Y para eso, todavía no existe ningún mecanismo legal claro, ninguna casilla que marcar, ningún botón de ‘no gracias’.
