Un estudio académico advierte que la inteligencia artificial podría facilitar la identificación de usuarios anónimos y reabre el debate sobre la privacidad en internet.
Durante años, millones de personas navegaron por foros, redes sociales y plataformas de discusión con la tranquilidad que otorga un seudónimo. Un nombre inventado, un avatar genérico y la sensación de que, detrás de esa pantalla, la identidad real permanecía a salvo. Esa idea, conocida en el mundo de la seguridad informática como “oscuridad práctica”, sostenía que aunque teóricamente era posible identificar a alguien por sus comentarios, hacerlo requería tanto tiempo y esfuerzo que solo valía la pena para objetivos muy específicos: un denunciante perseguido por un gobierno, un criminal investigado por la justicia o una figura pública acosada por un individuo obsesivo.
Hoy ese supuesto comienza a ser cuestionado. Un equipo de investigadores de ETH Zurich, Anthropic y otras instituciones demostró que los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) pueden realizar en minutos tareas de identificación que antes requerían horas de trabajo manual de un investigador experto. Y lo más relevante: pueden hacerlo potencialmente a gran escala, con costos relativamente bajos y utilizando información pública que los propios usuarios dejan voluntariamente en internet.
El experimento que muestra el cambio
Para entender la magnitud del hallazgo, vale la pena detenerse en uno de los experimentos que los investigadores diseñaron. Tomaron 338 perfiles de Hacker News, un popular foro tecnológico, cuyos usuarios habían vinculado voluntariamente su cuenta con su perfil de LinkedIn. Luego, utilizando un modelo de lenguaje, anonimizaron esos perfiles: eliminaron nombres, URLs, handles de redes sociales y cualquier dato que permitiera una identificación directa.
Lo que quedó fue exactamente el tipo de información que cualquier usuario promedio deja en internet: opiniones técnicas, comentarios profesionales, referencias geográficas o intereses personales.
El desafío para la inteligencia artificial era claro: con esa información limitada, ¿podría encontrar al profesional real detrás del seudónimo?
Los resultados mostraron que el sistema pudo identificar correctamente al 67% de los usuarios con una precisión cercana al 90%. Es decir, cuando el modelo realizaba una identificación, la gran mayoría resultaba correcta. Según los investigadores, el costo de estos procesos podía oscilar entre uno y cuatro dólares por perfil.
“Lo que hace relevante este hallazgo no es que los LLM superen la capacidad humana”, explican los autores. “Las señales que explotan nuestros modelos son las mismas que un investigador experto podría detectar. La diferencia es que los LLM reducen drásticamente los costos”.
Ese cambio de costos es, según el estudio, lo que transforma una posibilidad técnica en un riesgo creciente.
Cómo funciona este tipo de identificación
El sistema desarrollado por los investigadores, al que llamaron ESRC (Extraer, Buscar, Razonar, Calibrar), funciona de manera similar a como lo haría un investigador humano, aunque con una velocidad y capacidad de procesamiento mucho mayores.
En la primera fase, el modelo de lenguaje extrae de los comentarios y publicaciones de un usuario anónimo toda la información potencialmente relevante: no solo datos explícitos como lugar de residencia o profesión, sino también inferencias como nivel educativo aproximado, intereses específicos o ciertos patrones de escritura.
La segunda fase consiste en la búsqueda. Esa información se transforma en representaciones matemáticas que permiten comparar perfiles entre grandes volúmenes de datos y detectar coincidencias probables.
Luego viene la fase de razonamiento. De entre los candidatos posibles, el modelo evalúa cuáles presentan mayor coherencia contextual. No se limita a comparar listas de características, sino que analiza si los elementos encontrados tienen sentido en conjunto.
Finalmente, el sistema calibra su propio nivel de confianza. Puede estimar probabilidades de coincidencia y, en casos de baja certeza, optar por no realizar una identificación.
De Netflix a Reddit: la evolución de un viejo problema
Para entender por qué este trabajo resulta significativo, los propios investigadores lo vinculan con estudios anteriores sobre privacidad digital. En 2008, los investigadores Arvind Narayanan y Vitaly Shmatikov demostraron que era posible identificar usuarios a partir de datos supuestamente anónimos de valoraciones de películas de Netflix, cruzándolos con datos públicos de IMDb.
El problema era que esos ataques requerían datos estructurados: listas, fechas y puntuaciones comparables.
La mayor parte de la información que las personas generan hoy en internet no tiene esa estructura. Son comentarios, opiniones, discusiones. Esa falta de estructura había funcionado hasta ahora como una protección indirecta.
Los LLM cambian ese escenario porque pueden trabajar directamente con texto no estructurado. Los investigadores lo probaron en distintos escenarios. En uno de ellos, analizaron usuarios de Reddit que participaban en comunidades de cine y dividieron artificialmente su actividad en perfiles separados. El sistema logró volver a vincular varios de esos perfiles utilizando únicamente patrones de comportamiento y contenido.
Las entrevistas que revelaron identidades
Uno de los casos más llamativos fue el análisis de entrevistas a científicos sobre el uso de IA en su trabajo. Aunque los datos habían sido parcialmente redactados para proteger identidades, el sistema logró identificar correctamente a varios participantes basándose únicamente en descripciones de sus líneas de investigación y comparaciones con información pública.
Esto demuestra que incluso cuando se eliminan identificadores directos, los detalles contextuales pueden seguir ofreciendo pistas suficientes para permitir una identificación probabilística.
Qué significa esto para los usuarios
Los investigadores señalan que esto no implica que cualquier persona pueda ser identificada automáticamente ni que el anonimato haya desaparecido. Sin embargo, los resultados sugieren que el riesgo aumenta cuando una persona deja suficientes rastros digitales a lo largo del tiempo.
Cada usuario deja un patrón único compuesto por intereses, temas recurrentes, formas de escribir y experiencias mencionadas. Hasta ahora esos datos estaban dispersos. Los LLM pueden ayudar a conectar esas piezas.
El límite de la protección por oscuridad
Durante años, la privacidad digital se apoyó en la idea de que la identificación era posible pero poco probable debido a su costo. Los investigadores plantean que esa lógica podría estar cambiando.
Según el estudio, la llamada “oscuridad práctica” podría dejar de ser una protección suficiente a medida que estas tecnologías reduzcan el esfuerzo necesario para vincular perfiles.
Los resultados muestran diferencias significativas respecto a métodos clásicos de identificación, especialmente cuando se analizan grandes volúmenes de datos no estructurados.
Los límites actuales
El estudio también aclara varias limitaciones. Estos sistemas no funcionan en todos los casos y su efectividad depende de la cantidad de información disponible. Tampoco constituyen herramientas de identificación automática universal.
Los investigadores remarcan que se trata de escenarios experimentales y que los resultados no deben interpretarse como una capacidad generalizada aplicable a cualquier usuario.
¿Existe defensa posible?
Los autores mencionan posibles medidas de mitigación como limitar la recopilación masiva de datos o mejorar herramientas de anonimización. Sin embargo, reconocen que la naturaleza abierta de internet hace difícil eliminar completamente estos riesgos.
También destacan que los mismos avances tecnológicos podrían utilizarse para desarrollar mejores herramientas de protección de la privacidad.
Hacia un nuevo debate sobre privacidad digital
Más que anunciar el fin del anonimato, el estudio plantea un debate más profundo: cómo cambia la privacidad cuando la tecnología permite analizar patrones que antes pasaban desapercibidos.
Los autores señalan que la discusión futura probablemente girará en torno a cómo equilibrar los beneficios de las comunidades abiertas online con la necesidad de proteger la identidad de los usuarios.
Más que una conclusión definitiva, el estudio plantea una pregunta: qué tipo de privacidad será posible sostener en un entorno digital donde cada interacción deja rastros analizables.
Mónica Píriz
Fuente de esta noticia: https://www.xn--lamaana-7za.uy/actualidad/puede-la-ia-descubrir-quien-esta-detras-de-un-perfil-anonimo-el-nuevo-desafio-a-la-privacidad-digital/
También estamos en Telegram como @prensamercosur, únete aquí: Telegram Prensa Mercosur
Recibe información al instante en tu celular. Únete al Canal del Diario Prensa Mercosur en WhatsApp a través del siguiente link: https://whatsapp.com/channel/0029VaNRx00ATRSnVrqEHu1
También estamos en Telegram como @prensamercosur, únete aquí: https://t.me/prensamercosur
Recibe información al instante en tu celular. Únete al Canal del Diario Prensa Mercosur en WhatsApp a través del siguiente link: https://www.whatsapp.com/channel/0029VaNRx00ATRSnVrqEHu1W
ACERCA DEL CORRESPONSAL
REDACCIóN CENTRAL
Prensa Mercosur es un diario online de iniciativa privada que fue fundado en 2001, donde nuestro principal objetivos es trabajar y apoyar a órganos públicos y privados.
- ★Tierra inhabitable: la vida cotidiana es cada vez más peligrosa a medida que el planeta se calienta
- ★Día Mundial contra la Matanza de Focas 2026 alerta sobre la caza comercial
- ★Acorralado, extitular de Petropar declaró ante la DNIT un aumento de ingresos del 482%
- ★BID concluyó sus reuniones anuales con fuerte apuesta al sector privado
- ★Feria del Libro Chacú-Guarani concluye hoy con homenajes, lanzamientos y música

