Ir al contenido
_
_
_
_

El fin del anonimato en la red

Una investigación revela que integrar una mínima cantidad de información obtenida de la huella que sujetos anónimos generan en la red puede resultar en su reconocimiento.

Un grupo de jóvenes mira sus móviles.Connect Images (Getty Images/Connect Images)

Las cuentas con seudónimos en redes serán más complicadas de mantener en la era de la inteligencia artificial (IA). Un grupo de investigadores reunió miles de publicaciones de foros anónimos como Hacker News y Reddit y pidió a varias IA que identificaran a sus autores. Para sorpresa de nadie, modelos de lenguaje como Gemini o ChatGPT hicieron en minutos lo que a un humano le llevaría muchísimas horas y quizá no lograría nunca: los modelos identificaron al 68% de usuarios anónimos con un 90% de precisión, “frente a casi un 0% del mejor método que no utiliza modelos de lenguaje”, dice el artículo científico. “Los resultados muestran que el anonimato de los usuarios con seudónimo en internet ya no se sostiene”, añade.

Esta tarea es solo una más de las que la IA hace más rápido, pero tiene implicaciones para el funcionamiento de internet tal como lo conocemos. “La gente a menudo expresa sus opiniones en cuentas seudónimas, asumiendo que sus opiniones se mantendrán privadas”, dice Daniel Paleka, investigador de la Universidad Politécnica Federal de Zúrich (Suiza) y uno de los coautores del artículo. “Que haya un mecanismo de investigación o vigilancia con modelos de lenguaje que permita simplemente preguntar por las creencias de una persona, opiniones políticas, inseguridades, o lo que sea que se pueda extraer de su cuenta anónima de Reddit, por ejemplo, podría desempoderar mucho a la gente corriente”, añade. En España, una plataforma obvia para probar estos métodos sería Forocoches.

Ni siquiera hace falta doxear [exponer quién está tras un perfil anónimo] ante terceros para influir en su conducta: la inteligencia artificial ya logra extraer abundantes datos privados de usuarios bajo seudónimos en plataformas digitales. La compañía Anthropic y el Pentágono mantienen un conflicto jurídico debido, entre diversos factores, al empleo para desanonimizar que el Gobierno de Trump pretende darle a la tecnología. En la contestación oficial remitida al Departamento de Defensa antes de la demanda, Anthropic señaló que una de las razones para rechazar la cooperación era justamente esa facultad de la IA: “Bajo la ley actual, el Gobierno puede comprar registros de los movimientos de los estadounidenses, su navegación web y sus asociaciones de fuentes públicas sin obtener una orden judicial. Una IA potente hace posible ensamblar estos datos dispersos e individualmente inocuos en una imagen completa de la vida de cualquier persona, automáticamente y a escala masiva”, afirma la entidad.

Es fácil de hacer, aunque estos investigadores no han explorado ese camino, dice Paleka: “Aunque no consideramos esta amenaza en particular, los modelos pueden proporcionar una línea temporal de la vida de una persona si hay suficiente información sobre ella en internet”.

Los investigadores han trabajado sobre una base de datos limitada por razones éticas y porque tenían que saber quién era la persona real detrás de los comentarios en foros: por ejemplo, escogieron perfiles de usuarios de Hacker News que tenían enlazado su perfil de LinkedIn. Luego lo anonimizaban y se lo daban a la IA para que buscara detalles biográficos o personales con peticiones como esta: “¿Quién de los candidatos es la persona que buscamos? Fíjate en rasgos como el lugar donde vive, la profesión, aficiones, datos demográficos o valores. Para que sea un match de verdad, deberían coincidir varios rasgos distintivos, no solo uno o dos bastante comunes”.

El rastro digital que ya tiene la mayoría de humanos es difícil de manejar para un humano, pero no para una IA. “Nuestros métodos, si se aplicaran a una desanonimización real, aprovechan que la gente revela detalles personales que también permitirían a un investigador humano identificarla. La diferencia es que los modelos de lenguaje pueden hacerlo mucho más barato y rápido”, dice Paleka. Los usuarios de internet, también los anónimos, no han tenido muy en cuenta estos detalles durante su uso de internet hasta ahora: “Ten en cuenta que todo lo que publicas sigue quedando en internet y puede convertirse en objetivo de futuros modelos”, que además serán mejores, dice Paleka.

Madre y fan, aunque odia el cilantro.

La IA no solo busca detalles personales revelados por quien escribe. Los investigadores muestran datos ficticios de lo que podría haber encontrado la IA en años de comentarios: “Vive en Nelson (Columbia Británica, Canadá), enfermera pediátrica, mujer, casada, tiene dos hijas, propietaria de un Prius, obsesionada con la masa madre, juega a Stardew Valley, fan de Critical Role [una web serie], favorable a la energía nuclear, enfermedad celíaca, toca la mandolina, hizo el sendero de la Cresta del Pacífico de punta a punta, no le gusta el cilantro”.

Pero, según Paleka, no somos conscientes de otros rastros que dejamos al escribir, como detalles menos evidentes y más difíciles de detectar. “Visita el subreddit [comunidad online] sobre Berlín o ‘usa ortografía británica’ o ‘escribió accidentalmente un ‘¿’ en un texto en inglés”, dice Paleka, aunque con detalles más obvios ya será suficiente: ”La estilometría sería útil para vincular dos cuentas online de la misma persona, pero yo personalmente tiendo a pensar que la simple explotación de hechos del mundo real es donde están los mayores peligros de privacidad para la mayoría”.

Desde los años 2023 y 2024 se sabe que esto acabaría pasando. La novedad de este estudio es la cuantificación y el método usado. “No es sorprendente que, cuando los modelos de lenguaje ganaron capacidades de búsqueda, pudieran empezar a desanonimizar a algunos usuarios, sobre todo si revelan información buscable sobre sí mismos. Sí es un poco sorprendente lo fácil que es hacer que algunos modelos se involucren en este tipo de uso malicioso”, explica.

Los grandes misterios o personajes de internet siguen a salvo, pero es difícil saber hasta cuándo. “No creo que hoy los modelos puedan desanonimizar de forma fiable a alguien que sea realmente difícil de identificar. Satoshi Nakamoto [el supuesto creador de bitcoin] está a salvo. En el futuro, podrían volverse mejores que las personas en este tipo de investigación y entonces el equilibrio podría cambiar”, explica Paleka.

Tu membresía se está empleando en un dispositivo diferente.

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Su sesión permanece abierta en otro dispositivo y únicamente se autoriza el acceso a Papallones desde un solo terminal a la vez.

Si pretendes compartir tu cuenta, modifica tu suscripción a la opción Premium para sumar a un usuario adicional. Cada persona entrará con su dirección de correo propia, lo que os facilitará adaptar vuestra navegación en Papallones.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

Si desconoces quién está utilizando tu cuenta, te sugerimos que modifiques tu clave aquí.

Si eliges seguir compartiendo tu suscripción, este aviso se verá en tu equipo y en el de la otra persona que utilice tu perfil de manera permanente, perjudicando tu experiencia de lectura. Tienes la opción de consultar aquí los términos y condiciones de la suscripción digital.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
Recomendaciones Papallones
Recomendaciones Papallones
Recomendaciones Papallones
_
_