La huella digital, ese rastro de publicaciones e interacciones que dejamos en internet, se convirtió en un factor decisivo en procesos laborales, migratorios y académicos. En ese contexto nació Social Mirror, una herramienta que permite a los usuarios conocer qué información pública existe sobre ellos antes de que sea analizada por terceros, como reclutadores o instituciones.
La plataforma fue desarrollada por WeCheck AI y está dirigida a personas que planean viajar, participan en procesos de selección laboral o atraviesan trámites académicos. Según explicó Matías Simone, cofundador de la empresa, el objetivo es permitir que cada persona pueda verse en un espejo digital antes de que lo haga otro.
Cómo la huella digital impacta en evaluaciones institucionales
En los últimos años, la actividad pública en redes sociales comenzó a jugar un rol relevante en evaluaciones institucionales. Sin embargo, la mayoría de los usuarios no tiene acceso organizado a la totalidad de su información dispersa en múltiples plataformas digitales.
Simone señaló a TN Tecno que existe una asimetría creciente entre quienes evalúan y quienes son evaluados. Las grandes empresas tienen acceso a la identidad digital de las personas, pero el ciudadano común no puede acceder fácilmente a esa misma información, aunque se trate de sus propios perfiles.
Además, el especialista introdujo la noción de doble currículum. Existe el CV tradicional que cada persona presenta y otro que generan los algoritmos, representando la identidad digital sobre la cual el usuario no tiene control total.
Qué información analiza Social Mirror
La plataforma trabaja exclusivamente con datos públicos disponibles en internet. Analiza redes sociales abiertas, menciones en sitios web y otros espacios accesibles, pero no accede a cuentas privadas ni información cerrada.
El resultado del proceso es un informe que resume la presencia digital del usuario y señala posibles alertas reputacionales. Según la empresa, no se trata de juicios de valor, sino de advertencias sobre cómo determinados contenidos podrían ser interpretados fuera de contexto.
La herramienta utiliza inteligencia artificial para identificar señales vinculadas a violencia, odio, hostigamiento, ilegalidad o imágenes que podrían resultar problemáticas. Cada marca viene acompañada de una explicación para que el usuario entienda por qué se señaló ese contenido específico.
Para reducir falsos positivos, el sistema analiza contexto siempre que es posible. Simone detalló que no miran solo frases sueltas, sino estructura, si era una respuesta o un hilo, la ventana temporal y la relación con otros posteos.
El problema del contexto perdido
Según los desarrolladores, el problema no es solo lo que se publica, sino cómo y cuándo se lee. Una publicación puede haber sido pensada para un grupo específico o un momento determinado, pero años después puede leerse sin contexto, con otra sensibilidad cultural o directamente por un sistema automático.
Este tipo de análisis automatizado ya se utiliza en procedimientos delicados como solicitudes de visas, admisiones académicas, alquileres y procesos de contratación. En ese tipo de evaluaciones, una publicación fuera de contexto puede derivar en revisiones adicionales o directamente en un descarte.
Simone enfatizó que la inteligencia artificial no juzga ideologías ni opiniones. La plataforma solo identifica patrones y señala riesgos de interpretación, dejando que la decisión final siempre sea humana.
Funcionamiento y acceso a la plataforma
Social Mirror se encuentra en etapa beta. El proceso comienza con la creación de una cuenta mediante correo electrónico o Google, y el usuario debe elegir un plan pago para acceder al informe completo.
La plataforma ofrece una opción gratuita que permite obtener un primer panorama de la identidad digital. Se trata de un reporte preliminar que analiza información pública superficial asociada a los perfiles del usuario.
El análisis tarda pocos minutos y devuelve un informe que detalla cuántas publicaciones fueron evaluadas y cómo se distribuyen entre positivas, negativas o neutrales. El sistema marca publicaciones que podrían leerse como ofensivas, discriminatorias o sensibles según distintos criterios.
La herramienta no busca reemplazar evaluaciones oficiales, sino ofrecer una instancia previa de conocimiento. Permite que cualquier persona entienda qué tipo de información expone públicamente y cómo podría ser interpretada en procesos sensibles antes de someterse a evaluaciones institucionales.

