Una investigación internacional reveló la existencia de más de 150 canales de Telegram y decenas de aplicaciones que integran una red activa dedicada a crear y distribuir desnudos falsos generados con inteligencia artificial. Estos contenidos son producidos sin el consentimiento de las víctimas, a partir de una sola fotografía, y circulan de manera masiva, frecuentemente a cambio de dinero. El fenómeno afecta a mujeres de distintos países en Europa, América Latina, Asia y África.
Los canales identificados operan como verdaderas fábricas de deepfakes sexuales, ofreciendo servicios automatizados, bots capaces de generar videos explícitos y tutoriales para evadir las restricciones impuestas por las propias herramientas de IA. Las comunidades detectadas reúnen decenas de miles de usuarios activos que intercambian contenido y técnicas para sortear los controles de las plataformas.
Telegram facilita la proliferación de desnudos falsos con IA
La arquitectura de Telegram resulta especialmente funcional para este tipo de abusos. La plataforma permite crear canales de difusión masiva, utilizar bots automatizados y cuenta con un sistema de moderación que actúa principalmente de forma reactiva. Como resultado, los espacios eliminados reaparecen en cuestión de segundos con nombres levemente modificados.
En muchos de estos canales, los administradores cobran por transformar imágenes comunes en desnudos o escenas sexuales falsas, según indica la investigación. Otros optan por distribuir el contenido de manera gratuita para atraer seguidores y luego monetizar a través de suscripciones premium o enlaces a plataformas externas. Las víctimas no son únicamente celebridades o influencers: también aparecen mujeres sin exposición pública, exparejas, compañeras de trabajo o personas tomadas al azar de redes sociales.
Aplicaciones de nudificación con millones de descargas
El problema trasciende Telegram. Un informe del Tech Transparency Project reveló que decenas de aplicaciones de nudificación basadas en IA llegaron a estar disponibles tanto en Google Play Store como en la App Store de Apple. En conjunto, estas aplicaciones acumularon más de 700 millones de descargas, según el reporte.
Si bien Google y Apple eliminaron parte de estas aplicaciones luego de las denuncias, varias continúan activas o reaparecen bajo nuevos nombres. El acceso es simple: los usuarios suben una imagen y el sistema genera un cuerpo desnudo o una escena sexual falsa, sin ningún tipo de verificación sobre el consentimiento de la persona retratada.
Un ecosistema de violencia digital contra mujeres
La circulación de estos contenidos está acompañada por dinámicas de alarde, intercambio y celebración entre usuarios, que refuerzan una lógica de humillación y castigo dirigida principalmente a mujeres. Organizaciones de derechos digitales reportaron casos de extorsión, persecución y daño reputacional que trascienden el ámbito online.
Adicionalmente, usuarios denunciaron que Telegram funciona como un nodo central dentro de un ecosistema más amplio que incluye foros, sitios web y redes sociales. Allí se comparten consejos para evadir filtros, se recomiendan nuevas herramientas y se testean métodos para esquivar la moderación automática de las plataformas.
La respuesta de las plataformas y sus limitaciones
Desde Telegram aseguran que la pornografía deepfake y las herramientas para crearla están prohibidas en sus términos y condiciones de uso. La empresa afirma haber eliminado más de 952.000 archivos vinculados a este tipo de contenido durante 2025 y sostiene que utiliza sistemas de moderación apoyados en inteligencia artificial.
Sin embargo, la velocidad con la que surgen nuevos canales, bots y aplicaciones supera la capacidad de respuesta. Muchos espacios eliminados reaparecen en cuestión de horas con direcciones de acceso renovadas, lo que evidencia los límites del control actual.
Vacíos legales y daños irreversibles
El crecimiento de los deepfakes sexuales expone una debilidad estructural: menos del 40% de los países cuenta con leyes específicas contra el acoso o la violencia digital, según datos del Banco Mundial y la ONU. En regiones con menor alfabetización digital y menos recursos legales, el impacto es todavía mayor.
Mujeres que pierden su empleo, jóvenes expulsadas de instituciones educativas y víctimas aisladas por su entorno familiar forman parte de un problema que no se resuelve con la simple eliminación de contenidos. Abogados y activistas coinciden en que una vez que una imagen falsa circula, el daño es difícil de revertir, incluso cuando se demuestra que fue generada por inteligencia artificial.
La tecnología avanza a un ritmo que deja a las víctimas un paso atrás, mientras plataformas, reguladores y sistemas judiciales buscan cómo ponerse al día. La presión sobre las empresas tecnológicas y los gobiernos para establecer marcos legales más sólidos continúa en aumento, aunque los tiempos de implementación permanecen inciertos.

