14/07/2025
Desnudar gente sin su consentimiento con ayuda de la inteligencia artificial ya no es un experimento marginal: es una industria. Según Wired, un puñado de aplicaciones están generando millones de dólares al año a través de desnudos falsos hiperrealistas, que muchas veces se usan para extorsionar, acosar o humillar. Mientras las víctimas se multiplican, las plataformas ganan dinero... y el vacío legal las protege.
Lo que hace apenas unos años parecía una herramienta menor para bromas pesadas o contenido marginal hoy se ha convertido en un negocio millonario y profundamente dañino. Las aplicaciones que utilizan inteligencia artificial para "desnudar" personas -es decir, para crear imágenes falsas y sexualizadas de cuerpos a partir de fotos reales- ya generan más de 36 millones de dólares al año. Y la cifra sigue creciendo.
No se trata de arte, ni de entretenimiento inofensivo. En la mayoría de los casos, estas imágenes se crean sin consentimiento y se usan como forma de acoso, humillación, chantaje o pornovenganza. La IA permite generar imágenes hiperrealistas de mujeres desnudas (en su mayoría), incluso a partir de fotos comunes de redes sociales. El resultado parece real, aunque sea falso.
Según la investigación publicada por Wired, muchas de estas aplicaciones están disponibles en línea, funcionan por suscripción o venta de créditos, y ofrecen resultados en segundos. Algunas tienen interfaces elegantes, simulan servicios profesionales o de edición artística, y otras directamente se presentan como "nudificadores" automáticos. Basta con subir una foto y pagar.
Uno de los sistemas analizados por los investigadores está basado en el modelo Stable Diffusion, una tecnología de IA de código abierto que puede ser entrenada con imágenes específicas. En este caso, fue entrenada para crear desnudos hiperrealistas. La plataforma, solo una de muchas, recibe más de 24 millones de visitas mensuales y cobra entre 10 y 50 dólares por generar packs de desnudos falsos.
A pesar del evidente daño que estas herramientas provocan, la regulación es casi inexistente. La mayoría de estas plataformas operan desde servidores ubicados en países con baja supervisión o leyes vagas. Incluso cuando se detecta una app dañina, cerrarla puede tomar meses... o simplemente reaparece con otro nombre.
El anonimato del usuario, la facilidad de uso y la falta de barreras éticas hacen que estas herramientas se popularicen rápidamente. Algunas incluso fueron promocionadas en redes sociales por influencers sin revelar qué hacían realmente. En TikTok, por ejemplo, hubo tendencias donde usuarios mostraban sus resultados sin aclarar que las imágenes eran falsas.
Pero del otro lado, hay víctimas reales. Personas -en su mayoría mujeres- que descubren que su rostro fue usado para generar imágenes sexuales que circulan por chats, foros, redes y grupos cerrados. Muchas ni siquiera saben que esas imágenes existen hasta que alguien se las muestra. El daño emocional, profesional y personal es devastador.
En algunos casos extremos, las víctimas han sido menores de edad. Los sistemas de IA, al no tener filtros morales ni criterios de edad, simplemente procesan la imagen que reciben. El resultado: producción masiva de pornografía falsa, que puede derivar en delitos más graves.
El problema es doble. Por un lado, hay una industria que crece, gana dinero y permanece en la sombra. Por el otro, una legislación que no sabe cómo reaccionar. En la mayoría de los países no existe un marco legal específico para los desnudos creados con inteligencia artificial. Si bien algunos fallos han considerado estos casos como violaciones a la privacidad o al honor, la justicia va muy por detrás del avance tecnológico.
Además, muchas plataformas y redes sociales todavía no tienen herramientas automatizadas para detectar y eliminar estos contenidos. La tecnología que permite crearlos es mucho más eficiente que la que intenta frenarlos.
Mientras tanto, los desarrolladores de estas aplicaciones siguen ganando dinero. Según Wired, muchos de los sistemas funcionan con un modelo de negocio casi idéntico al de las apps móviles tradicionales: suscripciones mensuales, venta de créditos, versiones premium y paquetes "pro". Es decir, ganan como cualquier otra empresa... pero a costa de cuerpos falsos y vidas reales.
Lo más inquietante es que esto recién empieza. Con la mejora de los modelos generativos, la creación de imágenes falsas va a ser cada vez más fácil, más barata y más realista. Y si no se actúa pronto, el daño podría escalar a niveles difíciles de controlar.
La inteligencia artificial puede ser una herramienta extraordinaria para la creatividad, la medicina o la educación. Pero también, en manos equivocadas, puede convertirse en un arma. Y eso es exactamente lo que está pasando con estas apps nudificadoras.
El negocio es oscuro, silencioso y muy rentable. Pero también profundamente injusto. Porque detrás de cada imagen falsa, hay una persona real que no dio su consentimiento. Y hasta ahora, nadie parece capaz de protegerla.
COMPARTE TU OPINION | DEJANOS UN COMENTARIO
Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.
16/07/2025
08/07/2025