Segun un nuevo informe del Tech Transparency Project (TTP), un organismo que supervisa las principales plataformas tecnologicas, los investigadores han descubierto 55 aplicaciones de deepfake que "toman fotos desnudas" en Google Play Store y 47 aplicaciones en Apple App Store.
Estas aplicaciones permiten a los usuarios eliminar la ropa digital o injertar rostros reales en el cuerpo desnudo utilizando tecnologia de IA generadora.
Lo que preocupa especialmente a la opinion publica es que las aplicaciones anteriores se pueden descargar facilmente, solo usando fotos personales que suelen compartirse publicamente en las redes sociales.
TTP dijo que cuando se busca con palabras clave como "nudify" o "undress", una serie de aplicaciones todavia aparecen en ambas tiendas de aplicaciones mas populares del mundo.
Durante el proceso de prueba, el grupo de investigacion descubrio que muchas aplicaciones tienen la capacidad de crear imagenes eroticas o desnudas bastante realistas, aunque las fotos originales no tienen elementos sensibles en absoluto.
Esta es una forma de deepfake de imagen, una tecnologia que esta causando una acalorada controversia por infringir la privacidad y el honor personal.
En particular, el numero total de descargas de estas aplicaciones supero los 700 millones de veces, generando mas de 117 millones de dolares en ingresos.
Apple y Google, como intermediarios de distribucion, tambien se benefician parcialmente de las transacciones en las aplicaciones.
Esta cifra hace que la pregunta sobre la responsabilidad de censurar el contenido de los dos gigantes tecnologicos sea mas intensa.
La encuesta tambien señala una realidad alarmante: muchas aplicaciones estan clasificadas como adecuadas para adolescentes, incluso niños.
Por ejemplo, la aplicacion DreamFace se considera para usuarios a partir de los 13 años en Google Play y a partir de los 9 años en Apple App Store, pero tiene la funcion de crear imagenes sensibles con IA.
Ante la presion de la opinion publica, Apple dijo que habia eliminado 24 aplicaciones despues de que se publicara el informe, pero esta cifra sigue siendo mucho menor que las 47 aplicaciones identificadas por TTP.
Google confirmo que ha suspendido temporalmente algunas aplicaciones que violan la politica, pero se nego a revelar el numero especifico de desinstalaciones.
El informe de TTP se publico en un contexto en el que tambien se descubrio que la herramienta de IA Grok de xAI creo una gran cantidad de imagenes sensibles sin consenso, incluido contenido relacionado con niños.
Esto genera aun mas preocupacion sobre el hecho de que las plataformas tecnologicas no controlan eficazmente los riesgos que genera la IA.
Segun los expertos, la aplicacion de "desnudarse" con IA no solo causa graves daños a la salud mental, sino que tambien contribuye a aumentar la violencia y el estigma contra las mujeres y las niñas, que son el grupo objetivo que a menudo se convierte en victimas de la pornografia de deepfake.
Ante esta situacion, muchos paises, incluido el Reino Unido, estan considerando prohibir por completo las herramientas de IA para eliminar la ropa digital, considerando la creacion y distribucion de ellas como un acto ilegal.