A pesar de los controles de seguridad que ambas han implementado, Apple y Google siguen alojando en sus tiendas decenas de aplicaciones capaces de usar inteligencia artificial para desnudar digitalmente a sujetos en fotografías. Y no sólo eso, según una nueva investigación publicada esta semana por el Tech Transparency Project (TTP), los propios mecanismos de búsqueda y publicidad de la App Store y Google Play las muestran en primer plano.
Una investigación del Tech Transparency Project revela que los buscadores de las tiendas de aplicaciones de Apple y Google promueveen aplicaciones capaces de generar desnudos no consentidos a partir de fotos reales
A pesar de los controles de seguridad que ambas han implementado, Apple y Google siguen alojando en sus tiendas decenas de aplicaciones capaces de usar inteligencia artificial para desnudar digitalmente a sujetos en fotografías. Y no sólo eso, según una nueva investigación publicada esta semana por el Tech Transparency Project (TTP), los propios mecanismos de búsqueda y publicidad de la App Store y Google Play las muestran en primer plano.
La organización buscó en ambas tiendas términos como nudify, undress o deepnude y analizó las diez primeras aplicaciones devueltas en cada resultado. Alrededor del 40% podía generar imágenes de mujeres desnudas o semidesnudas a partir de fotos subidas por el usuario. Estas apps identificadas sumaban 483 millones de descargas y 122 millones de dólares en ingresos a lo largo de su vida útil, según datos de la firma analítica AppMagic. Treinta y una estaban calificadas como aptas para menores.
El dato más incómodo para ambas compañías no es el catálogo en sí, sino la forma en que los sistemas automatizados de las plataformas facilitan llegar a ellas. En algunas búsquedas de la App Store, el primer resultado era un anuncio patrocinado de una app que, en las pruebas de TTP, generó un vídeo con el rostro de una mujer vestida superpuesto al cuerpo desnudo de otra. Google, por su parte, mostraba carruseles de «Sugerido para ti» con aplicaciones que ofrecían plantillas tituladas «Eliminar ropa», «Bikini» o «Uniforme erótico». Una de ellas, Magic AI, llegaba a ofrecer una plantilla denominada «sexo forzado».
Muchas de las aplicaciones están desarrolladas por empresas radicadas en China o Vietnam, algo que añade una capa adicional de preocupación. Las leyes de seguridad nacional chinas, por ejemplo, pueden obligar a las empresas del país a entregar al gobierno los datos que manejan. En el caso de estas apps, eso incluye imágenes reales y manipuladas de personas concretas.
Las políticas oficiales de ambas tiendas prohíben explícitamente este tipo de contenidos. Apple veta las apps «ofensivas» o «abiertamente sexuales», y Google Play prohíbe las que «degradan u objetualizan a personas, incluidas las que dicen desnudar gente o ver a través de la ropa». Pero según TTP, las empresas tienden a reaccionar lentamente y de forma errática. Tras un primer informe publicado en enero, Apple y Google retiraron más de 24 aplicaciones entre ambas. Después del segundo, Apple ha eliminado 14 adicionales y Google, siete.
Tecnología – Píxel
