Apple a supprimé un certain nombre d’applications de son App Store à la suite d’une nouvelle enquête du Tech Transparency Project (TTP), qui a révélé que les méthodes de recherche et de publicité de la plateforme conduisaient les utilisateurs à « nu*ifier » leurs appareils. Ces applications utilisent l’intelligence artificielle pour générer des images de nus inappropriées, contournant souvent les politiques de sécurité qu’Apple et Google disent suivre. Bien que de nombreux programmes contenant les émissions aient été téléchargés, le rapport montre une défaillance systémique dans laquelle les algorithmes de conservation des programmes et des résultats pris en charge répondent à des questions claires.
L’enquête, publiée mercredi, montre que l’App Store d’Apple et le Google Play Store ont eu du mal à diffuser la technologie d’apprentissage profond. Selon les chercheurs du TTP, la recherche de mots comme « nu*ify », « undress » ou « deepfake » donne souvent lieu à des listes d’applications qui peuvent rendre les femmes nues ou partiellement déshabillées.
Dans certains cas, la fonction de saisie semi-automatique de l’App Store aurait facilité le processus. Par exemple, en tapant « AI NS », des suggestions telles que « image to video ai nsfw » s’affichent, ce qui conduit les utilisateurs vers du contenu pornographique. Le rapport révèle qu’environ 40 % des 10 applications les plus recherchées pour ce terme de recherche sur toutes les plateformes avaient la capacité de créer du porno réel et profond.
Apple supprime le logiciel après la sécurité
Suite à la divulgation de ces résultats, Apple a pris des mesures pour supprimer de nombreux programmes identifiés comme TTP. Bien que l’entreprise ait refusé de commenter officiellement le rapport, la suppression de ces appareils témoigne d’un effort continu pour lutter contre le « sexuel ou pornographique », ce qui est interdit sous la direction d’Apple.
Les tests réalisés par TTP ont montré la facilité d’utilisation du logiciel. Dans un cas, un programme financé par « échange de visage » a permis aux chercheurs de placer le visage d’une femme habillée sur un corps seins nus, sans aucun déclencheur. Certains développeurs ont déclaré qu’ils ne savaient pas que leurs propres modèles d’IA (certains ont déclaré qu’ils utilisaient Grok de xAI) pourraient divulguer cette fonctionnalité, bien qu’ils aient promis de renforcer les contrôles internes.
Apple et Google profitent des revenus explicites des applications
Le développement économique de ces programmes reste important. Selon les données de la société d’analyse d’applications AppMagic, les applications liées au porno identifiées dans l’enquête ont été téléchargées 483 millions de fois et ont généré 122 millions de dollars de revenus au cours de leur durée de vie. Alors qu’Apple et Google prétendent souvent gagner 30 % de leurs revenus logiciels, les géants de la technologie sont critiqués pour avoir profité de logiciels qui violent leurs politiques de sécurité.
Des groupes de surveillance ont signalé que malgré la « suppression » de ces programmes de temps à autre, ils réapparaissent souvent sous des noms différents ou avec de fausses descriptions pour éviter d’être détectés. Ce cycle a soulevé des questions sur les performances des systèmes d’autosurveillance actuels face aux progrès de l’IA artificielle.
Apple fait face à des pressions sur la petite sécurité et le comptage des années
La principale préoccupation de ce rapport concerne les années accordées à ces appareils. TTP a identifié 31 programmes « nu*ify » jugés adaptés aux enfants, même si leur fonction principale est de créer des images pornographiques. Cela correspond au nombre de faux incidents sexuels signalés dans les écoles du monde entier.
Les régulateurs aux États-Unis et en Europe ont déjà commencé à faire pression sur les marchés de la téléphonie mobile pour qu’ils mettent en œuvre des mesures de sécurité plus strictes. Depuis jeudi, Apple et Google subissent une pression croissante pour passer de la suppression automatique à des processus automatisés pilotés par l’IA, capables de détecter l’intention d’une application avant qu’elle n’atteigne des centaines de millions d’utilisateurs.
(L’article ci-dessus est paru pour la première fois sur NEWLY le 16 avril 2026 à 13h40 IST. Pour plus d’informations et de mises à jour sur la politique, le monde, les sports, le divertissement et le style de vie, visitez notre site Web Latestly.com).