Meta Platforms fait l’objet d’une surveillance accrue après l’annulation d’un contrat majeur avec le fournisseur de services Sama, peu de temps après que des travailleurs kenyans ont déclaré avoir été exposés à du harcèlement sexuel alors qu’ils entraînaient des systèmes d’IA connectés aux lunettes intelligentes de Meta.
La polémique a débuté en février lorsque des employés de Sama ont déclaré aux médias suédois Svenska Dagbladet et Göteborgs-Posten avoir examiné des images troublantes prises par des utilisateurs de lunettes IA de Meta. Selon leurs récits, ces éléments incluaient des moments privés tels que des personnes utilisant les toilettes et ayant des relations sexuelles, soulevant de sérieuses inquiétudes quant à la vie privée des utilisateurs et au bien-être du personnel. Vous utilisez des lunettes méta intelligentes ? Les entrepreneurs forment un rapport sur l’IA pour voir les utilisateurs sauter, se déshabiller même en ayant des relations sexuelles.
“Nous voyons de tout, des salons aux corps nus”, explique un employé.
Moins de deux mois après les révélations, Meta a résilié son contrat avec Sama, ce qui, selon l’entreprise, entraînerait la suppression de 1 108 emplois. Meta a déclaré que la décision était basée sur l’incapacité de Sama à atteindre ses objectifs, bien qu’il n’ait pas donné de détails. Sama est fortement en désaccord avec cette affirmation, affirmant qu’elle répond à tous les critères d’utilité, de sécurité et de qualité. Meta peut lire les messages WhatsApp même au niveau du point final ; L’entreprise rejette ces allégations, les qualifiant de « travail trompeur ».
“Sama répond aux normes de performance, de sécurité et élevées que nous exigeons pour toutes nos transactions, y compris Meta”, a déclaré la société. “Nous n’avons jamais été informés d’un non-respect de ces normes, et nous garantissons la qualité et l’intégrité de notre travail.”
Cependant, les groupes de défense des droits syndicaux au Kenya remettent en question les affirmations de Meta. Le Mouvement africain des travailleurs de la technologie a déclaré que la résiliation du contrat pourrait être conforme au fait que les travailleurs s’exprimeraient sur leurs conditions de travail et sur ce qu’on leur a demandé de revoir.
Naftali Wambalo, du Mouvement africain des travailleurs de la technologie, a déclaré que ce problème dépasserait les normes d’emploi. “Je pense que la politique dont ils parlent ici, c’est la vie privée”, a-t-il déclaré à BBC News.
Meta n’a pas fait de commentaire à ce sujet mais a répété qu'”elle a décidé de mettre fin à notre travail avec M. Sama parce qu’ils ne répondent pas à nos attentes”.
La controverse a également attiré l’attention des régulateurs. Le bureau du commissaire à l’information du Royaume-Uni a qualifié ces rapports de “préoccupants” et a contacté Meta pour obtenir des éclaircissements. Parallèlement, le Commissariat à la protection des données a ouvert une enquête sur la violation de la vie privée liée à l’utilisation de lunettes intelligentes.
Meta a reconnu que les censeurs humains peuvent parfois surveiller les données collectées par ses outils, mais uniquement si les utilisateurs les partagent avec Meta AI et y consentent. La société affirme également que de tels examens sont une pratique courante pour améliorer les performances de l’IA et l’expérience utilisateur.
“Les photos et les vidéos sont privées pour les utilisateurs. Les humains examinent le contenu dans l’IA pour améliorer les performances, pour lequel nous obtenons le consentement exprès des utilisateurs”, a déclaré un porte-parole de Meta.
Les lunettes intelligentes, développées en collaboration avec des marques telles que Ray-Ban et Oakley, incluent des fonctionnalités telles que la traduction en temps réel et la prise en charge de l’IA. Bien que ces innovations aient été conçues pour améliorer l’accessibilité, en particulier pour les utilisateurs malvoyants, elles ont également soulevé des inquiétudes quant à leur utilisation abusive et à leur surveillance.
Dans un cas signalé, un appareil a continué à enregistrer silencieusement, capturant l’image d’une femme se déshabillant à son insu. Bien que les lunettes soient équipées d’un détecteur d’enregistrement, les critiques affirment que cette protection est insuffisante pour empêcher un enregistrement non autorisé.
Cela a conduit à un débat sur l’éducation à l’IA et le coût humain du progrès technologique. Sama, qui était auparavant connu pour son intérêt pour la création de projets techniques, a été critiqué dans le passé pour le travail de gestion associé à Meta, certains employés signalant une exposition à des substances dangereuses.
Les experts juridiques et les militants préviennent que cet incident met en évidence les problèmes structurels de l’écosystème d’externalisation de l’IA. Mercy Mutemi, avocate et directrice d’Oversight Lab, a déclaré que cette question aurait dû être soulevée hier.
“On nous a dit que c’était notre point d’entrée dans l’écosystème de l’IA”, a-t-il déclaré. “Il s’agit d’une base très faible sur laquelle bâtir l’ensemble de votre entreprise.”
Alors que les recherches se poursuivent, le débat sur la méta-IA souligne le besoin urgent de garanties solides en matière de confidentialité des données, de sécurité des employés et de transparence dans le développement de l’IA.
(L’histoire ci-dessus a été publiée pour la première fois récemment le 30 avril 2026 à 18h36 IST. Pour plus d’informations et de mises à jour sur la politique, le monde, les sports, le divertissement et le style de vie, visitez notre site Web Latestly.com).