Intimité compromise : ce que voient vraiment les Ray-Ban Meta Display

Image d'illustration. Ray-Ban MetaMeta / PR-ADN
Meta fait face à des poursuites concernant la confidentialité de ses lunettes connectées. Découvrez les principales mesures à adopter immédiatement pour protéger vos données personnelles et limiter les risques liés à l’utilisation de ces objets intelligents au quotidien.
Tl;dr
- Des contractuels au Kenya visionnent certaines séquences capturées par les Ray-Ban Meta Display, y compris des moments très privés des utilisateurs.
- Les lunettes ne filment qu’à l’activation, mais chaque interaction avec l’IA peut transmettre des données vers Meta, utilisées pour entraîner les modèles.
- Les utilisateurs ne peuvent plus refuser le stockage des commandes vocales et doivent gérer eux-mêmes leurs paramètres pour protéger leur vie privée.
Quand la technologie connectée rattrape la vie privée
La confiance dans les objets connectés est à nouveau mise à l’épreuve, cette fois avec les Ray-Ban Meta Display. L’affaire a éclaté après une enquête conjointe de deux médias suédois, qui révèle que des contractuels basés à Nairobi, au Kenya, analysent des séquences capturées par ces fameuses lunettes intelligentes. Certaines images relèveraient de l’intimité la plus absolue : personnes en train de se changer, d’utiliser les toilettes ou encore scènes capturées dans des chambres à coucher. De quoi provoquer un véritable tollé parmi les utilisateurs et relancer le débat sur la frontière, parfois floue, entre innovation et surveillance.
Ce que voient réellement les sous-traitants
Si l’émotion est vive, il faut clarifier : non, les lunettes ne filment pas en permanence. L’activation du micro ou de la caméra ne se fait que sur action délibérée — pression sur un bouton ou commande vocale « Hey Meta ». Toutefois, chaque interaction avec l’assistant IA peut entraîner la transmission des données vers les serveurs de Meta. Et là où le bât blesse, c’est qu’en cas d’appel à l’IA (« Hey Meta, que vois-je ? »), certains extraits sont sélectionnés pour être visionnés par des « data annotators » humains chargés d’entraîner les modèles d’intelligence artificielle.
La liste des contenus passés sous leurs yeux glace parfois le sang :
- Scènes intimes (toilettes, changements de vêtements).
- Détails bancaires saisis lors de transactions.
- Contenus à caractère sexuel accidentellement enregistrés.
Un contractuel a ainsi confié : « Dans certaines vidéos on voit des gens aller aux toilettes ou se déshabiller. Je doute qu’ils sachent que quelqu’un visionne cela. »
Données vocales : aucune échappatoire possible ?
Depuis avril 2025, l’impossibilité de refuser le stockage cloud des interactions vocales a été actée par une modification de politique interne. Désormais, toute commande vocale adressée à l’IA est automatiquement conservée jusqu’à un an pour « améliorer ses produits », selon Meta. L’effacement manuel reste possible mais aucun opt-out global n’existe plus.
Mieux comprendre… et agir malgré tout
Loin du sensationnalisme, quelques réflexes permettent toutefois de limiter son exposition :
- Examiner attentivement ses paramètres de confidentialité via l’application dédiée.
- Désactiver le déclenchement vocal « Hey Meta » si inutile.
- Éviter d’utiliser l’assistant IA dans des contextes privés.
- S’assurer que les lunettes sont éteintes hors usage.
Meta reconnaît implicitement ces pratiques dans ses conditions générales mais reste discrète sur la localisation et le profil réel des examinateurs humains. Au fond, cette affaire symbolise un dilemme contemporain : jusqu’où accepterons-nous que nos vies soient scrutées au nom du progrès technologique ? Les utilisateurs sont priés de choisir, en connaissance de cause, entre confort quotidien et préservation d’une intimité fragile face à la toute-puissance algorithmique.