
Temps de lecture : 2 min
Points clés à retenir
- Surveillance massive : Meta collecte les frappes clavier, clics et mouvements de souris de ses employés américains via l’outil MCI pour entraîner des agents IA à réaliser des tâches complexes comme naviguer dans des menus.
- Passage à l’action : L’objectif est de former des agents capables de reproduire des flux de travail humains entiers, et non plus seulement des tâches isolées. Les employés deviendraient superviseurs de ces agents.
- Risques réels : Confidentialité, conformité RGPD, sécurité des données sensibles, et risque de biais si les employés modifient leur comportement en se sachant observés. Une affaire à suivre de près par les DSI.
Une pratique qui interroge
On va être honnête : quand on entend que Meta surveille les clics, les mouvements de souris et les frappes au clavier de ses propres employés, ça interpelle. Ce n’est pas une rumeur : Reuters a révélé que la firme de Mark Zuckerberg prévoit d’utiliser un outil interne appelé MCI (Mode Capability Initiative) pour collecter ces données sur ses employés américains. L’objectif ? Nourrir les futurs agents IA avec des données comportementales réelles, afin qu’ils apprennent à imiter les interactions humaines avec les logiciels.
Ce qui compte vraiment au quotidien, c’est de comprendre ce que ça signifie pour les entreprises, surtout en France et en Europe alors que le RGPD impose des garde-fous. On va voir ça pas à pas.
Pourquoi Meta le fait ?
Dans la vraie vie (pas sur LinkedIn), les grandes entreprises IT accumulent des données utilisateurs depuis des années pour améliorer leurs IA. Ici, l’originalité, c’est que la collecte se fait en interne, sur les postes de travail des employés. Selon des notes internes citées par Reuters, MCI capture des actions comme la navigation dans des menus déroulants ou l’utilisation de raccourcis clavier. Ce sont des comportements que les modèles d’IA ont encore du mal à reproduire.
Meta a précisé que les données ne serviront pas pour les évaluations de performance, mais uniquement pour l’entraînement des LLM. L’objectif à terme : que les agents IA puissent effectuer « l’essentiel du travail », les employés devenant superviseurs. Le CTO Andrew Bosworth a même rebaptisé le projet « Agent Transformation Accelerator ».
Ce que j’ai appris à la dure, c’est que ce type d’initiative n’est jamais anodin. Chez mes clients, j’ai vu combien la confiance est un actif précieux. La collecte de données comportementales, même à des fins techniques, peut fissurer cette confiance si elle n’est pas transparente.
Les vrais risques pour les entreprises
Parlons des vrais problèmes, pas des promesses marketing. Pour les DSI et les dirigeants de TPE/PME, cette pratique ouvre une boîte de Pandore :
- Non-conformité RGPD : En Europe, la capture des frappes clavier et de l’activité écran est interdite sans consentement explicite. Certains pays l’interdisent même en milieu professionnel. Une PME qui suivrait ce modèle sans cadre juridique solide risquerait des amendes lourdes.
- Sécurité des données : Ces jeux de données d’entraînement contiennent des identifiants, des adresses IP, des flux de travail sensibles. Ce sont des cibles de choix pour les attaquants. Regardons les chiffres : selon le dernier rapport Verizon, 20% des fuites de données proviennent d’attaques internes. Ajouter une couche de collecte de données comportementales, c’est multiplier les risques.
- Effet Hawthorne : Quand les employés se savent observés, leur comportement change. Cela signifie que les données collectées ne reflètent pas le travail réel, mais un comportement « conforme » à l’observation. Les IA entraînées sur ces données risquent d’être biaisées.
Ce qu’on ne vous dit jamais, c’est que même Meta a reconnu que les données collectées pour l’entraînement IA pourraient un jour être réutilisées pour évaluer la productivité. Drôle de manière de rassurer ses équipes.
Leçons pour les dirigeants
On va couper le bullshit. Meta est un géant, mais les principes de gouvernance des données s’appliquent à toutes les entreprises, quelle que soit leur taille. Si vous envisagez de collecter des données comportementales pour former des IA, voici ce que je recommande à mes clients :
- Cadre légal solide : Consultez un avocat spécialisé en RGPD avant de lancer toute collecte. Vérifiez les législations locales, notamment en France où la CNIL est très stricte.
- Transparence absolue : Expliquez aux équipes exactement ce qui est collecté, pourquoi, et comment les données seront utilisées. Pas de surprise
- Séparer l’IA de l’évaluation : Ne jamais utiliser les données de performance IA pour évaluer les employés. Un contrat de confiance est aussi important qu’un contrat juridique.
En conclusion, la démarche de Meta est révélatrice d’une tendance lourde : intégrer l’IA au cœur des processus de travail. Mais pour une TPE ou une PME, mieux vaut avancer avec prudence plutôt que de brûler sa trésorerie dans des outils mal calibrés. Ce qui compte vraiment, c’est de construire une pratique durable, pas de suivre les modes.

Neuf ans à piloter une PME de 45 personnes, à tester des outils, à faire des erreurs — et à en tirer les leçons que personne ne publie. Aujourd’hui, je vous épargne les détours inutiles.
