Dans un Maroc en pleine mutation numérique, où l’intelligence artificielle commence à jouer un rôle dans la gestion des ressources humaines, l’organisation du travail, le suivi des performances et même le recrutement, une menace sournoise émerge : celle d’une discrimination invisible, silencieuse, automatisée – en particulier à l’encontre des travailleurs engagés dans l’action syndicale ou la revendication collective.
Les premiers signaux sont déjà là. Certains salariés rapportent des changements soudains d’affectation ou de notation après avoir pris la parole sur des plateformes internes. Des systèmes d’évaluation automatisée – importés, non audités – peuvent intégrer des critères biaisés contre ceux jugés “trop revendicatifs”, “instables”, ou simplement “différents”. Dans un tel contexte, la technologie, si elle n’est pas encadrée, peut devenir un outil de répression algorithmique.
Le futur Code du travail marocain devra donc prévoir une clause explicite de protection contre les biais algorithmiques antisyndicaux, afin de garantir que nul travailleur ne puisse être sanctionné, discriminé, isolé ou exclu en raison de son engagement syndical ou de sa participation à une activité collective, y compris lorsque les outils utilisés relèvent de systèmes d’intelligence artificielle.
Cette protection s’appliquera à toute décision professionnelle fondée, même partiellement, sur un traitement automatisé de données : répartition des tâches, variation de la charge de travail, exclusion d’un projet, limitation d’accès à certaines primes ou évaluations. En cas de contestation, l’employeur devra prouver que la décision litigieuse n’a pas été influencée par des éléments relatifs à l’activité syndicale ou collective du salarié.
Par ailleurs, toute entreprise ou plateforme opérant au Maroc et utilisant des outils de scoring ou de profilage algorithmique devra soumettre ses systèmes à un audit annuel de neutralité sociale et syndicale, réalisé par une instance indépendante, en lien avec l’inspection du travail et les représentants du personnel.
Ce mécanisme vise à garantir que les systèmes technologiques ne deviennent pas les nouveaux relais du clientélisme, de la docilité obligatoire ou de la mise à l’écart discrète de ceux qui osent parler. Il affirme que l’égalité des droits ne peut pas être reléguée derrière des lignes de code opaques.
Dans une société marocaine où la liberté syndicale est un droit constitutionnel mais encore fragile dans la pratique, l’enjeu n’est pas seulement technique. Il est politique, éthique, civilisationnel. Il s’agit de rappeler qu’aucune machine, aussi performante soit-elle, ne peut légitimement servir à punir le courage.
Les premiers signaux sont déjà là. Certains salariés rapportent des changements soudains d’affectation ou de notation après avoir pris la parole sur des plateformes internes. Des systèmes d’évaluation automatisée – importés, non audités – peuvent intégrer des critères biaisés contre ceux jugés “trop revendicatifs”, “instables”, ou simplement “différents”. Dans un tel contexte, la technologie, si elle n’est pas encadrée, peut devenir un outil de répression algorithmique.
Le futur Code du travail marocain devra donc prévoir une clause explicite de protection contre les biais algorithmiques antisyndicaux, afin de garantir que nul travailleur ne puisse être sanctionné, discriminé, isolé ou exclu en raison de son engagement syndical ou de sa participation à une activité collective, y compris lorsque les outils utilisés relèvent de systèmes d’intelligence artificielle.
Cette protection s’appliquera à toute décision professionnelle fondée, même partiellement, sur un traitement automatisé de données : répartition des tâches, variation de la charge de travail, exclusion d’un projet, limitation d’accès à certaines primes ou évaluations. En cas de contestation, l’employeur devra prouver que la décision litigieuse n’a pas été influencée par des éléments relatifs à l’activité syndicale ou collective du salarié.
Par ailleurs, toute entreprise ou plateforme opérant au Maroc et utilisant des outils de scoring ou de profilage algorithmique devra soumettre ses systèmes à un audit annuel de neutralité sociale et syndicale, réalisé par une instance indépendante, en lien avec l’inspection du travail et les représentants du personnel.
Ce mécanisme vise à garantir que les systèmes technologiques ne deviennent pas les nouveaux relais du clientélisme, de la docilité obligatoire ou de la mise à l’écart discrète de ceux qui osent parler. Il affirme que l’égalité des droits ne peut pas être reléguée derrière des lignes de code opaques.
Dans une société marocaine où la liberté syndicale est un droit constitutionnel mais encore fragile dans la pratique, l’enjeu n’est pas seulement technique. Il est politique, éthique, civilisationnel. Il s’agit de rappeler qu’aucune machine, aussi performante soit-elle, ne peut légitimement servir à punir le courage.
Syndicaliste : L’avis de l’avocat du diable
« Je vois très bien la scène : le DRH entre dans la salle, dit "Ce n’est pas nous qui décidons, c’est l’algorithme". Et l’algorithme, évidemment, a baissé la note du seul syndicaliste de l’équipe. L’algorithme n’a pas de conscience. Il apprend de ce qu’on lui donne. Or, dans beaucoup d’entreprises marocaines, ce qu’on donne, c’est l’idée que les syndicalistes sont “turbulents”, “non-coopératifs”, “moins rentables”. Alors oui, cet article est nécessaire.
Mais soyons lucides : un audit annuel ne changera rien si on n’a pas le courage de suspendre immédiatement tout système algorithmique suspect. Le vrai combat, ce n’est pas d’intégrer les syndicalistes dans les modèles de données. C’est de rappeler que certaines décisions doivent rester humaines. Radicalement humaines. Parce qu’on ne délègue pas la démocratie à une machine. »
Mais soyons lucides : un audit annuel ne changera rien si on n’a pas le courage de suspendre immédiatement tout système algorithmique suspect. Le vrai combat, ce n’est pas d’intégrer les syndicalistes dans les modèles de données. C’est de rappeler que certaines décisions doivent rester humaines. Radicalement humaines. Parce qu’on ne délègue pas la démocratie à une machine. »