Alors que les algorithmes prennent une place croissante dans les décisions liées à l’embauche, aux affectations, à l’évaluation ou à la gestion des carrières, une zone grise persiste dans le droit marocain : qui est responsable quand une machine décide à tort ? Lorsqu’un salarié est licencié sur la base d’un score calculé par un modèle opaque, lorsqu’un candidat est écarté pour des raisons automatisées qu’il ne comprend pas, ou lorsqu’un profil est catégorisé comme « à risque » sans explication, la question de la responsabilité humaine se dérobe derrière la technologie.
C’est pourquoi il est urgent que le futur Code du travail introduise une clause de responsabilité sociale algorithmique, applicable à toute entreprise, administration ou plateforme recourant à des systèmes d’intelligence artificielle pour prendre des décisions concernant des personnes.
Cette clause établirait trois principes essentiels :
1. La traçabilité : toute décision influencée ou prise par un système algorithmique dans le champ des relations professionnelles devra pouvoir être retracée, justifiée et archivée pendant une période d’au moins deux ans.
2. La supervision humaine obligatoire : aucune décision affectant négativement un salarié (mutation, rétrogradation, sanction, licenciement) ne pourra être prise de manière totalement automatisée. Elle devra faire l’objet d’une validation explicite par une personne physique clairement identifiée.
3. La responsabilité assumée : en cas de dommage causé par une décision algorithmique erronée ou injuste, la responsabilité incombera à l’entité qui a mis en œuvre ou délégué cette décision, qu’elle soit l’employeur direct ou un prestataire technologique.
Par ailleurs, les entreprises de plus de 100 salariés seront tenues de désigner un référent en éthique algorithmique chargé de veiller à la conformité des systèmes utilisés avec les principes de non-discrimination, de respect de la dignité et de loyauté dans les relations professionnelles. Ce référent pourra être saisi par les salariés, les représentants du personnel ou les syndicats.
Cette clause vise à garantir que le progrès technologique ne devienne pas un alibi pour l’irresponsabilité managériale. Dans une économie marocaine où les rapports de force restent souvent déséquilibrés, l’algorithme peut devenir une arme silencieuse, sauf si la loi réaffirme clairement que derrière chaque machine, il doit y avoir un humain, et derrière chaque décision, une responsabilité.
C’est pourquoi il est urgent que le futur Code du travail introduise une clause de responsabilité sociale algorithmique, applicable à toute entreprise, administration ou plateforme recourant à des systèmes d’intelligence artificielle pour prendre des décisions concernant des personnes.
Cette clause établirait trois principes essentiels :
1. La traçabilité : toute décision influencée ou prise par un système algorithmique dans le champ des relations professionnelles devra pouvoir être retracée, justifiée et archivée pendant une période d’au moins deux ans.
2. La supervision humaine obligatoire : aucune décision affectant négativement un salarié (mutation, rétrogradation, sanction, licenciement) ne pourra être prise de manière totalement automatisée. Elle devra faire l’objet d’une validation explicite par une personne physique clairement identifiée.
3. La responsabilité assumée : en cas de dommage causé par une décision algorithmique erronée ou injuste, la responsabilité incombera à l’entité qui a mis en œuvre ou délégué cette décision, qu’elle soit l’employeur direct ou un prestataire technologique.
Par ailleurs, les entreprises de plus de 100 salariés seront tenues de désigner un référent en éthique algorithmique chargé de veiller à la conformité des systèmes utilisés avec les principes de non-discrimination, de respect de la dignité et de loyauté dans les relations professionnelles. Ce référent pourra être saisi par les salariés, les représentants du personnel ou les syndicats.
Cette clause vise à garantir que le progrès technologique ne devienne pas un alibi pour l’irresponsabilité managériale. Dans une économie marocaine où les rapports de force restent souvent déséquilibrés, l’algorithme peut devenir une arme silencieuse, sauf si la loi réaffirme clairement que derrière chaque machine, il doit y avoir un humain, et derrière chaque décision, une responsabilité.
Syndicaliste pour l’avis de l’avocat du diable
« C’est sans doute le plus important des articles proposés, et pourtant, c’est peut-être le plus fragile. Pourquoi ? Parce qu’il repose sur un mirage : croire qu’on peut tracer ce qui est, par nature, obscur. Les algorithmes les plus utilisés au Maroc sont importés, propriétaires, non documentés. Les responsables RH eux-mêmes ne comprennent pas toujours les résultats qu’ils exploitent. Alors dire qu’on va tout retracer, c’est comme demander à un aveugle de décrire un tableau abstrait. Et puis cette ‘supervision humaine’ ? Elle sera bien souvent une formalité : un clic de validation, sans analyse réelle. Enfin, la responsabilité ? Dans les faits, elle s’évaporera entre l’éditeur du logiciel, le sous-traitant IT, le chef de projet RH… et le salarié, lui, restera seul face à la machine. Ce qu’il nous faut, ce n’est pas une clause de responsabilité. C’est une clause d’interdiction partielle : certains domaines – la discipline, les sanctions, les licenciements – doivent rester **interdits aux décisions algorithmiques. Point final. »