L'ODJ Média

IA, LLM et responsabilité : le Maroc face au défi réglementaire

La proposition d’alignement réglementaire de Wald Maâlam


Par Dr Az-Eddine Bennani.

Depuis l’apparition des grands modèles de langage (LLM), une question devient centrale dans le débat mondial autour de l’intelligence artificielle : qui est responsable lorsqu’un système d’IA provoque un dommage grave ?

La réponse paraît simple lorsqu’on reste dans une lecture classique du droit ou de la technologie. On cherche alors un responsable unique : le fournisseur du système, l’utilisateur, l’entreprise qui l’exploite ou encore le développeur.

Mais cette approche devient insuffisante dès lors que l’on comprend ce qu’est réellement un système d’intelligence artificielle moderne.

Dans la vision développée depuis plusieurs années autour du paradigme systémique, de l’entreprise intelligente et de l’alignement stratégique, un LLM n’est jamais un simple logiciel autonome. Il constitue un assemblage complexe de décisions humaines, scientifiques, techniques, économiques, organisationnelles et politiques.

Autrement dit : un LLM ne pense pas seul, ne décide pas seul et n’agit jamais seul.

Derrière chaque réponse générée, chaque recommandation, chaque hallucination ou chaque dommage, il existe toujours une logique algorithmique, une traduction logicielle, une infrastructure matérielle, un modèle économique, une chaîne décisionnelle, une gouvernance et des choix politiques.



L’alignement réglementaire

C’est précisément pour cette raison que Wald Maâlam propose aujourd’hui d’introduire un nouveau concept adapté aux réalités de l’intelligence artificielle : l’alignement réglementaire.

L’idée est simple : les responsabilités liées à l’intelligence artificielle ne peuvent être définies correctement que si toutes les couches du système sont alignées juridiquement, techniquement, humainement, organisationnellement et politiquement.

L’algorithme n’est pas le logiciel

Wald Maâlam insiste depuis longtemps sur une distinction fondamentale souvent oubliée dans le débat public : un algorithme n’est pas un programme informatique. L’algorithme correspond à une manière de penser, une logique de raisonnement, une méthode de résolution d’un problème.

Le programme informatique, lui, n’est que la traduction de cette logique dans un langage de programmation.

Cette distinction est fondamentale car derrière tout LLM existent des hypothèses, des modèles mathématiques, des critères statistiques, des arbitrages cognitifs et une certaine vision du monde.

Autrement dit : un LLM transporte toujours les choix intellectuels de ses concepteurs.

Le code n’est jamais neutre

Entre l’algorithme théorique et le LLM opérationnel existe une étape essentielle : le code. Cette phase transforme une logique abstraite en système capable d’agir dans le monde réel.

Une logique théoriquement pertinente peut devenir dangereuse à cause d’un mauvais développement, d’un manque de contrôle, d’une absence de supervision ou d’une architecture logicielle mal conçue.

Le code n’est donc jamais neutre. Une erreur logicielle dans un LLM peut produire des hallucinations graves, des manipulations cognitives, des décisions erronées ou des recommandations dangereuses.

L’infrastructure invisible

Un LLM dépend de centres de données, de GPU, de clouds, de réseaux, d’architectures logicielles et de systèmes de cybersécurité. Dans l’approche systémique défendue par Wald Maâlam, l’infrastructure fait partie intégrante de l’intelligence artificielle.

Une dépendance totale à des infrastructures étrangères pose donc un problème majeur de souveraineté cognitive et réglementaire.

Le fournisseur reste responsable

Pour Wald Maâlam, une entreprise qui fournit un LLM reste responsable même lorsqu’elle livre son code source ou accorde une licence d’exploitation. Pourquoi ? Parce qu’elle connaît mieux que quiconque les limites du modèle, ses vulnérabilités, ses biais, ses risques et ses dépendances techniques.

La fourniture d’un LLM devrait obligatoirement inclure une documentation complète, des protocoles d’utilisation, des scénarios de risque, des mécanismes de supervision, des procédures d’audit, des obligations de formation et des mécanismes de traçabilité.

Choisir une IA est un acte politique

Dans la logique de l’alignement réglementaire, choisir une technologie est déjà une décision politique.

Le responsable politique, administratif ou stratégique qui décide d’intégrer un LLM dans une administration, une banque, une école, un hôpital, une entreprise publique ou une plateforme nationale porte donc une responsabilité stratégique majeure.

Pour Wald Maâlam, les responsables politiques, quel que soit leur niveau de responsabilité, doivent assumer pleinement leurs choix technologiques et stratégiques. Ils doivent également assumer les conséquences de ces choix, les architectures institutionnelles qu’ils construisent, les dépendances qu’ils créent, les infrastructures matérielles et logicielles qu’ils retiennent, ainsi que les impacts économiques, sécuritaires et sociétaux qui en découlent.

Choisir un LLM sans comprendre son fonctionnement, ses limites, ses risques, ses implications géopolitiques ou ses impacts sur la souveraineté numérique constitue déjà une faute de gouvernance.

L’organisation devient co-responsable

Toute entreprise ou administration qui déploie un LLM devient également co-responsable. Elle choisit les usages autorisés, les niveaux d’automatisation, les procédures de validation humaine, les mécanismes de contrôle et les politiques de sécurité.

Avant tout déploiement d’IA, une organisation devrait disposer d’une gouvernance IA, d’une cartographie des risques, d’un protocole de supervision, d’un responsable IA identifié et d’un mécanisme clair de responsabilité.

L’utilisateur ne peut être laissé seul

L’utilisateur final porte lui aussi une part de responsabilité. Mais cette responsabilité dépend de son niveau de formation, de sa compréhension du système, du contexte d’usage et du niveau d’information fourni par les autres acteurs.

C’est pourquoi une véritable culture de l’intelligence artificielle devient aujourd’hui indispensable.

Gouverner, c’est mesurer

Le Maroc ne doit pas seulement produire des lois autour de l’intelligence artificielle. Il doit surtout construire une véritable capacité nationale et régionale de pilotage, d’évaluation et de supervision de l’IA.

Or, on ne peut pas gouverner ce que l’on ne mesure pas. L’alignement réglementaire doit donc être traduit en indicateurs simples, tableaux de bord compréhensibles, mécanismes d’évaluation accessibles et référentiels adaptés aux réalités marocaines.

Wald Maâlam propose ainsi la création progressive d’un Indice Marocain d’Alignement Réglementaire de l’IA décliné au niveau national, régional, sectoriel et organisationnel.

Une doctrine marocaine devient nécessaire

Dans cette dynamique, il convient également de saluer l’effort engagé par le Maroc pour se doter progressivement d’un cadre réglementaire et institutionnel capable de mieux cerner les enjeux liés à l’intelligence artificielle.

Cette prise de conscience montre que le Royaume ne considère plus l’IA uniquement comme une question technologique, mais également comme un enjeu de souveraineté, de gouvernance, de sécurité, de compétitivité et de transformation sociétale.

Mais la véritable difficulté ne résidera pas uniquement dans la rédaction d’une loi. Elle résidera surtout dans la capacité à construire une vision systémique cohérente, des institutions compétentes, des mécanismes d’évaluation simples et une culture collective de responsabilité autour de l’IA. Car une réglementation efficace de l’intelligence artificielle ne peut être uniquement juridique.

Elle doit être simultanément technologique, organisationnelle, humaine, éducative, économique et politique. C’est précisément cette cohérence globale que Wald Maâlam désigne par l’alignement réglementaire de l’intelligence artificielle.

Par Dr Az-Eddine Bennani.


Jeudi 7 Mai 2026