L’alignement réglementaire
L’idée est simple : les responsabilités liées à l’intelligence artificielle ne peuvent être définies correctement que si toutes les couches du système sont alignées juridiquement, techniquement, humainement, organisationnellement et politiquement.
L’algorithme n’est pas le logiciel
Le programme informatique, lui, n’est que la traduction de cette logique dans un langage de programmation.
Cette distinction est fondamentale car derrière tout LLM existent des hypothèses, des modèles mathématiques, des critères statistiques, des arbitrages cognitifs et une certaine vision du monde.
Autrement dit : un LLM transporte toujours les choix intellectuels de ses concepteurs.
Le code n’est jamais neutre
Une logique théoriquement pertinente peut devenir dangereuse à cause d’un mauvais développement, d’un manque de contrôle, d’une absence de supervision ou d’une architecture logicielle mal conçue.
Le code n’est donc jamais neutre. Une erreur logicielle dans un LLM peut produire des hallucinations graves, des manipulations cognitives, des décisions erronées ou des recommandations dangereuses.
L’infrastructure invisible
Une dépendance totale à des infrastructures étrangères pose donc un problème majeur de souveraineté cognitive et réglementaire.
Le fournisseur reste responsable
La fourniture d’un LLM devrait obligatoirement inclure une documentation complète, des protocoles d’utilisation, des scénarios de risque, des mécanismes de supervision, des procédures d’audit, des obligations de formation et des mécanismes de traçabilité.
Choisir une IA est un acte politique
Le responsable politique, administratif ou stratégique qui décide d’intégrer un LLM dans une administration, une banque, une école, un hôpital, une entreprise publique ou une plateforme nationale porte donc une responsabilité stratégique majeure.
Pour Wald Maâlam, les responsables politiques, quel que soit leur niveau de responsabilité, doivent assumer pleinement leurs choix technologiques et stratégiques. Ils doivent également assumer les conséquences de ces choix, les architectures institutionnelles qu’ils construisent, les dépendances qu’ils créent, les infrastructures matérielles et logicielles qu’ils retiennent, ainsi que les impacts économiques, sécuritaires et sociétaux qui en découlent.
Choisir un LLM sans comprendre son fonctionnement, ses limites, ses risques, ses implications géopolitiques ou ses impacts sur la souveraineté numérique constitue déjà une faute de gouvernance.
L’organisation devient co-responsable
Avant tout déploiement d’IA, une organisation devrait disposer d’une gouvernance IA, d’une cartographie des risques, d’un protocole de supervision, d’un responsable IA identifié et d’un mécanisme clair de responsabilité.
L’utilisateur ne peut être laissé seul
C’est pourquoi une véritable culture de l’intelligence artificielle devient aujourd’hui indispensable.
Gouverner, c’est mesurer
Or, on ne peut pas gouverner ce que l’on ne mesure pas. L’alignement réglementaire doit donc être traduit en indicateurs simples, tableaux de bord compréhensibles, mécanismes d’évaluation accessibles et référentiels adaptés aux réalités marocaines.
Wald Maâlam propose ainsi la création progressive d’un Indice Marocain d’Alignement Réglementaire de l’IA décliné au niveau national, régional, sectoriel et organisationnel.
Une doctrine marocaine devient nécessaire
Cette prise de conscience montre que le Royaume ne considère plus l’IA uniquement comme une question technologique, mais également comme un enjeu de souveraineté, de gouvernance, de sécurité, de compétitivité et de transformation sociétale.
Mais la véritable difficulté ne résidera pas uniquement dans la rédaction d’une loi. Elle résidera surtout dans la capacité à construire une vision systémique cohérente, des institutions compétentes, des mécanismes d’évaluation simples et une culture collective de responsabilité autour de l’IA. Car une réglementation efficace de l’intelligence artificielle ne peut être uniquement juridique.
Elle doit être simultanément technologique, organisationnelle, humaine, éducative, économique et politique. C’est précisément cette cohérence globale que Wald Maâlam désigne par l’alignement réglementaire de l’intelligence artificielle.
Par Dr Az-Eddine Bennani.












L'accueil




L’expertise dans un monde en mutation : de l’accumulation de l’expérience et la création de valeur stratégique










