La France et l’AI Act : une organisation anticipée
- DGCCRF : coordination opérationnelle, surveillance des pratiques interdites et obligations de transparence.
- DGE : coordination stratégique et représentation de la France auprès du Comité IA européen.
- CNIL : protection des données, biométrie, notation sociale et systèmes d’IA à haut risque.
- Arcom : contrôle des contenus générés par IA.
- ANSSI et Peren : expertise technique et conformité.
- Autorités sectorielles (santé, éducation, emploi, finance, infrastructures critiques) : encadrement spécifique.
Cette architecture sectorisée illustre la volonté de traduire l’AI Act en une gouvernance opérationnelle claire. Elle repose sur une logique de « silos coordonnés », où chaque institution régule son champ, mais dans un cadre global.
Analyse critique : promesses et angles morts
1. La fragmentation du pilotage : multiplier les autorités, c’est risquer la confusion et les doublons si la coordination n’est pas fluide.
2. L’asymétrie des moyens : des autorités comme la CNIL ou la DGCCRF, déjà fragilisées, devront absorber une charge inédite de contrôles IA. Sans renforts, la régulation restera partielle, voire illusoire.
3. L’absence d’une culture partagée : une IA de confiance ne se construit pas seulement par des interdictions mais par l’éducation, l’acculturation et l’inclusion de tous les acteurs (entreprises, chercheurs, citoyens).
La conclusion de mon collègue Alain est claire : la France a fait le pari de l’expertise plutôt que de la centralisation, mais ce choix ne sera viable qu’avec des moyens renforcés, une coordination agile et surtout la création d’une culture collective de l’IA responsable.
Le Maroc : un dispositif éclaté mais prometteur
- CNDP : données personnelles.
- HACA : médias et deepfakes.
- DGSSI : cybersécurité et souveraineté numérique.
- Bank Al-Maghrib et AMMC : finance et scoring IA.
- Santé / ANAM : e-santé et dispositifs médicaux.
- Éducation / OFPPT : formation, emploi et IA éducative.
- Intérieur / DGSN : sécurité et reconnaissance faciale.
- ADD : stratégie numérique et projets IA.
Mais ces institutions opèrent encore en parallèle, sans cadre intégré ni coordination systémique.
L’approche systémique : un levier stratégique pour le Maroc
Souveraineté, inclusion et transformation systémique, la régulation de l’IA doit être pensée comme un système intégré, et non comme une simple addition d’acteurs.
Exemple 1 : Santé numérique et données patients
- CNDP encadre la protection des données patients.
- DGSSI garantit la sécurité des infrastructures hospitalières.
- Clusters et universités (MedinIA, UM6P, AUI…) apportent expertise scientifique.
- Patients participent via le consentement éclairé.
Résultat : un écosystème de confiance qui dépasse la seule logique ministérielle.
Exemple 2 : Éducation et IA générative
- CNDP protège les données des élèves.
- HACA contrôle les usages abusifs (deepfakes, plagiats).
- Universités conçoivent des outils pédagogiques.
- Parents et enseignants participent à des chartes éthiques.
L’école devient un laboratoire d’acculturation à l’IA responsable.
Exemple 3 : Reconnaissance faciale et sécurité publique
- Intérieur/DGSN pilote la sécurité.
- CNDP fixe les limites biométriques.
- DGSSI valide la souveraineté des systèmes.
- Universités et société civile analysent les biais et impacts sur les libertés.
La technologie est utilisée dans un cadre transparent et démocratique.
Conclusion : un chemin partagé
Comme le rappelle mon collègue Alain, la véritable question n’est pas seulement « qui contrôle quoi », mais « comment faire vivre l’IA de confiance au quotidien ».
C’est en construisant une culture collective, en dotant les institutions de moyens réels et en adoptant une approche systémique que la régulation pourra devenir un véritable levier stratégique de souveraineté, d’inclusion et de transformation.
Par Dr Az-Eddine Bennani












L'accueil




Experts et Anciens Ministres à Nouakchott : vers l’éveil de la conscience maghrébine !












