Suite aux déclarations du CEO de Mistral : pourquoi je suis en total désaccord


Par Dr Az-Eddine Bennani

À la suite des récentes déclarations d’Arthur Mensch, CEO de Mistral AI, affirmant que l’open source constituerait la condition essentielle de la souveraineté en intelligence artificielle — jusqu’à comparer l’IA à l’électricité ou à l’eau — je souhaite, par cette tribune, expliquer clairement pourquoi je suis en total désaccord avec cette lecture.

Ce désaccord n’est ni idéologique ni polémique. Il est conceptuel, systémique et stratégique. Il repose sur une distinction fondamentale entre algorithme, code open source, solution logicielle et système d’intelligence artificielle opérationnel.



​Ne pas confondre open source, algorithme et système

Un logiciel open source, y compris un modèle d’IA performant, n’est qu’une suite d’instructions écrites dans un langage informatique, le plus souvent Python. Ces instructions traduisent un algorithme, c’est-à-dire une manière de penser formalisée.

Mais un algorithme, même open source, ne s’exécute jamais seul. Il ne contrôle ni le matériel, ni les couches logicielles basses, ni les réseaux, ni les conditions réelles d’exploitation. Le code open source n’est qu’une couche parmi d’autres, et non un système.

Pourquoi l’analogie avec l’électricité ne tient pas ?

Comparer l’intelligence artificielle à l’électricité est séduisant mais trompeur. L’électricité est neutre et indifférente au sens. L’IA, au contraire, encode des choix cognitifs, reflète une épistémologie et intègre implicitement des valeurs et des biais.

L’IA repose sur un empilement de couches hétérogènes, techniques, industrielles et géopolitiques. Elle n’est pas un fluide, mais un système socio-technique complexe.

​La réalité du système IA : une dépendance multi-couches

La proposition de Mistral AI est remarquable sur le plan logiciel. Mais l’open source des modèles ne maîtrise pas le système dans lequel ils s’exécutent.

Un système d’IA repose sur des composants matériels majoritairement étrangers, des firmwares propriétaires, des systèmes d’exploitation dépendants d’architectures fermées, des bibliothèques bas niveau et des infrastructures cloud sous juridictions étrangères.

Un acteur situé dans une couche inférieure peut interrompre le fonctionnement d’une solution d’IA sans jamais toucher au code du modèle.

Où s’exerce réellement le pouvoir ?

Le pouvoir ne se situe pas dans le code visible. Il s’exerce dans l’accès aux ressources de calcul, les couches non applicatives, les réseaux, les normes techniques et les régimes de dépendance industrielle.

​Le verrouillage n’est pas uniquement logiciel. Il est systémique.

Open source : utile mais insuffisant

L’open source permet l’audit, l’apprentissage et l’adaptation. Mais il ne garantit ni l’autonomie opérationnelle, ni la résilience, ni la souveraineté stratégique.
La souveraineté en intelligence artificielle ne peut être que systémique.

Elle suppose une vision d’architecture complète, une capacité industrielle réelle, des compétences locales et une gouvernance cohérente de l’ensemble des couches du système.

L’intelligence artificielle ne peut pas être pensée comme l’électricité. Elle est un système complexe multi-couches, et seule une souveraineté systémique peut être réelle.

Par Dr Az-Eddine Bennani


Vendredi 30 Janvier 2026

Dans la même rubrique :