Selon ce rapport (« Hype Cycle for Generative AI », Gartner, 2025), les technologies d’IA générative amorcent leur descente dans ce que Gartner appelle le trough of disillusionment.
Autrement dit, après une phase d’excitation excessive, les organisations découvrent progressivement les limites concrètes de ces systèmes : difficultés d’industrialisation, absence de retour sur investissement clair, dépendance aux données, et complexité de mise en œuvre.
Ce constat, largement partagé aujourd’hui par les praticiens, ne constitue pas une surprise.
Il correspond précisément à ce que Wald Maâlam observe depuis le début de cette vague technologique : ce que l’on appelle « intelligence artificielle » n’est pas une intelligence, mais un dispositif technique capable de produire des réponses plausibles à partir de corrélations statistiques. Le Hype Cycle, en ce sens, ne fait que formaliser une confusion initiale.
L’erreur fondatrice a consisté à attribuer à ces systèmes une capacité de compréhension du monde qu’ils ne possèdent pas.
Les modèles génératifs ne comprennent ni les situations, ni les contextes, ni les intentions. Ils manipulent des probabilités sur des chaînes de caractères. Leur performance apparente relève de la fluidité linguistique, non de l’intelligence.
Ce constat, largement partagé aujourd’hui par les praticiens, ne constitue pas une surprise.
Il correspond précisément à ce que Wald Maâlam observe depuis le début de cette vague technologique : ce que l’on appelle « intelligence artificielle » n’est pas une intelligence, mais un dispositif technique capable de produire des réponses plausibles à partir de corrélations statistiques. Le Hype Cycle, en ce sens, ne fait que formaliser une confusion initiale.
L’erreur fondatrice a consisté à attribuer à ces systèmes une capacité de compréhension du monde qu’ils ne possèdent pas.
Les modèles génératifs ne comprennent ni les situations, ni les contextes, ni les intentions. Ils manipulent des probabilités sur des chaînes de caractères. Leur performance apparente relève de la fluidité linguistique, non de l’intelligence.
C’est précisément dans cette confusion que s’est construite la phase de surestimation.
Les entreprises ont projeté sur ces outils des attentes démesurées : automatisation de la décision, transformation radicale de la productivité, voire remplacement de fonctions humaines complexes.
Le passage actuel vers la désillusion marque la confrontation entre ces projections et la réalité des systèmes. Cette situation rappelle, de manière frappante, le paradoxe de productivité formulé par Robert Solow : « On voit des ordinateurs partout, sauf dans les statistiques de productivité ».
L’IA générative reproduit aujourd’hui ce phénomène à une échelle amplifiée. L’investissement est massif, l’usage est réel, mais l’impact structurel reste difficile à démontrer.
Le passage actuel vers la désillusion marque la confrontation entre ces projections et la réalité des systèmes. Cette situation rappelle, de manière frappante, le paradoxe de productivité formulé par Robert Solow : « On voit des ordinateurs partout, sauf dans les statistiques de productivité ».
L’IA générative reproduit aujourd’hui ce phénomène à une échelle amplifiée. L’investissement est massif, l’usage est réel, mais l’impact structurel reste difficile à démontrer.
Dans la lecture de Wald Maâlam, cette désillusion n’est pas un échec.
Elle est une étape nécessaire. Elle oblige à déplacer le regard. Le sujet n’est plus la performance des modèles, mais la capacité des organisations à les intégrer dans des systèmes cohérents.
Ce déplacement est d’ailleurs explicitement confirmé par Gartner lui-même, qui met désormais l’accent sur des notions telles que l’AI engineering, la gouvernance des données et les architectures d’intégration. Autrement dit, l’intelligence artificielle ne se joue pas dans les modèles, mais dans les systèmes.
Cette distinction est fondamentale. Un algorithme est une manière de penser, une logique de raisonnement. Un programme n’est que la traduction technique de cette logique.
Or, dans le cas des modèles génératifs, la logique sous-jacente reste largement exogène aux contextes dans lesquels ils sont déployés. Utiliser ces outils sans les recontextualiser revient à importer des modes de raisonnement étrangers, avec leurs biais et leurs limites. C’est ici que la question de la souveraineté devient centrale.
Le Hype Cycle ne parle pas directement de souveraineté cognitive, mais il en révèle implicitement les enjeux. Lorsque les organisations constatent que les résultats ne sont pas à la hauteur des attentes, elles découvrent en réalité qu’elles ne maîtrisent ni les données, ni les modèles, ni les logiques qui les structurent.
Ce déplacement est d’ailleurs explicitement confirmé par Gartner lui-même, qui met désormais l’accent sur des notions telles que l’AI engineering, la gouvernance des données et les architectures d’intégration. Autrement dit, l’intelligence artificielle ne se joue pas dans les modèles, mais dans les systèmes.
Cette distinction est fondamentale. Un algorithme est une manière de penser, une logique de raisonnement. Un programme n’est que la traduction technique de cette logique.
Or, dans le cas des modèles génératifs, la logique sous-jacente reste largement exogène aux contextes dans lesquels ils sont déployés. Utiliser ces outils sans les recontextualiser revient à importer des modes de raisonnement étrangers, avec leurs biais et leurs limites. C’est ici que la question de la souveraineté devient centrale.
Le Hype Cycle ne parle pas directement de souveraineté cognitive, mais il en révèle implicitement les enjeux. Lorsque les organisations constatent que les résultats ne sont pas à la hauteur des attentes, elles découvrent en réalité qu’elles ne maîtrisent ni les données, ni les modèles, ni les logiques qui les structurent.
La désillusion est donc aussi une prise de conscience.
Elle ouvre la voie à une approche plus sobre, plus systémique et plus responsable de l’IA. Une approche que Wald Maâlam qualifie d’IA frugale et située : une intelligence conçue non comme une abstraction universelle, mais comme un outil inscrit dans un contexte, au service d’un besoin précis, gouverné par des acteurs identifiés.
Dans cette perspective, le Hype Cycle de Gartner ne doit pas être lu comme une simple courbe d’adoption technologique. Il constitue un révélateur. Il montre que l’essentiel ne réside pas dans la montée ou la descente d’une technologie, mais dans la manière dont les sociétés se représentent cette technologie.
Ce que révèle la phase actuelle est sans ambiguïté : l’intelligence artificielle, en tant qu’entité autonome et pensante, n’existe pas. Ce qui existe, ce sont des systèmes complexes, puissants, utiles parfois, mais profondément dépendants de ceux qui les conçoivent, les alimentent et les gouvernent.
La véritable question n’est donc pas de savoir jusqu’où ira l’intelligence artificielle, mais jusqu’où nous serons capables de penser les systèmes dans lesquels nous l’inscrivons. Le Hype Cycle marque la fin d’un récit. Il ouvre, peut-être, le début d’une maturité.
Par Dr Az-Eddine Bennani.
Dans cette perspective, le Hype Cycle de Gartner ne doit pas être lu comme une simple courbe d’adoption technologique. Il constitue un révélateur. Il montre que l’essentiel ne réside pas dans la montée ou la descente d’une technologie, mais dans la manière dont les sociétés se représentent cette technologie.
Ce que révèle la phase actuelle est sans ambiguïté : l’intelligence artificielle, en tant qu’entité autonome et pensante, n’existe pas. Ce qui existe, ce sont des systèmes complexes, puissants, utiles parfois, mais profondément dépendants de ceux qui les conçoivent, les alimentent et les gouvernent.
La véritable question n’est donc pas de savoir jusqu’où ira l’intelligence artificielle, mais jusqu’où nous serons capables de penser les systèmes dans lesquels nous l’inscrivons. Le Hype Cycle marque la fin d’un récit. Il ouvre, peut-être, le début d’une maturité.
Par Dr Az-Eddine Bennani.
