Formulé dès les années 1980 dans le contexte de l’informatisation des organisations, le paradoxe de la productivité désigne une situation dans laquelle les investissements technologiques importants ne se traduisent pas par des gains de performance mesurables.
Ce paradoxe, que j’ai étudié dès le début des années 1990 et analysé dans ma thèse soutenue en 1998, notamment à travers la complexité des systèmes d’information, trouve aujourd’hui une résonance nouvelle dans le champ de l’intelligence artificielle appliquée à la recherche scientifique.
Dans le contexte doctoral, ce paradoxe prend une forme particulière.
Mais cette augmentation de la production formelle ne garantit en rien une amélioration de la qualité scientifique.
Au contraire, elle peut masquer une fragilisation des processus cognitifs qui fondent la recherche. Le doctorat n’est pas une activité de production textuelle.
Il est un processus de transformation intellectuelle, qui suppose la construction d’une problématique originale, l’élaboration d’un cadre théorique, la confrontation critique aux travaux existants et la production d’une contribution scientifique.
Ces dimensions relèvent d’une activité cognitive profonde, lente, incertaine et souvent inconfortable.
Or, l’intelligence artificielle tend à réduire cet inconfort en proposant des réponses rapides, cohérentes et bien formulées, au risque de court-circuiter les étapes essentielles de la réflexion.
Les travaux récents sur l’intelligence artificielle en recherche scientifique confirment cette tension.
Mais elle introduit également des biais importants : homogénéisation des discours, reproduction des paradigmes dominants, faiblesse de la traçabilité des sources et risque d’hallucinations.
Dans ce contexte, le doctorant peut produire un texte scientifiquement acceptable en apparence, mais pauvre en termes de contribution réelle.
C’est ici que le paradoxe de la productivité prend toute sa dimension.
L’IA augmente la productivité apparente, mesurée en termes de volume et de rapidité, tout en risquant de diminuer la productivité réelle, entendue comme la capacité à produire une connaissance originale, rigoureuse et pertinente.
Autrement dit, plus le doctorant produit, moins il apprend potentiellement à penser.
Dans le contexte marocain, cette problématique est accentuée par des facteurs structurels.
Les doctorants évoluent ainsi dans un espace d’expérimentation non régulé, où l’appropriation des outils dépend davantage des initiatives individuelles que d’une stratégie institutionnelle.
Cette situation crée une double asymétrie. D’une part, entre doctorants, selon leur capacité à maîtriser les outils d’IA.
D’autre part, entre doctorants et encadrants, ces derniers n’ayant pas toujours les moyens de détecter ou d’évaluer l’usage de ces technologies.
Il en résulte un risque de désalignement entre les exigences académiques affichées et les pratiques réelles.
Au-delà des questions de plagiat ou d’intégrité scientifique, le véritable enjeu est celui de la souveraineté cognitive.
La dépendance technologique se double alors d’une dépendance épistémologique.
Dans mes travaux récents sur le paradoxe de la productivité appliqué à la recherche doctorale à l’ère de l’intelligence artificielle, j’ai montré que la clé ne réside pas dans l’adoption ou le rejet de l’IA, mais dans son intégration stratégique.
Cela suppose de repenser le dispositif doctoral autour de trois principes.
Le premier est celui de la transparence.
L’usage de l’intelligence artificielle doit être explicitement déclaré, documenté et encadré. Il ne s’agit pas de surveiller, mais de responsabiliser. Le doctorant doit pouvoir expliquer comment et pourquoi il utilise ces outils. Le second est celui de l’augmentation cognitive.
L’IA doit être utilisée pour enrichir la réflexion, et non pour la remplacer.
Elle peut aider à explorer des pistes, à comparer des approches, à structurer un raisonnement, mais elle ne doit jamais se substituer au travail de conceptualisation. Le troisième est celui de la formation.
Les écoles doctorales doivent intégrer des modules dédiés à l’usage critique de l’IA, incluant ses limites, ses biais et ses implications éthiques. Il ne s’agit pas seulement de former à des outils, mais de former à une posture scientifique.
C’est dans cette perspective que la figure du Wald Maâlam peut servir de modèle.
Il les met au service d’un savoir-faire construit dans le temps.
Appliquée à la recherche doctorale, cette approche invite à concevoir une intelligence artificielle frugale, située et responsable. Une IA qui accompagne le chercheur sans le déposséder de sa capacité à penser.
Une IA qui s’inscrit dans un projet de souveraineté cognitive, où la production de connaissances reste ancrée dans les contextes locaux.
L’enjeu pour le Maroc n’est pas seulement d’intégrer l’intelligence artificielle dans ses universités.
Faute de quoi, l’IA pourrait transformer les doctorants en producteurs efficaces de textes standardisés, au détriment de la créativité scientifique et de la pensée critique.
Le véritable défi n’est donc pas technologique. Il est épistémologique et politique. Il consiste à préserver la capacité de penser dans un monde où les machines produisent du texte.
C’est à cette condition que l’intelligence artificielle pourra devenir un levier de transformation scientifique, et non un facteur de fragilisation.
Par Dr Az-Eddine Bennani.












L'accueil




Nizar Baraka : l’offensive pour la souveraineté hydrique dans les provinces du Sud










