Intelligence artificielle et humanités : une clarification épistémologique


Par Dr Az-Eddine Bennani

Depuis novembre 2022, et l’irruption massive dans l’espace public de certaines solutions d’intelligence artificielle, en particulier les modèles de langage de grande taille, une question s’est progressivement imposée dans les discours académiques, médiatiques et intellectuels : peut-on parler d’une épistémologie partagée entre l’humain et l’algorithme ?



Cette formulation appelle d’emblée une rectification conceptuelle essentielle.

Le terme « algorithme » est impropre dans ce débat. Un algorithme n’est pas une entité autonome, ni un sujet de connaissance. Il désigne une manière humaine de penser et de résoudre des problèmes selon une méthode précise, structurée et finie. L’algorithme relève donc du registre de la rationalité humaine, bien avant toute implémentation technique.

Il convient dès lors de reformuler correctement la question : peut-on parler d’une épistémologie partagée entre l’humain et un modèle de langage de grande taille (LLM) ?

L’épistémologie est la discipline qui interroge les conditions de production des connaissances : les cadres intellectuels dans lesquels elles émergent, les méthodes par lesquelles elles sont construites, les critères selon lesquels elles sont validées, ainsi que les valeurs, les finalités et les contextes culturels, sociaux et historiques qui les traversent.

Elle ne se limite pas à ce que l’on sait, mais s’attache à comprendre comment, pourquoi et par qui le savoir est produit.

Dans le prolongement de cette diffusion massive des LLM, certains discours académiques et médiatiques tendent désormais à leur attribuer un statut épistémique implicite, suggérant qu’ils participeraient à la production du savoir ou à sa co-construction avec l’humain.

Cette glissade sémantique, souvent non explicitée, alimente l’idée d’une « épistémologie des LLM » ou d’un partage de l’acte de connaître entre l’humain et la machine.

Une telle lecture appelle une clarification rigoureuse.

Il n’existe pas d’épistémologie des LLM. Toute épistémologie est humaine. Elle est située, historiquement construite, culturellement ancrée, puis traduite, de manière nécessairement partielle et orientée, en dispositifs techniques.

Un LLM n’est pas un sujet de connaissance. Il ne comprend pas, n’intentionnalise pas et ne problématise pas.

Il opère par inférences statistiques sur des corpus produits par des humains, dans des contextes économiques, sociaux, politiques et culturels déterminés. Son fonctionnement repose sur l’exécution de modèles mathématiques implémentés par du code de langage informatique.

L’intelligence artificielle, et en particulier les LLM, constitue une technologie de médiation cognitive.

Elle modifie les conditions d’accès au savoir, accélère certaines opérations intellectuelles et transforme les pratiques éducatives et médicales, mais elle ne participe pas à l’acte de connaître.

Attribuer à un LLM une capacité épistémique revient à anthropomorphiser la technique et à masquer la responsabilité humaine. Toute production d’un LLM résulte de choix humains : choix des données, des architectures, des objectifs d’optimisation et des critères d’évaluation.

Il ne peut exister d’épistémologie partagée entre l’humain et un LLM. Il n’existe qu’une épistémologie humaine, située et responsable, dont les LLM ne sont que des traductions techniques, jamais des sujets.

Par Dr Az-Eddine Bennani


Lundi 2 Février 2026

Dans la même rubrique :