Mon échange avec un modèle illustre de manière frappante cette limite fondamentale.
Or, ce mot contient bien trois « r », ce qui est facilement vérifiable en le parcourant caractère par caractère.
Malgré cela, le modèle se trompe et affirme qu’il n’y en a que deux. Autrement dit, même face à une situation explicite, construite et contrôlée, il échoue à produire un résultat exact.
Cette erreur montre qu’il ne procède pas à un véritable comptage, mais qu’il génère une réponse plausible sans vérification. Ce que cet exemple met en lumière, c’est une réalité fondamentale : un LLM ne sait pas compter.
Et plus largement, il ne comprend pas ce qu’il dit. Pourquoi ? Parce qu’un LLM ne raisonne pas au sens humain du terme. Il ne manipule pas des concepts, mais des probabilités. Il ne “voit” pas les lettres comme nous les voyons.
Il ne parcourt pas un mot caractère par caractère pour en faire le décompte. Il prédit simplement la réponse la plus probable à partir de millions d’exemples similaires.
Autrement dit, il ne compte pas. Il devine.
Dans un système classique, compter le nombre de lettres « r » dans un mot est une tâche triviale. Elle repose sur un algorithme explicite : parcourir chaque caractère et incrémenter un compteur.
Cette logique est déterministe, vérifiable, reproductible. Dans un LLM, cette logique n’existe pas. Le modèle n’a pas été conçu pour compter, mais pour produire du langage fluide. Il n’exécute pas une procédure. Il génère une réponse. Et c’est là que réside le cœur du problème : nous utilisons des systèmes probabilistes pour des tâches qui nécessitent du raisonnement exact.
Wald Maâlam dirait ici quelque chose de très simple : « Ce n’est pas parce qu’un apprenti parle bien qu’il sait travailler. » Dans l’artisanat, le geste compte. La précision compte. La répétabilité compte.
Un maître artisan ne “devine” pas la mesure d’un tissu. Il la vérifie. Il la contrôle. Il la garantit. À l’inverse, le LLM produit une illusion de maîtrise. Il parle avec assurance, même lorsqu’il se trompe.
Et plus il est fluide, plus l’erreur est difficile à détecter. Ce phénomène est dangereux, en particulier dans des contextes critiques : éducation, santé, droit, décision publique. Une erreur de comptage est bénigne.
Une erreur d’interprétation peut l’être beaucoup moins. Mais cette preuve a une autre vertu essentielle : elle permet de sortir de la peur.
Depuis novembre 2022, une narration s’est imposée : celle d’une intelligence artificielle capable de remplacer l’humain, portée par un discours marketing puissant, parfois anxiogène, souvent amplifié. Cette peur a été un moteur d’adoption, mais aussi un facteur de confusion.
Or, comprendre qu’un LLM ne sait même pas compter permet de remettre les choses à leur place. Non, il ne vous remplacera pas.
Mais il faut les remettre à leur juste place. Un LLM est un outil remarquable pour : générer du texte, reformuler, synthétiser, assister la créativité. Mais il n’est pas un système de vérité. Il n’est pas un système de raisonnement fiable.
Et surtout, il n’est pas une intelligence au sens humain du terme. L’erreur de comptage présentée ici n’est pas un bug isolé. Elle est le symptôme d’une architecture.
Et cette architecture nous rappelle une chose essentielle : l’intelligence ne se réduit pas à la parole. Dans le paradigme de Wald Maâlam, la tête (la pensée) précède la main (l’exécution).
Aujourd’hui, avec les LLM, nous avons des “mains qui parlent”, mais sans véritable tête. Il est temps de sortir de l’illusion. L’enjeu n’est pas de croire que l’IA pense. L’enjeu est de comprendre comment elle fonctionne, pour mieux l’utiliser, sans jamais lui déléguer ce qui relève de notre propre intelligence.
Car au fond, la vraie question n’est pas : « L’IA est-elle intelligente ? » Mais plutôt : « Sommes-nous encore capables de penser par nous-mêmes face à une machine qui parle si bien ? »
Pour conclure, Wald Maâlam recommande l’utilisation des modèles proposés sur le marché, sans aucune crainte, à condition de bien comprendre leurs limites et de choisir le plus approprié en fonction de la tâche que l’on souhaite réaliser.
Par Dr Az-Eddine Bennani.












L'accueil




Sahara : l’Europe confirme le tournant réaliste en faveur du cadre marocain










