Là où l’on parle souvent d’information, Wald Maâlam apporte une précision essentielle :
Elle est captée, stockée, accumulée. Elle existe sans interprétation. Une température, une position, un clic, une image, une suite de caractères : tout cela relève de la donnée. Elle ne dit rien par elle-même.
L’information, elle, est une mise en forme de la donnée.
Elle naît lorsque la donnée est structurée, organisée, présentée selon une logique donnée. Mais cette mise en forme ne suffit pas en elle-même. Son interprétation ne peut se faire que par l’humain, dans un contexte bien défini, en tenant compte des dimensions spatiale et temporelle.
Une même donnée mise en forme peut produire des informations différentes selon le lieu, le moment et la situation dans laquelle elle est analysée. C’est précisément cette capacité d’interprétation située qui donne du sens à l’information.
La connaissance va plus loin encore.
Là où la donnée est matière, et l’information mise en forme, la connaissance est appropriation.
Confondre ces trois niveaux, c’est entretenir une illusion majeure : croire que l’accumulation de données produit automatiquement de la connaissance.
C’est précisément cette confusion qui brouille aujourd’hui une grande partie des discours sur l’intelligence artificielle. Avec l’intelligence artificielle, la capacité à traiter des données change d’échelle.
Les systèmes manipulent des volumes considérables de données, identifient des corrélations, produisent des résultats. Mais traiter de la donnée ne signifie pas produire de la connaissance. Corréler n’est pas comprendre.
C’est là que se situe le point de clarification essentiel. Tous les modèles LLM (Large Language Models), quels que soient leurs concepteurs et producteurs — américains, chinois, européens, africains ou autres — travaillent principalement sur des données et sur des formes d’information construites à partir de ces données.
Ils excellent dans la détection de régularités, dans la reproduction de structures, dans la génération de contenus plausibles.
Mais ils ne produisent pas de connaissance au sens humain du terme. Ils ne comprennent pas ce qu’ils manipulent. Parler de l’intelligence artificielle sans distinguer ces niveaux revient à attribuer aux systèmes des capacités qu’ils n’ont pas.
Cela alimente des attentes irréalistes, mais aussi des craintes mal posées. Un modèle LLM qui traite des données n’est pas un système qui sait. Un modèle LLM qui génère du texte n’est pas un système qui comprend.
Comprendre la différence entre donnée, information et connaissance permet de remettre chaque chose à sa place.
Dans la tradition artisanale, le Maâlam est celui qui pense, qui conçoit et qui donne du sens. Les outils prolongent sa main, mais ne remplacent jamais sa tête. Ils exécutent, mais ne comprennent pas. Les technologies actuelles, aussi puissantes soient-elles, restent des outils.
Elles peuvent amplifier notre capacité à traiter des données et à produire de l’information. Elles ne remplacent pas notre capacité à produire de la connaissance. Télécharger une technologie est facile. Comprendre ce qu’elle fait réellement est plus exigeant.
C’est pourtant cette exigence qui permet de parler juste de l’intelligence artificielle. Wald Maâlam nous le rappelle avec simplicité : la tête doit rester au-dessus de la main.
Par Dr Az-Eddine Bennani.












L'accueil




Maroc à deux vitesses : l’heure de vérité territoriale










