Wald Maâlam – L’IA n’est pas une marque : halte à l’imposture


Par Dr Az-Eddine Bennani.

Aujourd’hui, il suffit d’utiliser une intelligence artificielle pour se prétendre expert de l’intelligence artificielle.
C’est faux. Et il devient urgent de le dire.

Depuis deux ans, Wald Maâlam parcourt conférences, événements, workshops, panels et rencontres académiques et professionnelles consacrés à l’intelligence artificielle. Partout, le même spectacle se répète.

Le sigle « IA » est devenu une étiquette. Un label que l’on colle à tout : projets, formations, politiques publiques, discours d’entreprise, appels d’offres, stratégies institutionnelles, événements et programmes de formation. On le brandit comme une preuve de modernité. On le monétise comme un argument de vente. On s’en réclame parfois comme d’une paternité.

Hier, l’intelligence artificielle était un champ exigeant de la science informatique. Aujourd’hui, elle est souvent réduite à un slogan, à un effet d’annonce, à une interface facile à utiliser pour ceux qui disposent déjà des codes du savoir codifié.

Il faut le dire sans détour : ce qui se joue aujourd’hui n’est pas seulement une révolution technologique. C’est aussi une inflation d’auto-proclamations.



Une génération d’experts sans fondations

Jamais il n’a été aussi facile de se dire spécialiste de l’intelligence artificielle. Il suffit d’ouvrir ChatGPT, Gemini, Claude, Grok, DeepSeek, Copilot ou d’autres solutions disponibles sur le marché, de produire quelques réponses, de reformuler quelques textes, et l’illusion est complète.

L’outil donne le sentiment de comprendre. Mais ce sentiment est trompeur. Produire du texte donne l’impression de penser. Interagir avec une interface donne l’impression de maîtriser.

Obtenir une réponse rapide donne l’impression d’avoir acquis une compétence. Mais l’impression n’est pas la compréhension. Utiliser une interface ne fait pas de vous un spécialiste.

Utiliser un LLM ne fait pas de vous un spécialiste de l’IA, comme utiliser un ERP ne fait pas de vous un spécialiste des systèmes d’information. Sinon, il faudrait aussi admettre qu’utiliser Excel fait de vous un économiste, qu’utiliser un scalpel fait de vous un chirurgien, ou qu’utiliser un logiciel de dessin fait de vous un architecte. Personne de sérieux n’accepterait ces absurdités dans d’autres domaines. Pourtant, pour l’IA, cette confusion s’est installée au niveau national comme international. Elle est d’autant plus dangereuse qu’elle se présente sous les habits de la modernité, de l’innovation et de l’efficacité.

Ceux qui ne connaissent pas le parcours de Wald Maâlam se trompent

Ceux qui ne connaissent pas le parcours de Wald Maâlam peuvent penser qu’il appartient à cette vague récente. Ils se trompent. Dès 1981, Wald Maâlam obtient un DEA en intelligence artificielle à Paris.

Dès 1982, Hewlett-Packard le recrute pour concevoir et développer un système intelligent en EAO, enseignement assisté par ordinateur, à une époque où l’IA relevait encore d’un champ avancé de recherche et non d’un usage grand public.

MBA obtenu aux États-Unis en 1991, docteur en économie à la Sorbonne en 1998, habilité à diriger des recherches en sciences de gestion à Toulouse en 2005, Wald Maâlam a construit un parcours à la croisée de l’informatique, des systèmes d’information, de l’économie, du management, de la stratégie et de la transformation numérique.

Wald Maâlam a également participé au développement du Minitel, bien avant l’arrivée d’Internet, dans un temps où l’interactivité numérique n’était pas encore banalisée et où l’on devait penser les systèmes avant de prétendre les utiliser.

À cette époque, comprendre n’était pas une option. Il ne suffisait pas de cliquer, de dialoguer avec une interface ou de demander à une machine de produire un résultat. Il fallait connaître les architectures, les langages, les contraintes, les mémoires, les réseaux, les systèmes, les processus et leurs limites.

C’était bien avant l’introduction massive des systèmes interactifs et de l’informatique personnelle, qui ont donné à beaucoup l’illusion que l’usage suffisait à fonder l’expertise.

Wald Maâlam a aussi été parmi les premiers à travailler sur les questions linguistiques en informatique, en particulier sur la place de la langue arabe, largement oubliée à la naissance de la science informatique, structurée autour d’autres systèmes linguistiques et d’autres standards.

Cette question n’était pas secondaire.

Elle montrait déjà que l’informatique n’était pas neutre. Les standards techniques portent des visions du monde, des langues, des cultures, des rapports de puissance et des exclusions invisibles.

Inscrire la connaissance informatique dans la société

Depuis le début des années 1990, l’objectif de Wald Maâlam est clair : inscrire la connaissance et la pratique informatique dans un environnement économique, social, organisationnel et territorial.

C’est dans cette perspective que Wald Maâlam a introduit le terme de « paradigme numérique » dans sa thèse de doctorat à la Sorbonne, avant de développer cette réflexion dans un ouvrage consacré au phénomène numérique dès 2010.

L’intelligence artificielle ne constitue donc pas, dans son parcours, une rupture soudaine.

Elle est l’expression actuelle d’un mouvement beaucoup plus profond : celui de l’informatisation, de la numérisation, de la modélisation et de la transformation des organisations par les systèmes.

Ce que beaucoup découvrent aujourd’hui sous l’effet médiatique des interfaces conversationnelles appartient à une histoire longue, faite de recherche, d’ingénierie, de modélisation, de promesses, de désillusions, de retours et de transformations.

L’IA : une science, pas un slogan

Il est temps de rappeler une évidence : l’intelligence artificielle n’est pas une invention récente, ni une mode née avec ChatGPT.

C’est un champ de la science informatique. Elle s’inscrit dans une histoire longue, de Turing à la conférence de Dartmouth, des systèmes symboliques aux systèmes experts, des hivers de l’IA au machine learning, du deep learning aux modèles génératifs actuels.

Cette histoire montre que l’IA avance par cycles : périodes d’enthousiasme, promesses excessives, désillusions, relances technologiques, nouvelles applications. Le problème n’est donc pas l’existence de l’IA. Le problème est l’oubli de son histoire, de ses fondements et de ses limites.

La présentation de Wald Maâlam à l’UM6P de Benguerir rappelait précisément cette trajectoire : l’IA n’est pas isolée ; elle appartient à la science informatique et s’articule aux organisations, aux territoires, aux métiers, aux politiques publiques et aux choix de société.

L’histoire scientifique de l’IA ne commence pas avec les interfaces conversationnelles.

Elle passe par la logique, le calcul, les algorithmes, les structures de données, les architectures, les bases de données, les réseaux, la cybersécurité, la vision, le traitement du langage, la robotique et les systèmes d’aide à la décision.

Réduire cette histoire à une interface, aussi performante soit-elle, revient à confondre l’océan avec l’écran qui l’affiche.

De Turing à l’IA générative : une histoire longue

Avant même l’ordinateur moderne, l’humanité a rêvé de machines capables de raisonner, de calculer, de simuler certaines fonctions intellectuelles.

Avec Turing, une question devient centrale : une machine peut-elle penser ?

En 1956, la conférence de Dartmouth donne naissance officiellement au champ de l’intelligence artificielle.

Les décennies suivantes voient se développer l’IA symbolique, les premiers programmes de résolution de problèmes, les systèmes experts, puis des périodes de désillusion lorsque les promesses dépassent les capacités réelles des systèmes. Les années 1980 voient l’essor des systèmes experts en entreprise.

Puis viennent les hivers de l’IA, les budgets coupés, les promesses non tenues, les attentes déçues.

Dans les années 2000, l’explosion des données et la puissance de calcul relancent le machine learning et le deep learning. Images, voix, traduction, véhicules autonomes, prédiction, optimisation : les applications se multiplient.

Avec l’IA générative, l’IA devient visible, accessible, conversationnelle. Elle produit du texte, de l’image, du son, du code, de la vidéo. Mais cette visibilité ne doit pas masquer la complexité des systèmes qui la rendent possible.

L’illusion de la facilité

La première illusion contemporaine est celle de la facilité. Une interface fluide, une conversation naturelle, une réponse instantanée : tout semble simple. Mais cette simplicité est conditionnée.

Elle suppose la maîtrise d’une langue, le plus souvent étrangère, et de préférence l’anglais dans sa forme dominante, souvent américaine. Elle suppose aussi un accès préalable au savoir codifié, à l’école, à l’écriture, à la formalisation et aux codes implicites de la connaissance.

Ce que l’on appelle « facilité d’usage » est donc en réalité un privilège cognitif, social, culturel et linguistique.

Pour ceux qui ont eu accès à ces ressources, interroger une IA paraît naturel. Pour les autres, cette interface peut devenir une barrière invisible. Le discours dominant masque cette réalité.

Il présente l’IA comme accessible à tous, alors que son usage pertinent exige déjà des capacités de formulation, de critique, de vérification, de structuration et de contextualisation.

Une interface peut être simple en apparence et profondément inégalitaire dans ses conditions réelles d’usage.

L’illusion de la compétence

La seconde illusion est celle de la compétence. Produire du texte serait comprendre. Obtenir une réponse serait maîtriser. Reformuler avec élégance serait penser. C’est faux. L’outil ne fait pas le métier. Le Maâlam le sait mieux que quiconque. L’aiguille ne fait pas le couturier.

Le pinceau ne fait pas le peintre. L’interface ne fait pas l’expert. On ne devient pas spécialiste de l’IA parce qu’un outil devient accessible.

On le devient en comprenant les modèles, les algorithmes, les architectures, les données, les biais, les limites, les conditions d’usage, les implications juridiques, économiques, sociales, linguistiques et culturelles.

La compétence ne réside pas dans la capacité à produire rapidement une réponse. Elle réside dans la capacité à comprendre ce que cette réponse vaut, d’où elle vient, ce qu’elle oublie, ce qu’elle déforme, ce qu’elle masque et ce qu’elle rend possible.

L’hallucination conceptuelle et logique

Wald Maâlam utilise quotidiennement les différentes solutions d’IA proposées sur le marché. Mais il ne les utilise pas comme simple consommateur. Il les mobilise comme objet de recherche appliquée.

En les confrontant à la conception de systèmes numériques, même simples, il découvre chaque jour leurs failles. Non seulement leurs erreurs de langage ou d’image, mais surtout leurs incohérences de raisonnement.

C’est ainsi qu’il a mis le doigt sur un phénomène encore trop peu discuté : l’hallucination conceptuelle et logique.

Les pseudo-observateurs continuent souvent à évoquer uniquement l’hallucination linguistique ou visuelle. Ils signalent une phrase fausse, une image incorrecte, une référence inventée.

Mais le problème le plus grave est ailleurs. Il réside dans des raisonnements incohérents, des enchaînements conceptuels erronés, des structures logiques instables, une incapacité à maintenir une cohérence systémique dans la durée.

Autrement dit, le problème n’est pas seulement ce que l’IA dit. Le problème est la manière dont elle organise, désorganise ou simule la pensée. Une IA peut produire un texte apparemment clair tout en reposant sur une architecture conceptuelle fragile.

Elle peut donner une réponse séduisante tout en construisant un raisonnement faux. C’est précisément là que l’utilisateur non formé devient vulnérable.

La difficulté n’est donc pas uniquement de vérifier les mots. Elle est de vérifier les concepts, les relations, les dépendances, les hypothèses et les enchaînements.

Impacts sur les organisations : productivité, décision, travail

L’IA transforme déjà les organisations. Elle agit sur la productivité, l’automatisation, la décision, le pilotage, la relation client, les métiers, les compétences et les processus.

Elle permet d’automatiser certaines tâches : tri documentaire, emails, reporting, planification, assistance à la rédaction, analyse de données.

Elle peut optimiser la supply chain, la maintenance prédictive, la gestion des stocks ou le suivi des risques. Elle peut aussi servir de copilote de décision en analysant des masses de données, en produisant des scénarios, en détectant des fraudes ou en proposant des scores de risque.

Mais Wald Maâlam rappelle une règle fondamentale : l’IA propose, l’humain décide. La transformation du travail ne peut pas être abandonnée aux seules plateformes. Elle implique des choix organisationnels, éthiques, juridiques et sociaux.

Elle exige de penser les nouveaux métiers, les workflows centrés sur les données, le co-pilotage humain-IA, les biais, la transparence et la souveraineté des données.

IA des géants contre IA des territoires

Le vrai enjeu n’est pas seulement technique. Il est stratégique, politique et civilisationnel.

Dans sa présentation à l’UM6P, Wald Maâlam a posé une distinction centrale : l’IA des géants contre l’IA des territoires.

L’IA des géants est centralisée, énergivore, dépendante de plateformes globales, structurée par des intérêts industriels et géopolitiques puissants.

Elle impose ses modèles, ses langues, ses architectures, ses normes, ses dépendances. L’IA des territoires, au contraire, doit être frugale, située, ancrée dans les réalités locales, les métiers, les langues, les cultures, les besoins concrets des citoyens, des PME, des administrations et des collectivités.

La question n’est donc pas seulement : que peut faire l’IA ?

La vraie question est : qui la contrôle, selon quels modèles, dans quelles langues, avec quelles finalités, et au service de qui ? L’IA des géants promet l’échelle globale. L’IA des territoires cherche l’utilité locale. L’une peut produire la dépendance.

L’autre peut construire la capacité locale. Le Maroc, l’Afrique et le Sud global ne doivent pas seulement consommer des modèles. Ils doivent penser leurs propres usages, leurs propres priorités, leurs propres infrastructures, leurs propres langues, leurs propres souverainetés.

L’intelligence du Maâlam Wald Maâlam propose une autre ligne.

Une intelligence située, incarnée, frugale, responsable.

Le Maâlam apprend à faire juste, sans gaspiller. Il transmet par le geste, par l’exemple, par la répétition, par l’attention à la matière.

Son intelligence n’est pas abstraite. Elle est située dans un corps, un atelier, une communauté, une mémoire, un territoire. Cette intelligence n’est pas opposée à l’IA. Elle lui rappelle simplement ce qui lui manque : le sens, la responsabilité, l’ancrage, la transmission.

Une IA sans sens devient dépendance.

Une IA avec sens peut devenir souveraineté. De l’aiguille à l’IA, Wald Maâlam ne cherche pas à opposer l’artisanat et la technologie. Il cherche à montrer que l’intelligence véritable ne se réduit jamais au calcul. Elle suppose une finalité, une responsabilité, une mémoire et une relation au réel.

Exemples d’IA frugale et territoriale :

Dans cette perspective, l’IA frugale et territoriale peut prendre des formes très concrètes : réutiliser la chaleur des données pour chauffer des hammams, imaginer des cabines de santé intelligentes dans les douze régions, concevoir des assistants souverains pour les PME, les administrations et les collectivités.

Ces exemples ne relèvent pas d’un folklore technologique. Ils posent une question stratégique : comment faire de l’IA un outil d’innovation, d’inclusion et de transformation réellement utile aux territoires ? Il ne s’agit pas de refuser l’IA des grands modèles.

Il s’agit de refuser que cette IA soit la seule voie possible. Il faut penser une troisième voie : frugale, située, souveraine, responsable et adaptée aux réalités concrètes.

Une plateforme comme laboratoire vivant

Cette approche ne reste pas théorique. Elle s’incarne dans la plateforme développée par Wald Maâlam : https://oiamma.netlify.app/ Cette plateforme n’est pas une simple vitrine. Elle constitue un laboratoire vivant, un espace expérimental et éditorial où l’IA est testée, observée, confrontée, analysée.

Elle permet de réfléchir aux usages réels, aux limites des outils, aux conditions de gouvernance, aux enjeux de souveraineté, aux risques d’illusion et aux formes possibles d’une IA plus frugale, plus responsable et plus située.

Elle prolonge une conviction : la critique de l’IA n’a de valeur que si elle s’appuie sur l’usage, l’expérimentation et la confrontation avec le réel.

Une frontière non négociable :

Il n’y a aucune honte à utiliser l’intelligence artificielle. La honte serait ailleurs : dans l’illusion d’expertise, dans la délégation totale de la pensée, dans l’ignorance des lois, de l’éthique et des responsabilités humaines. Mais il existe une frontière que Wald Maâlam ne franchit jamais. Quand il peint, l’IA n’existe pas. Quand il coud, l’IA n’existe pas. Parce que dans ces moments-là, il ne s’agit plus de produire.

Il s’agit de transmettre. Le geste du Maâlam, comme celui du peintre, relève d’un savoir incarné, d’une connaissance tacite, d’une mémoire du corps et de la matière. Ni les données ni les modèles ne peuvent le remplacer. Dans ses travaux, Wald Maâlam structure le monde.

Dans ses œuvres, il le ressent. Sa dernière peinture, où des visages émergent, se superposent et se déforment, illustre cette tension : rien n’est lisse, rien n’est standardisé.

La matière semble refuser toute simplification. Elle rappelle que l’humain n’est pas un système optimisable. À l’heure où l’IA produit du lisse et du généralisable, cette peinture rappelle que l’homme porte du singulier, du vécu, du réel.

Qu’est-ce qu’un vrai spécialiste de l’IA ?

Il faut donc poser la question que beaucoup évitent : qu’est-ce qu’un spécialiste de l’IA ? Ce n’est pas un utilisateur d’interface. Ce n’est pas un producteur de prompts. Ce n’est pas un commentateur opportuniste.

Un spécialiste de l’IA est quelqu’un qui comprend les modèles, les architectures, les données, les logiques algorithmiques, les limites, les biais et les conséquences des systèmes qu’il mobilise.

C’est quelqu’un qui sait concevoir, intégrer, évaluer, critiquer, contextualiser. C’est quelqu’un qui voit les erreurs là où d’autres voient des réponses.

Et surtout, c’est quelqu’un qui ne confond jamais production et compréhension. Être spécialiste de l’IA, ce n’est pas produire plus vite. C’est comprendre mieux. C’est savoir pourquoi une réponse existe, pourquoi elle peut être fausse, et quelles conséquences elle peut produire si elle est intégrée dans un système réel.

Oui, l’IA est une opportunité. Oui, elle doit être utilisée. Oui, elle peut aider à formaliser, structurer, explorer, écrire, concevoir et restituer des idées. Mais elle est aussi un révélateur. Elle révèle le niveau réel de compréhension de ceux qui l’utilisent. Le problème n’est pas l’intelligence artificielle.

Le problème, ce sont les certitudes de ceux qui prétendent la maîtriser sans en comprendre les fondements.

Le Maâlam le sait : ce n’est pas l’outil qui fait l’expert. C’est la compréhension de ses limites. Et aujourd’hui, le danger n’est pas seulement l’IA. Le danger, ce sont ceux qui croient la maîtriser parce qu’ils savent l’interroger.

L’IA n’est pas une marque. Elle n’est pas une mode. Elle n’est pas une propriété symbolique que chacun peut revendiquer parce qu’il utilise une interface.

L’IA est un champ scientifique, technique, économique, social et politique. Elle exige de la compétence, de la responsabilité, de la mémoire, de l’éthique et du courage intellectuel.

C’est à cette condition seulement qu’elle pourra devenir un levier de souveraineté, d’inclusion et de transformation, et non une nouvelle machine à fabriquer des illusions.

Par Dr Az-Eddine Bennani.


Vendredi 24 Avril 2026

Dans la même rubrique :