Les chercheurs parlent d’un « Artificial Hivemind », une sorte d’« esprit de ruche artificiel » dans lequel plusieurs intelligences artificielles convergent vers des formulations et des raisonnements similaires.
Pour Wald Maâlam, cette conclusion n’a rien de surprenant. Dans ses articles, ses conférences et ses livres, il a déjà expliqué que cette convergence était pratiquement inévitable.
La raison tient à la nature même des systèmes informatiques. Les modèles d’intelligence artificielle reposent sur des logiciels, c’est-à-dire des suites d’instructions écrites dans des langages informatiques — souvent en Python — qui organisent le traitement de l’information.
Il est essentiel ici de distinguer clairement deux notions que l’on confond très souvent. Un algorithme n’est pas un programme informatique.
Un algorithme est une manière de penser, une logique de raisonnement permettant de traiter une information et de produire un résultat.
La raison tient à la nature même des systèmes informatiques. Les modèles d’intelligence artificielle reposent sur des logiciels, c’est-à-dire des suites d’instructions écrites dans des langages informatiques — souvent en Python — qui organisent le traitement de l’information.
Il est essentiel ici de distinguer clairement deux notions que l’on confond très souvent. Un algorithme n’est pas un programme informatique.
Un algorithme est une manière de penser, une logique de raisonnement permettant de traiter une information et de produire un résultat.
Le logiciel, lui, est simplement la traduction de cette manière de penser en instructions informatiques exécutables par une machine.
Autrement dit, le programme informatique ne fait que mettre en œuvre l’algorithme, c’est-à-dire la logique de pensée qu’il traduit.
Lorsque plusieurs systèmes d’intelligence artificielle reposent sur la même manière de penser — le même algorithme — et sur des logiciels qui traduisent cette logique, il est normal que les résultats produits soient proches.
Il est d’ailleurs intéressant de rappeler que c’est sur cette même plateforme scientifique arXiv qu’a été publié l’article fondateur introduisant l’architecture Transformer.
Intitulé « Attention Is All You Need », ce travail a été mis en ligne le 12 juin 2017 et a profondément transformé la recherche en intelligence artificielle.
Depuis cette publication, cette approche algorithmique — et les logiciels qui la traduisent — constituent la base de la quasi-totalité des grands modèles de langage.
À cela s’ajoute un deuxième facteur déterminant : les données.
Les modèles de langage sont entraînés sur des volumes gigantesques de textes provenant principalement d’Internet : articles, livres numérisés, encyclopédies, forums et bases de connaissances.
Même si les corpus exacts diffèrent légèrement d’un modèle à l’autre, les sources d’information restent largement similaires.
Lorsque plusieurs systèmes d’intelligence artificielle reposent sur la même manière de penser — le même algorithme — et sur des logiciels qui traduisent cette logique, il est normal que les résultats produits soient proches.
Il est d’ailleurs intéressant de rappeler que c’est sur cette même plateforme scientifique arXiv qu’a été publié l’article fondateur introduisant l’architecture Transformer.
Intitulé « Attention Is All You Need », ce travail a été mis en ligne le 12 juin 2017 et a profondément transformé la recherche en intelligence artificielle.
Depuis cette publication, cette approche algorithmique — et les logiciels qui la traduisent — constituent la base de la quasi-totalité des grands modèles de langage.
À cela s’ajoute un deuxième facteur déterminant : les données.
Les modèles de langage sont entraînés sur des volumes gigantesques de textes provenant principalement d’Internet : articles, livres numérisés, encyclopédies, forums et bases de connaissances.
Même si les corpus exacts diffèrent légèrement d’un modèle à l’autre, les sources d’information restent largement similaires.
Autrement dit, ces systèmes utilisent des données proches et des logiques de raisonnement comparables, traduites ensuite dans des logiciels qui exécutent ces instructions.
Dans ces conditions, il serait presque étonnant que les systèmes produisent des raisonnements radicalement différents.
Ce que l’étude récente appelle « Artificial Hivemind » correspond finalement à une réalité bien connue en informatique :
Lorsque plusieurs systèmes reposent sur la même manière algorithmique de traiter l’information et sur des données similaires, leurs résultats tendent naturellement à converger.
C’est précisément cette observation qui a conduit Wald Maâlam, dès le début de l’année 2023, à plaider pour le développement d’un LLM maroco-marocain, c’est-à-dire un grand modèle de langage conçu à partir de données, de contextes culturels et de réalités linguistiques propres au Maroc.
Dans l’univers de Wald Maâlam, cette situation peut être expliquée par une image simple. Si l’on donne à plusieurs artisans les mêmes outils, les mêmes tissus et les mêmes modèles, ils finiront par produire des caftans qui se ressemblent.
Ce n’est pas une surprise. C’est la conséquence logique des conditions de production.
Comme le rappelle souvent Wald Maâlam : « L’algorithme est une manière de penser ; le logiciel n’est que la traduction technique de cette pensée. »
À l’heure où l’intelligence artificielle semble capable de produire toutes les réponses, la question n’est peut-être plus seulement technologique.
Elle est devenue intellectuelle et civilisationnelle : quelle diversité de pensée voulons-nous préserver dans un monde où les machines participent désormais à la production du savoir ?
Par Dr Az-Eddine Bennani.
Ce que l’étude récente appelle « Artificial Hivemind » correspond finalement à une réalité bien connue en informatique :
Lorsque plusieurs systèmes reposent sur la même manière algorithmique de traiter l’information et sur des données similaires, leurs résultats tendent naturellement à converger.
C’est précisément cette observation qui a conduit Wald Maâlam, dès le début de l’année 2023, à plaider pour le développement d’un LLM maroco-marocain, c’est-à-dire un grand modèle de langage conçu à partir de données, de contextes culturels et de réalités linguistiques propres au Maroc.
Dans l’univers de Wald Maâlam, cette situation peut être expliquée par une image simple. Si l’on donne à plusieurs artisans les mêmes outils, les mêmes tissus et les mêmes modèles, ils finiront par produire des caftans qui se ressemblent.
Ce n’est pas une surprise. C’est la conséquence logique des conditions de production.
Comme le rappelle souvent Wald Maâlam : « L’algorithme est une manière de penser ; le logiciel n’est que la traduction technique de cette pensée. »
À l’heure où l’intelligence artificielle semble capable de produire toutes les réponses, la question n’est peut-être plus seulement technologique.
Elle est devenue intellectuelle et civilisationnelle : quelle diversité de pensée voulons-nous préserver dans un monde où les machines participent désormais à la production du savoir ?
Par Dr Az-Eddine Bennani.