Dans cette tribune, je défends une thèse centrale : l’intelligence artificielle ne pense pas.
Ce point mérite cependant une précision importante, apportée par Dr Pascal Jollivet, sur le plan épistémologique.
Il existe en effet une différence fondamentale entre le codage procédural classique, le raisonnement déclaratif, et les systèmes d’apprentissage automatique fondés sur des réseaux de neurones profonds.
Dans ces derniers, le cheminement interne ayant conduit à un résultat n’est pas explicitement traçable par l’humain. Cette opacité constitue une rupture par rapport aux paradigmes informatiques antérieurs.
Mais cette opacité ne doit pas être confondue avec une autonomie cognitive.
Même lorsque le raisonnement interne est non interprétable, le système reste intégralement borné par ses données d’entraînement, structuré par une architecture conçue par des humains, orienté par des fonctions d’optimisation définies humainement, et inscrit dans des finalités économiques, culturelles et politiques explicites ou implicites.
Autrement dit : l’IA ne pense pas, même lorsqu’elle devient opaque.
L’enjeu n’est pas de craindre une intelligence artificielle autonome, mais d’éviter que quelques manières de penser, conçues dans des contextes culturels spécifiques, s’imposent comme norme universelle.
C’est en ce sens que la souveraineté en matière d’intelligence artificielle ne peut être uniquement technologique. Elle est d’abord cognitive, culturelle et politique.












L'accueil




IA souveraine : comprendre, décider, investir










