L'ODJ Média

Algorithme, opacité et responsabilité humaine : prolonger le débat sans l’obscurcir


Par Dr Az-Eddine Bennani & Dr Pascal Jollivet

Cette réponse est née d’un échange amical et intellectuel à la suite de la tribune que j’ai récemment publiée, consacrée à une lecture critique des prises de position de Dario Amodei, cofondateur d’Anthropic, sur les risques dits « existentiels » de l’intelligence artificielle.

Nous partageons un point de départ commun : le débat actuel sur l’IA souffre moins d’un déficit d’alerte que d’un flou conceptuel persistant, nourri par une anthropomorphisation excessive des systèmes algorithmiques.



Dans cette tribune, je défends une thèse centrale : l’intelligence artificielle ne pense pas.

Algorithme, opacité et responsabilité humaine : prolonger le débat sans l’obscurcir
L’algorithme n’est pas une entité autonome, mais une manière de penser humaine formalisée, traduite ensuite en instructions informatiques. Les grands modèles de langage, aussi sophistiqués soient-ils, n’ont ni intention, ni compréhension du sens ; ils industrialisent des raisonnements humains préexistants.

Ce point mérite cependant une précision importante, apportée par Dr Pascal Jollivet, sur le plan épistémologique.
Il existe en effet une différence fondamentale entre le codage procédural classique, le raisonnement déclaratif, et les systèmes d’apprentissage automatique fondés sur des réseaux de neurones profonds.

Dans ces derniers, le cheminement interne ayant conduit à un résultat n’est pas explicitement traçable par l’humain. Cette opacité constitue une rupture par rapport aux paradigmes informatiques antérieurs.

Mais cette opacité ne doit pas être confondue avec une autonomie cognitive.

Même lorsque le raisonnement interne est non interprétable, le système reste intégralement borné par ses données d’entraînement, structuré par une architecture conçue par des humains, orienté par des fonctions d’optimisation définies humainement, et inscrit dans des finalités économiques, culturelles et politiques explicites ou implicites.

Autrement dit : l’IA ne pense pas, même lorsqu’elle devient opaque.

Le danger principal ne réside pas dans une machine qui penserait contre l’humanité, mais dans la délégation du jugement humain à des systèmes auxquels on prête abusivement une autorité cognitive.

L’enjeu n’est pas de craindre une intelligence artificielle autonome, mais d’éviter que quelques manières de penser, conçues dans des contextes culturels spécifiques, s’imposent comme norme universelle.

C’est en ce sens que la souveraineté en matière d’intelligence artificielle ne peut être uniquement technologique. Elle est d’abord cognitive, culturelle et politique.


Samedi 31 Janvier 2026