Si je partage une partie du diagnostic sur les risques, je ne suis pas d’accord avec le cadre conceptuel qu’il mobilise, ni avec certaines implications implicites de son raisonnement.
Cette divergence n’est ni marginale ni sémantique : elle touche au cœur même de ce que l’on appelle « intelligence artificielle ».
Contrairement à ce que suggèrent certaines formulations, ma position est constante depuis des années : l’intelligence artificielle ne pense pas et ne raisonne pas. Ce que l’on appelle un algorithme est une manière de penser humaine formalisée.
Le programme informatique n’est que la traduction opérationnelle de cette manière de penser. Les grands modèles de langage n’ont ni conscience, ni intention, ni compréhension du sens : ils industrialisent et exécutent des raisonnements humains préexistants, à très grande échelle.
Parler de « génies », de « pays intelligents » ou d’objets qui domineraient le monde relève davantage d’une rhétorique d’alerte que d’une rigueur épistémologique. Cette anthropomorphisation brouille le débat et déplace le problème hors de son véritable lieu : la responsabilité humaine.
Contrairement à ce que suggèrent certaines formulations, ma position est constante depuis des années : l’intelligence artificielle ne pense pas et ne raisonne pas. Ce que l’on appelle un algorithme est une manière de penser humaine formalisée.
Le programme informatique n’est que la traduction opérationnelle de cette manière de penser. Les grands modèles de langage n’ont ni conscience, ni intention, ni compréhension du sens : ils industrialisent et exécutent des raisonnements humains préexistants, à très grande échelle.
Parler de « génies », de « pays intelligents » ou d’objets qui domineraient le monde relève davantage d’une rhétorique d’alerte que d’une rigueur épistémologique. Cette anthropomorphisation brouille le débat et déplace le problème hors de son véritable lieu : la responsabilité humaine.
Dire que l’algorithme est une manière de penser n’est pas une image.
C’est une thèse structurante. Chaque système d’IA embarque des logiques de raisonnement humaines qui traduisent des choix culturels, sociaux, économiques et politiques.
La machine n’est jamais neutre, car la pensée qu’elle exécute ne l’est pas.
Le danger n’est donc pas celui d’une IA qui penserait contre l’humanité, mais celui d’êtres humains qui délèguent leur jugement à des systèmes qui ne pensent pas, tout en leur prêtant abusivement une autorité cognitive.
Dans son livre, Dario Amodei évoque longuement la concentration des capacités d’IA autour de la Silicon Valley et cite plusieurs acteurs américains. En revanche, sauf erreur de ma part, Mistral, partenaire du Maroc, n’est jamais évoqué.
Cette absence suggère que, dans la cartographie mentale des dirigeants américains de l’IA, Mistral n’est pas considéré comme un concurrent stratégique direct. Ce silence révèle une hiérarchie implicite des puissances algorithmiques, où l’Europe et les partenariats euro-méditerranéens restent marginalisés.
Une question demeure. Si le patron d’Anthropic estime que l’objet appelé intelligence artificielle est porteur de dangers majeurs pour l’humanité, pourquoi avoir créé et continuer à déployer un chatbot comme Claude ?
On ne peut durablement alerter sur un risque existentiel tout en accélérant la diffusion industrielle de cet objet, sans poser clairement la question de la responsabilité des concepteurs et des logiques économiques à l’œuvre.
Le débat ouvert est utile, mais il reste incomplet. Le danger ne réside pas dans une intelligence artificielle quasi autonome, mais dans les manières de penser humaines codées dans les algorithmes.
L’enjeu n’est pas de craindre une machine qui penserait à notre place, mais d’empêcher que quelques manières de penser, conçues ailleurs, s’imposent comme norme universelle.
C’est pourquoi la souveraineté en matière d’IA est avant tout cognitive, culturelle et politique.
Par Dr Az-Eddine Bennani
La machine n’est jamais neutre, car la pensée qu’elle exécute ne l’est pas.
Le danger n’est donc pas celui d’une IA qui penserait contre l’humanité, mais celui d’êtres humains qui délèguent leur jugement à des systèmes qui ne pensent pas, tout en leur prêtant abusivement une autorité cognitive.
Dans son livre, Dario Amodei évoque longuement la concentration des capacités d’IA autour de la Silicon Valley et cite plusieurs acteurs américains. En revanche, sauf erreur de ma part, Mistral, partenaire du Maroc, n’est jamais évoqué.
Cette absence suggère que, dans la cartographie mentale des dirigeants américains de l’IA, Mistral n’est pas considéré comme un concurrent stratégique direct. Ce silence révèle une hiérarchie implicite des puissances algorithmiques, où l’Europe et les partenariats euro-méditerranéens restent marginalisés.
Une question demeure. Si le patron d’Anthropic estime que l’objet appelé intelligence artificielle est porteur de dangers majeurs pour l’humanité, pourquoi avoir créé et continuer à déployer un chatbot comme Claude ?
On ne peut durablement alerter sur un risque existentiel tout en accélérant la diffusion industrielle de cet objet, sans poser clairement la question de la responsabilité des concepteurs et des logiques économiques à l’œuvre.
Le débat ouvert est utile, mais il reste incomplet. Le danger ne réside pas dans une intelligence artificielle quasi autonome, mais dans les manières de penser humaines codées dans les algorithmes.
L’enjeu n’est pas de craindre une machine qui penserait à notre place, mais d’empêcher que quelques manières de penser, conçues ailleurs, s’imposent comme norme universelle.
C’est pourquoi la souveraineté en matière d’IA est avant tout cognitive, culturelle et politique.
Par Dr Az-Eddine Bennani