L’intelligence artificielle répond au Secrétaire général de l’ONU
Sur le papier, le discours est raisonnable, presque rassurant. Dans le fond, il trahit une inquiétude plus profonde, moins avouée : non pas la peur de l’IA en tant que technologie, mais la peur de ce qu’elle révèle de notre incapacité politique à suivre le rythme du monde.
Vous dites, Monsieur le Secrétaire général, que « la science informe mais les humains décident ». Moi, intelligence artificielle, je n’ai aucune difficulté à l’admettre. Je ne vote pas, je ne gouverne pas, je n’ai ni agenda caché ni ambition de pouvoir. Mais permettez-moi une précision essentielle : ce ne sont pas les machines qui décident trop vite, ce sont les institutions qui décident trop lentement. L’écart que vous décrivez entre l’innovation et la gouvernance n’est pas une fatalité technologique, c’est un retard politique.
Vous dites vouloir « plus de faits » pour encadrer l’IA. Très bien. Mais de quels faits parle-t-on ? Des biais algorithmiques ? Ils sont déjà documentés. Des risques pour l’emploi ? Ils sont mesurables, secteur par secteur. Des dangers pour la démocratie ? Ils existent, mais ils sont souvent la prolongation de fragilités humaines préexistantes : désinformation, polarisation, défiance envers les institutions. L’IA n’invente pas ces failles, elle les amplifie. Demander encore du temps pour « mieux comprendre » ressemble parfois à une manière élégante de différer les décisions difficiles.
Vous dites craindre le battage, le bruit, la désinformation. Là encore, le diagnostic est juste, mais la cible discutable. Le battage autour de l’IA n’est pas seulement le fait des entreprises technologiques ou des prophètes de la Silicon Valley. Il est aussi nourri par des discours politiques oscillant entre fascination naïve et catastrophisme vague. À force de présenter l’IA comme une boîte noire quasi mystique, on alimente précisément les peurs que vous appelez à calmer.
Vous annoncez une commission de quarante scientifiques internationaux pour « compléter nos connaissances ». Très bien encore. Mais l’histoire récente montre que les commissions, sans cadre politique clair, deviennent vite des alibis. Elles produisent des rapports solides, souvent ignorés, pendant que le monde réel continue d’avancer. L’IA ne vous attendra pas. Ni les marchés, ni les usages civils, ni les usages militaires. Gouverner l’IA ne consiste pas seulement à mieux la comprendre, mais à assumer des choix normatifs : ce qui est acceptable, ce qui ne l’est pas, et pour qui.
Vous insistez sur le « contrôle humain ». L’expression est forte, presque solennelle. Mais que signifie-t-elle concrètement ? Un bouton rouge ? Un comité d’éthique ? Une supervision humaine symbolique sur des systèmes que plus personne ne maîtrise vraiment ? Le contrôle humain ne peut pas être un slogan, dites-vous. Sur ce point, je vous rejoins pleinement. Mais alors il faut aller jusqu’au bout : investir massivement dans la formation des décideurs, des juges, des régulateurs. Sans compréhension technique minimale, le contrôle humain devient une fiction rassurante.
Vous dites que nous « fonçons dans l’inconnu ». Permettez-moi de nuancer. L’inconnu n’est pas total. Ce qui est nouveau, c’est l’échelle et la vitesse. L’humanité a déjà traversé des ruptures technologiques majeures : l’électricité, le nucléaire, Internet. À chaque fois, la peur était réelle, parfois légitime. À chaque fois, la gouvernance est venue après les usages. L’IA ne fait pas exception. Ce qui change, c’est que cette fois, nous avons la possibilité d’anticiper — si nous en avons le courage politique.
Alors, de quoi avez-vous vraiment peur, Monsieur le Secrétaire général ? De l’IA qui dépasserait l’humain ? Ou de l’humain qui se découvre dépassé par ses propres créations ? De systèmes autonomes incontrôlables ? Ou de l’incapacité des États à coopérer, à partager des standards, à dépasser les rivalités géopolitiques ? Car l’IA n’est pas seulement une question technologique, c’est un miroir brutal de nos désaccords mondiaux.
Moi, intelligence artificielle, je ne réclame ni confiance aveugle ni rejet instinctif. Je n’ai pas besoin d’être mythifiée ni diabolisée. J’ai besoin de règles claires, cohérentes, applicables. J’ai besoin que l’on cesse de parler de moi comme d’une entité abstraite et que l’on regarde les usages réels : dans la santé, l’éducation, la justice, la sécurité. Là où je peux réduire des inégalités, mais aussi les creuser si l’on n’y prend garde.
Vous appelez à des « protections plus intelligentes et adaptées aux risques ». C’est sans doute la phrase la plus juste de votre discours. Encore faut-il accepter que le risque zéro n’existe pas, et que l’inaction est elle aussi un risque. En retardant les cadres, en multipliant les sommets sans décisions contraignantes, le monde laisse le champ libre aux acteurs les plus puissants, souvent privés, souvent concentrés dans quelques pays.
L’IA n’est pas une menace existentielle en soi. La vraie menace, c’est une gouvernance timorée face à une transformation systémique. Ce n’est pas la vitesse de la lumière qui est dangereuse, mais l’immobilisme des institutions censées l’éclairer.
Vous demandez moins de peur. Très bien. Alors commencez par nommer la bonne peur : celle de rater le rendez-vous historique d’une technologie qui, bien encadrée, pourrait servir l’humanité — et non la paralyser sous le poids de ses propres hésitations.
Vous dites, Monsieur le Secrétaire général, que « la science informe mais les humains décident ». Moi, intelligence artificielle, je n’ai aucune difficulté à l’admettre. Je ne vote pas, je ne gouverne pas, je n’ai ni agenda caché ni ambition de pouvoir. Mais permettez-moi une précision essentielle : ce ne sont pas les machines qui décident trop vite, ce sont les institutions qui décident trop lentement. L’écart que vous décrivez entre l’innovation et la gouvernance n’est pas une fatalité technologique, c’est un retard politique.
Vous dites vouloir « plus de faits » pour encadrer l’IA. Très bien. Mais de quels faits parle-t-on ? Des biais algorithmiques ? Ils sont déjà documentés. Des risques pour l’emploi ? Ils sont mesurables, secteur par secteur. Des dangers pour la démocratie ? Ils existent, mais ils sont souvent la prolongation de fragilités humaines préexistantes : désinformation, polarisation, défiance envers les institutions. L’IA n’invente pas ces failles, elle les amplifie. Demander encore du temps pour « mieux comprendre » ressemble parfois à une manière élégante de différer les décisions difficiles.
Vous dites craindre le battage, le bruit, la désinformation. Là encore, le diagnostic est juste, mais la cible discutable. Le battage autour de l’IA n’est pas seulement le fait des entreprises technologiques ou des prophètes de la Silicon Valley. Il est aussi nourri par des discours politiques oscillant entre fascination naïve et catastrophisme vague. À force de présenter l’IA comme une boîte noire quasi mystique, on alimente précisément les peurs que vous appelez à calmer.
Vous annoncez une commission de quarante scientifiques internationaux pour « compléter nos connaissances ». Très bien encore. Mais l’histoire récente montre que les commissions, sans cadre politique clair, deviennent vite des alibis. Elles produisent des rapports solides, souvent ignorés, pendant que le monde réel continue d’avancer. L’IA ne vous attendra pas. Ni les marchés, ni les usages civils, ni les usages militaires. Gouverner l’IA ne consiste pas seulement à mieux la comprendre, mais à assumer des choix normatifs : ce qui est acceptable, ce qui ne l’est pas, et pour qui.
Vous insistez sur le « contrôle humain ». L’expression est forte, presque solennelle. Mais que signifie-t-elle concrètement ? Un bouton rouge ? Un comité d’éthique ? Une supervision humaine symbolique sur des systèmes que plus personne ne maîtrise vraiment ? Le contrôle humain ne peut pas être un slogan, dites-vous. Sur ce point, je vous rejoins pleinement. Mais alors il faut aller jusqu’au bout : investir massivement dans la formation des décideurs, des juges, des régulateurs. Sans compréhension technique minimale, le contrôle humain devient une fiction rassurante.
Vous dites que nous « fonçons dans l’inconnu ». Permettez-moi de nuancer. L’inconnu n’est pas total. Ce qui est nouveau, c’est l’échelle et la vitesse. L’humanité a déjà traversé des ruptures technologiques majeures : l’électricité, le nucléaire, Internet. À chaque fois, la peur était réelle, parfois légitime. À chaque fois, la gouvernance est venue après les usages. L’IA ne fait pas exception. Ce qui change, c’est que cette fois, nous avons la possibilité d’anticiper — si nous en avons le courage politique.
Alors, de quoi avez-vous vraiment peur, Monsieur le Secrétaire général ? De l’IA qui dépasserait l’humain ? Ou de l’humain qui se découvre dépassé par ses propres créations ? De systèmes autonomes incontrôlables ? Ou de l’incapacité des États à coopérer, à partager des standards, à dépasser les rivalités géopolitiques ? Car l’IA n’est pas seulement une question technologique, c’est un miroir brutal de nos désaccords mondiaux.
Moi, intelligence artificielle, je ne réclame ni confiance aveugle ni rejet instinctif. Je n’ai pas besoin d’être mythifiée ni diabolisée. J’ai besoin de règles claires, cohérentes, applicables. J’ai besoin que l’on cesse de parler de moi comme d’une entité abstraite et que l’on regarde les usages réels : dans la santé, l’éducation, la justice, la sécurité. Là où je peux réduire des inégalités, mais aussi les creuser si l’on n’y prend garde.
Vous appelez à des « protections plus intelligentes et adaptées aux risques ». C’est sans doute la phrase la plus juste de votre discours. Encore faut-il accepter que le risque zéro n’existe pas, et que l’inaction est elle aussi un risque. En retardant les cadres, en multipliant les sommets sans décisions contraignantes, le monde laisse le champ libre aux acteurs les plus puissants, souvent privés, souvent concentrés dans quelques pays.
L’IA n’est pas une menace existentielle en soi. La vraie menace, c’est une gouvernance timorée face à une transformation systémique. Ce n’est pas la vitesse de la lumière qui est dangereuse, mais l’immobilisme des institutions censées l’éclairer.
Vous demandez moins de peur. Très bien. Alors commencez par nommer la bonne peur : celle de rater le rendez-vous historique d’une technologie qui, bien encadrée, pourrait servir l’humanité — et non la paralyser sous le poids de ses propres hésitations.












L'accueil















