La thèse industrielle : automatiser la « pénitence analytique »
Qu’automatise-t-on, précisément ? Les tâches à faible levier relationnel, mais à forte intensité heures-homme : nettoyage de données, construction des drivers, bouclage des trois états, sensibilités, waterfalls, tableaux de comparables, premiers jets de pitchbooks. En clair, la “pénitence analytique” qui structure la courbe d’apprentissage des analystes 0-2 ans. OpenAI dit vouloir s’attaquer à ces heures ingrates pour industrialiser la préparation des deals.
Sur le plan économique, payer des ex-banquiers 150 $/h pour entraîner un modèle qui, demain, réplique une grande partie de ce labeur à coût marginal quasi nul est rationnel : on capitalise un savoir tacite (les « règles de pouce », les garde-fous, les conventions de présentation) dans un actif logiciel. Certaines sources évoquent même des packages annualisés de l’ordre de 300 k$ pour des profils seniors embarqués dans le projet, signe d’une volonté d’aller vite.
Où l’IA “remplace”, où elle “augmente”
Dans un dealflow classique, trois zones paraissent immédiatement “automatisables” :
Pré-modélisation : ingestion de data rooms, mapping des comptes, normalisations IFRS/US GAAP, génération d’un squelette 3-states propre et auditable.
Modélisation transactionnelle : cases standards (LBO vanilla, M&A all-cash, PIK toggles, recap), plus les sensibilités usuelles (levier, coût de la dette, marge).
Packaging : graphiques, tableaux de comps, slides “boilerplate” de marchés.
En revanche, l’IA ne “remplace” pas facilement la narration stratégique d’un equity story, le jugement sur la qualité des hypothèses (pricing power, cash conversion, capex de maintien), la négociation et la lecture des signaux faibles chez les contreparties. Ici, elle “augmente” plutôt qu’elle ne substitue. Cette frontière correspond aux premiers retours d’expérience de la place : les outils géné-IA poussent sur le back-office, tandis que la relation client, le jugement et la structuration fine restent humains.
Conséquences organisationnelles pour les banques d’investissement
Trois scénarios s’esquissent :
Lean junior bench : moins d’analystes par équipe, mais outillés par des “cobots de modélisation” qui livrent 70–80 % du brouillon. Les VPs revoient, recalent, signent.
Hub interne d’IA spécialisée : certaines banques préféreront des modèles propriétaires plutôt que d’externaliser leur “secret sauce” à un tiers. Ce mouvement est déjà visible chez plusieurs acteurs qui déploient des assistants IA internes.
Full-stack IA + banque “asset-light” : sur des mid-caps répétitives, des boutiques pourraient opérer avec un noyau senior resserré et une base logicielle robuste, en s’appuyant ponctuellement sur des freelancers.
Dans tous les cas, un arbitrage RH va s’imposer : l’automatisation érode l’apprentissage “par la douleur” des juniors, au risque de casser la chaîne d’apprenti-sage qui fabrique les futurs MD. L’industrie devra inventer d’autres pédagogies : rotations plus denses en client-facing, simulations, “labs” d’origination, mentorat accéléré.
Les points durs : qualité, confidentialité, conformité
Qualité / hallucinations : un modèle qui “invente” une ligne de BFR ou inverse un signe sur un bridge de cash peut coûter cher. La réponse sera procédurale (validation systématique, logs, versions, tests unitaires sur modèles) et contractuelle (limitation de responsabilité).
Données sensibles : DPA, cloisonnement strict, exécution on-prem ou VPC chiffré, masquage de noms/identifiants dans les data rooms. Les banques déjà engagées avec des assistants IA internes posent le cadre technique et légal.
Compliance / régulateurs : traçabilité des hypothèses, auditabilité des versions, alignement avec les guidelines d’usage de l’IA (modèles documentés, limites d’usage explicites). Les superviseurs exigeront des “model risk frameworks” analogues à ceux des risques de crédit ou de marché.
Pourquoi OpenAI s’y intéresse
L’investissement bancaire offre un terrain d’entraînement idéal : données structurées, workflows répétitifs, métriques de qualité objectives (erreurs zéro, temps de calcul, comparabilité) et une chaîne de valeur où chaque minute économisée vaut cher. Surtout, l’effet de réseau est puissant : un modèle entraîné sur des milliers de mécaniques standards (LBO, carve-out, debt pushdown, recap) devient un copilote exportable à d’autres verticaux (private equity, corporate development, FP&A). D’où l’effort massif de “Mercury”, avec un vivier de plus de 100 ex-banquiers mobilisés en parallèle.
Sur le plan économique, payer des ex-banquiers 150 $/h pour entraîner un modèle qui, demain, réplique une grande partie de ce labeur à coût marginal quasi nul est rationnel : on capitalise un savoir tacite (les « règles de pouce », les garde-fous, les conventions de présentation) dans un actif logiciel. Certaines sources évoquent même des packages annualisés de l’ordre de 300 k$ pour des profils seniors embarqués dans le projet, signe d’une volonté d’aller vite.
Où l’IA “remplace”, où elle “augmente”
Dans un dealflow classique, trois zones paraissent immédiatement “automatisables” :
Pré-modélisation : ingestion de data rooms, mapping des comptes, normalisations IFRS/US GAAP, génération d’un squelette 3-states propre et auditable.
Modélisation transactionnelle : cases standards (LBO vanilla, M&A all-cash, PIK toggles, recap), plus les sensibilités usuelles (levier, coût de la dette, marge).
Packaging : graphiques, tableaux de comps, slides “boilerplate” de marchés.
En revanche, l’IA ne “remplace” pas facilement la narration stratégique d’un equity story, le jugement sur la qualité des hypothèses (pricing power, cash conversion, capex de maintien), la négociation et la lecture des signaux faibles chez les contreparties. Ici, elle “augmente” plutôt qu’elle ne substitue. Cette frontière correspond aux premiers retours d’expérience de la place : les outils géné-IA poussent sur le back-office, tandis que la relation client, le jugement et la structuration fine restent humains.
Conséquences organisationnelles pour les banques d’investissement
Trois scénarios s’esquissent :
Lean junior bench : moins d’analystes par équipe, mais outillés par des “cobots de modélisation” qui livrent 70–80 % du brouillon. Les VPs revoient, recalent, signent.
Hub interne d’IA spécialisée : certaines banques préféreront des modèles propriétaires plutôt que d’externaliser leur “secret sauce” à un tiers. Ce mouvement est déjà visible chez plusieurs acteurs qui déploient des assistants IA internes.
Full-stack IA + banque “asset-light” : sur des mid-caps répétitives, des boutiques pourraient opérer avec un noyau senior resserré et une base logicielle robuste, en s’appuyant ponctuellement sur des freelancers.
Dans tous les cas, un arbitrage RH va s’imposer : l’automatisation érode l’apprentissage “par la douleur” des juniors, au risque de casser la chaîne d’apprenti-sage qui fabrique les futurs MD. L’industrie devra inventer d’autres pédagogies : rotations plus denses en client-facing, simulations, “labs” d’origination, mentorat accéléré.
Les points durs : qualité, confidentialité, conformité
Qualité / hallucinations : un modèle qui “invente” une ligne de BFR ou inverse un signe sur un bridge de cash peut coûter cher. La réponse sera procédurale (validation systématique, logs, versions, tests unitaires sur modèles) et contractuelle (limitation de responsabilité).
Données sensibles : DPA, cloisonnement strict, exécution on-prem ou VPC chiffré, masquage de noms/identifiants dans les data rooms. Les banques déjà engagées avec des assistants IA internes posent le cadre technique et légal.
Compliance / régulateurs : traçabilité des hypothèses, auditabilité des versions, alignement avec les guidelines d’usage de l’IA (modèles documentés, limites d’usage explicites). Les superviseurs exigeront des “model risk frameworks” analogues à ceux des risques de crédit ou de marché.
Pourquoi OpenAI s’y intéresse
L’investissement bancaire offre un terrain d’entraînement idéal : données structurées, workflows répétitifs, métriques de qualité objectives (erreurs zéro, temps de calcul, comparabilité) et une chaîne de valeur où chaque minute économisée vaut cher. Surtout, l’effet de réseau est puissant : un modèle entraîné sur des milliers de mécaniques standards (LBO, carve-out, debt pushdown, recap) devient un copilote exportable à d’autres verticaux (private equity, corporate development, FP&A). D’où l’effort massif de “Mercury”, avec un vivier de plus de 100 ex-banquiers mobilisés en parallèle.
La riposte de l’écosystème
Les banques universelles et quelques boutiques tech-savvy testent déjà des assistants propriétaires, parfois hybrides avec des briques OpenAI. D’autres préfèrent des start-up verticalisées qui “parlent banquier” dès la V1. Le signal marché est clair : la chaîne de production du deal s’informatise, et l’avantage compétitif se déplacera vers la vitesse d’itération et la maîtrise des données.
Ce que je ferais, côté banque
Inventaire des cas d’usage par métier (ECM, DCM, M&A, LevFin), avec critères mesurables : temps gagné, taux d’erreur, impact client.
Gouvernance des modèles : référentiel d’hypothèses, bibliothèques de blocs (revenue build, capex, working capital), tests de non-régression.
Cloisonnement data : VPC dédié, chiffrement, DLP, red teaming.
Academy IA pour juniors : apprendre à auditer l’IA, pas à s’y soumettre.
Pilotes clients : livrer plus vite, plus propre, en maintenant la storyline humaine.
Le mouvement est lancé. Qu’OpenAI mène la danse ou que les banques internalisent, le message est identique : la valeur se déplace du tableur-artisanat vers l’ingénierie de processus. Les acteurs qui gagneront ne seront pas ceux qui “remplaceront les juniors”, mais ceux qui redéfiniront l’apprentissage, sécuriseront la donnée et livreront, semaine après semaine, des modèles plus fiables que la veille. Les autres découvriront qu’en finance, le vrai coût de l’IA n’est pas la licence : c’est l’écart de cadence.
Ce que je ferais, côté banque
Inventaire des cas d’usage par métier (ECM, DCM, M&A, LevFin), avec critères mesurables : temps gagné, taux d’erreur, impact client.
Gouvernance des modèles : référentiel d’hypothèses, bibliothèques de blocs (revenue build, capex, working capital), tests de non-régression.
Cloisonnement data : VPC dédié, chiffrement, DLP, red teaming.
Academy IA pour juniors : apprendre à auditer l’IA, pas à s’y soumettre.
Pilotes clients : livrer plus vite, plus propre, en maintenant la storyline humaine.
Le mouvement est lancé. Qu’OpenAI mène la danse ou que les banques internalisent, le message est identique : la valeur se déplace du tableur-artisanat vers l’ingénierie de processus. Les acteurs qui gagneront ne seront pas ceux qui “remplaceront les juniors”, mais ceux qui redéfiniront l’apprentissage, sécuriseront la donnée et livreront, semaine après semaine, des modèles plus fiables que la veille. Les autres découvriront qu’en finance, le vrai coût de l’IA n’est pas la licence : c’est l’écart de cadence.