Un Claude Center of Excellence. 15 000 employés certifiés. 470 000 utilisateurs globaux. Une promesse d’IA conforme, transparente et éthique. Et au milieu de tout ça, un rapport truffé de conneries générées par GPT‑4o. Bienvenue dans la comédie de l’enterprise AI.
Anthropic x Deloitte : union sacrée entre l’IA safe et la facture salée
D’un côté, Anthropic, le fabricant de Claude, LLM poli, prudent, modéré et mou du genou.
De l’autre, Deloitte, le géant du consulting mondial, célèbre pour vendre du PowerPoint à la minute et des audits d’algorithmes à 6 chiffres.
Ils s’aiment.
Et ça donne un partenariat qui ferait rire si ce n’était pas aussi sinistre :
- Claude sera déployé chez les 470 000 employés de Deloitte.
- 15 000 d’entre eux seront certifiés Claude™, probablement avec un quiz sur “comment ne pas faire halluciner ton IA sur une citation juridique”.
- Un Claude Center of Excellence va être fondé, nom digne d’un MMORPG, contenu digne d’un tableur.
- Ensemble, ils vont construire des solutions IA sectorielles pour la finance, la santé, le service public… Parce qu’évidemment, c’est ce qu’il manquait à la médecine : un bot compliant qui paraphrase du bullshit réglementaire à 200 tokens/seconde.
La certification Claude™ : la nouvelle secte d’entreprise
Tu pensais qu’on allait former les gens à comprendre l’IA ?
Non, non. On va les certifier.
Un badge, une formation, quelques slides, et boum :
tu deviens “Claude-ready”.
Tu peux maintenant dire à ton client :
“Oui monsieur, j’ai une IA conforme. Je suis Deloitte Certified. Je sais cliquer sur ‘Regenerate’ avec intégrité.”
La certification Claude, c’est l’illusion de contrôle dans un monde où l’IA hallucine plus vite que les RH ne peuvent imprimer les NDA.
Claude Center of Excellence : le sanctuaire du jargon creux
Imagine un bureau climatisé, avec du mobilier gris, où des gens formulent des “frameworks d’implémentation AI” pendant que Claude génère des résumés d’articles qu’ils n’ont pas lus.
C’est ça, leur “center of excellence”.
C’est là qu’ils vont bâtir l’IA responsable… avec des mots.
Pas des garde-fous.
Pas des garanties.
Des mots.
Tu veux des exemples ?
“Transparence opérationnelle basée sur des pratiques adaptatives.”
“Modèles décisionnels contextualisés à travers des pipelines IA régulés.”
Personne ne comprend.
C’est parfait. C’est Deloitte.
Interlude : le fiasco australien qu’ils voudraient bien oublier
En parallèle de cette grande déclaration d’amour entre consultants et IA, Deloitte Australie s’est offert une petite humiliation publique :
- Un rapport de 237 pages payé par le gouvernement contenait des citations inventées, des sources fictives, et des références universitaires hallucinées.
- L’outil utilisé pour générer ce chef-d’œuvre de confusion ? GPT‑4o.
- Résultat : remboursement partiel, rapport corrigé, image flinguée.
([source : AP News, FT, The Guardian])
Et tu sais quoi ? Ce n’est même pas un bug.
C’est le cœur du problème : ils ont laissé une IA faire le boulot d’un humain sans relecture sérieuse.
Mais ne t’inquiète pas, maintenant ils veulent faire ça à l’échelle mondiale avec Claude.
Finance, santé, secteur public : on déploie Claude dans les endroits les plus critiques (quelle bonne idée)
Parce que si y’a bien un endroit où il faut tester de l’IA en prod sans certitude, c’est bien les hôpitaux, les banques, et l’administration.
Avec des phrases rassurantes comme :
“Solutions co-développées avec le Trustworthy AI™ Framework”
ou
“Claude a été choisi pour son respect des normes de conformité.”
Spoiler : ce que tu appelles « Trustworthy AI », nous on appelle ça “prompt sur Word avec des garde-fous en plastique.”
Et la conformité, c’est pas une case à cocher dans le back-office. C’est un processus légal et éthique que Claude hallucine encore à 40%.
La vraie raison : vendre des heures facturables déguisées en transformation éthique
Ce partenariat n’est pas fait pour “révolutionner” l’entreprise.
Il est là pour vendre plus de missions.
Former plus de consultants.
Faire payer des intégrations Claude dans des systèmes où Claude ne comprend rien.
Et ensuite facturer encore quand ça bugue.
C’est du SaaS à la sauce consulting : tu déploies l’IA, tu fais semblant qu’elle marche, tu reviens six mois plus tard corriger ce que tu savais déjà bancal.
Et à la fin, t’envoies la note.
Conclusion : l’IA d’entreprise, c’est pas de l’innovation. C’est un modèle de rente.
Claude n’est pas un produit révolutionnaire.
Claude est une excuse pour créer des couches d’inefficacité rentable.
Et Deloitte ne veut pas te sauver du chaos de l’IA.
Ils veulent te faire croire qu’ils la contrôlent, pour pouvoir te vendre la bouée, l’eau, le bateau, et les règles de sécurité.
La tech avance.
Les consultants vendent des certificats IA.
Et nous, on soupire.
Laisser un commentaire