Claude Code Ultra Review
Une flotte d'agents cloud parcourt ton diff en parallèle, vérifie chaque trouvaille de manière indépendante, et ne remonte que les vrais bugs. Ce que fait /ultrareview, quand l'utiliser, et ce que ça coûte.
Arrêtez de configurer. Commencez à construire.
Templates SaaS avec orchestration IA.
Le problème : la revue de code, c'est un jeu de chiffres avec de mauvaises chances. Les reviewers humains repèrent les erreurs évidentes, mais un gros diff épuise l'attention vite. Un refactor de 1 500 lignes qui touche l'auth, le chiffrement, et trois tables de base de données ? Le type mismatch subtil à la ligne 847 passe inaperçu. Ça part en prod.
/review aide. Un scan en passe unique dans ta session locale attrape beaucoup de choses. Mais un seul agent, une seule passe, aucune étape de vérification. Les trouvailles sont bonnes. La confiance est moins élevée.
/ultrareview fonctionne autrement. La commande envoie ton diff dans un sandbox cloud, démarre une flotte d'agents, et fait passer chaque trouvaille par une vérification indépendante avant de la remonter. Seuls les bugs confirmés reviennent.
Ce que /ultrareview fait vraiment
La commande est disponible depuis Claude Code v2.1.111, lancé le 16 avril 2026 en research preview. Deux modes d'utilisation :
Le mode branche passe en revue le diff entre ta branche courante et la branche par défaut, y compris les changements non commités ou en staging :
/ultrareviewLe mode PR prend un numéro de PR GitHub. Le sandbox distant clone directement depuis GitHub au lieu de bundler ton arbre de travail local :
/ultrareview 1234Utilise le mode PR quand ton repo est trop gros pour être bundlé. Push la branche, ouvre une draft PR, puis passe le numéro.
Le pipeline en quatre étapes
Chaque revue passe par les mêmes quatre étapes dans le sandbox cloud :
Setup : Anthropic provisionne l'infrastructure distante et démarre la flotte de sous-agents. La flotte par défaut est de 5 agents. Ça prend environ 90 secondes.
Find : Les agents explorent différents chemins d'exécution dans le code modifié en parallèle. Chacun cherche de son côté, donc les race conditions, les erreurs logiques, et les type mismatches inter-modules subissent une pression depuis plusieurs angles à la fois.
Verify : Un second groupe d'agents tente de reproduire chaque trouvaille candidate. Un bug signalé par un seul agent est challengé par un autre. S'il ne peut pas être confirmé indépendamment, il ne remonte pas.
Dedup : Les trouvailles dupliquées issues de différents agents sont fusionnées en rapports uniques classés par importance.
La boîte de confirmation avant le lancement montre la portée : nombre de fichiers, nombre de lignes, runs gratuits restants, et coût estimé. La revue ne démarre qu'après ta confirmation.
Les revues tournent en tâche de fond. Ton terminal reste libre. Suis la progression avec /tasks. Fermer le terminal n'est pas un problème. Arrêter une revue en cours archive la session cloud et ne renvoie aucune trouvaille partielle.
Comparaison avec /review
/review | /ultrareview | |
|---|---|---|
| Exécution | locale, en session | sandbox cloud distant |
| Profondeur | passe unique | flotte multi-agents avec vérification indépendante |
| Durée | quelques secondes à quelques minutes | 5 à 10 minutes (jusqu'à 20 sur les grosses PRs) |
| Coût | compte dans l'usage normal | runs gratuits, puis $5 à $20/revue en extra usage |
| Idéal pour | feedback rapide pendant l'itération | confiance pré-merge sur des changements importants |
La vraie différence, c'est l'étape de vérification. /review fait une passe. /ultrareview ne remonte que les trouvailles qui ont survécu à un second agent cherchant à les reproduire. C'est là que vient le taux de faux positifs inférieur à 1 %.
Des résultats qui valent le coup d'oeil
Anthropic a testé ça sur ses propres PRs avant le lancement. Les chiffres des tests internes (via claudefa.st) :
| Métrique | Résultat |
|---|---|
| Grosses PRs (1 000+ lignes) avec des trouvailles | 84%, en moyenne 7,5 problèmes par revue |
| Petites PRs (moins de 50 lignes) avec des trouvailles | 31%, en moyenne 0,5 problème |
| Trouvailles jugées incorrectes par les ingénieurs | Moins de 1 % |
| PRs avec commentaires de revue substantiels (avant vs après) | 16 % à 54 % |
Deux exemples réels. Un changement d'authentification d'une seule ligne chez Anthropic aurait silencieusement cassé les flux de connexion. /ultrareview l'a signalé comme critique avant le merge. Dans un refactor de chiffrement ZFS sur TrueNAS, il a détecté un type mismatch qui effaçait le cache de clé de chiffrement à chaque synchronisation. Le genre de bug qui vit en production des mois avant que quelqu'un remonte jusqu'au bon commit.
Un test pratique sur une PR de 11 000 lignes pour la voix (via mejba.me) : 64 bugs candidats à l'étape Find, un ensemble confirmé plus petit après Verify, 17 minutes au total. Des race conditions et des problèmes de gestion d'état à travers les frontières de modules. Des choses qu'une revue en passe unique rate parce qu'aucun agent ne peut tenir l'image complète en même temps.
Tarification
| Plan | Runs gratuits | Après les runs gratuits |
|---|---|---|
| Pro | 3 (expirent le 5 mai 2026) | facturés en extra usage |
| Max | 3 (expirent le 5 mai 2026) | facturés en extra usage |
| Team | aucun | facturés en extra usage |
| Enterprise | aucun | facturés en extra usage |
Chaque revue coûte environ $5 à $20 selon la taille du diff. Les runs gratuits sont une allocation unique. Ils expirent le 5 mai 2026 qu'ils soient utilisés ou non. Pas de renouvellement, pas de report.
Avant de lancer : vérifie que l'extra usage est activé sur ton compte. Lance /extra-usage pour vérifier. Si l'extra usage est désactivé, la feature bloque au lancement. Tu ne peux pas l'activer depuis la boîte de confirmation.
Prérequis
Obligatoires :
- Claude Code v2.1.111 ou ultérieur
- Authentification via compte Claude.ai (lance
/logind'abord si tu utilises uniquement une clé API) - Remote GitHub (
github.com) sur le repo pour le mode PR
Pas disponible sur :
- Amazon Bedrock
- Google Cloud Vertex AI
- Microsoft Foundry
- Organisations avec Zero Data Retention activé
Ce sont des exclusions architecturales. /ultrareview nécessite l'authentification via compte Claude.ai et l'infrastructure web d'Anthropic. Aucun contournement n'existe pour les équipes sur des cloud providers gérés.
Quand l'utiliser
/ultrareview sert à la revue pré-merge sur des changements où la confiance compte. Ce n'est pas un audit complet de codebase.
Bien adapté :
- Grosses PRs de plus de ~500 lignes touchant l'auth, les paiements, ou l'infrastructure
- Changements sensibles à la sécurité où la vérification multi-agents compte
- Refactors complexes sur plusieurs modules (race conditions, type mismatches inter-frontières)
- Revue de PRs de contributeurs ou externes en passant un numéro de PR
Pas adapté :
- Itération rapide sur une branche de feature (5 à 20 minutes, c'est le mauvais outil pour les boucles rapides, utilise
/review) - Audits complets de codebase (la portée est toujours le diff par rapport à ta branche par défaut)
- Changements triviaux de moins de 50 lignes
- Pipelines CI/CD (nécessite une session interactive et l'auth Claude.ai)
- Environnements Bedrock, Vertex, Foundry, ou ZDR
L'erreur la plus courante
C'est la confusion post-lancement qui a produit la plupart des plaintes du style "ça n'a rien trouvé d'utile" :
/ultrareview passe en revue le diff entre ta branche et la branche par défaut. Il ne scanne pas toute ta codebase existante.
Une codebase terminée, entièrement commitée, sans changements récents, a presque aucun diff. Pointer la commande dessus donne un résultat quasi vide. C'est le comportement attendu. L'outil est un reviewer pré-merge, pas un auditeur.
Si tu veux passer en revue toute ta codebase, /ultrareview n'est pas le bon outil.
Stratégie de revue par niveaux
Un schéma pratique venant de la communauté (r/ClaudeCode) :
| Type de PR | Outil | Pourquoi |
|---|---|---|
| Toutes les PRs | /review (moins de 5 minutes) | Check de fumée permanent |
| Grosses PRs ou critiques (500+ lignes, auth/paiements/infra) | /ultrareview (10 à 20 minutes) | Inspection approfondie pré-merge |
| Changements d'infrastructure (migrations DB, réécriture sécurité) | /ultrareview | Confiance maximale quand les enjeux sont élevés |
Pense à /review comme au détecteur de fumée. Toujours actif. Rapide. /ultrareview c'est l'inspection que tu commandes avant de signer un changement structurel.
Conseils pratiques
Lance /extra-usage avant que tes runs gratuits n'expirent. Si la facturation n'est pas configurée, la feature bloque au lancement sans rien faire.
Commite ou stash avant de lancer. Le mode branche bundle ton arbre de travail au moment où tu confirmes. Les changements faits après le lancement ne sont pas inclus.
Quand les trouvailles apparaissent, corrige-les depuis la notification dans la même session. Les laisser traîner gâche le contexte.
Pour les repos qui ne peuvent pas être bundlés : push la branche, ouvre une draft PR, puis lance /ultrareview <PR-number>. Le sandbox clone directement depuis GitHub.
Utilise /tasks pour suivre les revues qui tournent en arrière-plan. Tu peux fermer le terminal. Reviens pour les résultats.
Ce que ça signale
/ultrareview est la deuxième commande d'un pattern. /ultraplan (v2.1.92) a déplacé le calcul intensif de planification vers le cloud. /ultrareview (v2.1.111) fait la même chose pour la revue de code. Les routines et les déclencheurs distants suivent la même logique.
Chaque commande avec le préfixe "ultra" délègue une tâche de calcul lourde de ta session locale vers l'infrastructure hébergée par Anthropic. La capacité (5 à 20 agents en parallèle avec vérification indépendante) n'est accessible que dans le cloud. Aucun ordinateur portable ne fait tourner 20 agents dans un sandbox simultanément.
La structure de coût reflète ça. Chaque commande ultra facture séparément en extra usage, en dehors du compute inclus dans ton plan. L'abonnement, c'est l'accès. Le compute cloud est compté en plus.
Quel modèle fait tourner les agents n'est pas confirmé publiquement. La spéculation communautaire pointe vers des agents de classe Opus pour la logique et la chasse aux bugs, et Sonnet pour les violations de style. Anthropic n'a pas confirmé les modèles sous-jacents.
Des merges sans bugs prennent plus de temps à produire. Ils prennent moins de temps à déboguer en production. /ultrareview c'est là où ces deux réalités se rencontrent.
Questions fréquentes
C'est quoi /ultrareview dans Claude Code ?
/ultrareview est une commande de revue de code basée sur le cloud dans Claude Code. Elle lance une flotte d'agents dans un sandbox distant qui se répartissent sur le diff de ta branche, cherchent des bugs en parallèle, et vérifient chaque trouvaille de manière indépendante avant de la remonter. Seuls les bugs confirmés reviennent. Lancée dans Claude Code v2.1.111 le 16 avril 2026.
Combien coûte /ultrareview ?
Chaque revue coûte environ $5 à $20 selon la taille du diff, facturée en extra usage hors plan. Les abonnés Pro et Max ont 3 runs gratuits expirant le 5 mai 2026. Team et Enterprise n'ont pas de runs gratuits. Les revues sont toujours facturées séparément du compute inclus dans ton plan.
/ultrareview est-il gratuit ?
Les abonnés Pro et Max ont 3 runs gratuits (expirant le 5 mai 2026, qu'ils soient utilisés ou non). Après ça, chaque revue est facturée en extra usage à $5–$20 par revue. Les plans Team et Enterprise n'ont pas de palier gratuit.
Quelle est la différence entre /review et /ultrareview ?
/review fait un scan en passe unique localement dans ta session Claude Code. /ultrareview envoie ton diff dans un sandbox cloud, fait tourner 5 à 20 agents en parallèle, puis passe chaque trouvaille candidate par un agent de vérification indépendant avant de la remonter. /review prend quelques secondes. /ultrareview prend 5 à 20 minutes. /review compte dans l'usage normal du plan. /ultrareview se facture en extra usage.
Combien de temps prend /ultrareview ?
La plupart des revues se terminent en 5 à 10 minutes. Les très grosses PRs (le test mejba.me sur un diff de 11 000 lignes) ont pris 17 minutes. Compte jusqu'à 20 minutes sur les plus gros diffs.
Quelle est la précision de /ultrareview ?
Dans les tests internes d'Anthropic, les ingénieurs ont marqué moins de 1 % des trouvailles comme incorrectes. Sur les PRs de plus de 1 000 lignes, 84 % des revues remontent des trouvailles, en moyenne 7,5 problèmes chacune. Le faible taux de faux positifs vient de l'étape Verify, où des agents séparés tentent de reproduire chaque bug candidat de manière indépendante avant qu'il ne remonte.
Pourquoi /ultrareview n'a rien trouvé d'utile sur ma codebase ?
/ultrareview ne passe en revue que le diff entre ta branche courante et la branche par défaut. Il ne scanne pas toute ta codebase existante. Si tu l'as lancé sur une codebase terminée, entièrement commitée, sans changements récents, il y a presque aucun diff à revoir. C'est le comportement prévu. L'outil est un reviewer pré-merge, pas un auditeur de codebase.
/ultrareview peut-il passer en revue toute ma codebase ?
Non. La portée est toujours le diff entre ta branche et la branche par défaut. Il attrape les bugs dans le code que tu t'apprêtes à merger, pas dans le code déjà sur main. Pour un audit complet de codebase, il te faut une autre approche.
/ultrareview fonctionne-t-il sur Amazon Bedrock ou Google Vertex AI ?
Non. /ultrareview nécessite l'authentification via compte Claude.ai et tourne sur l'infrastructure web d'Anthropic. Pas disponible sur Bedrock, Vertex AI, Microsoft Foundry, ou les organisations avec Zero Data Retention activé. Aucun contournement n'existe.
Quel plan Claude Code faut-il pour /ultrareview ?
N'importe quel plan peut utiliser /ultrareview tant que l'extra usage est activé sur le compte. Les abonnés Pro et Max ont 3 runs gratuits. Les utilisateurs Team et Enterprise paient par revue dès le départ. La feature n'est pas limitée aux plans Team ou Enterprise (contrairement à Claude Code Review, le produit intégré à GitHub).
Comment activer l'extra usage pour /ultrareview ?
Lance /extra-usage dans Claude Code. Si l'extra usage n'est pas déjà activé, cette commande te redirige vers les paramètres de facturation. Tu dois l'activer avant de lancer /ultrareview. La feature bloque au lancement si l'extra usage est désactivé, et tu ne peux pas l'activer depuis la boîte de confirmation en plein flux.
/ultrareview peut-il tourner dans des pipelines CI/CD ?
Non. Il nécessite une session Claude Code interactive avec l'authentification via compte Claude.ai. Les exécutions automatisées en pipeline ne sont pas supportées.
Que se passe-t-il si j'arrête /ultrareview en cours d'exécution ?
La session cloud s'archive et tu récupères zéro trouvaille partielle. Si une revue de 17 minutes en est à 10 minutes quand tu l'arrêtes, rien ne revient. Laisse-la finir.
Combien d'agents /ultrareview utilise-t-il ?
La flotte par défaut est de 5 agents. La configuration supporte jusqu'à 20, bien que la possibilité de configurer une flotte plus grande soit utilisateur ou limitée par palier n'est pas documentée publiquement.
Puis-je passer en revue la pull request de quelqu'un d'autre avec /ultrareview ?
Oui. Passe le numéro de PR GitHub : /ultrareview 1234. Le sandbox distant clone la PR directement depuis GitHub. Ça fonctionne pour toute PR GitHub à laquelle tu as accès, y compris les PRs de contributeurs et les repos open-source que tu maintiens.
Qu'est-ce que /ultrareview attrape que /review rate ?
L'exploration parallèle multi-agents attrape des bugs qui nécessitent de tenir plusieurs parties d'un diff en contexte à la fois : des race conditions à travers les frontières de modules, des type mismatches qui ne comptent que quand deux fichiers modifiés interagissent, des erreurs logiques dans le flux de contrôle couvrant plusieurs fonctions. Un agent en passe unique lit le diff séquentiellement. Cinq agents l'explorent depuis différents angles simultanément, puis se vérifient mutuellement.
Ai-je besoin d'un compte GitHub pour utiliser /ultrareview ?
Pour le mode branche (/ultrareview seul), pas besoin de compte GitHub. Claude Code bundle ton arbre de travail local. Pour le mode PR (/ultrareview 1234), un remote github.com sur le repository est obligatoire.
Pourquoi les abonnés Pro et Max n'ont-ils que 3 runs gratuits ?
Anthropic n'a pas donné d'explication officielle. La spéculation communautaire (r/claude) pointe vers un coût de compute backend inhabituellement élevé, certaines théories suggérant que les agents tournent sur un modèle frontier pas encore publié. Le cap à 3 runs même pour les abonnés Max ($200/mois) est largement noté comme inhabituel. La tarification et la disponibilité sont explicitement présentées comme susceptibles de changer puisque la feature est en research preview.
Quelle version de Claude Code faut-il ?
Claude Code v2.1.111 ou ultérieur. Lance claude --version pour vérifier. La doc liste v2.1.86 comme minimum, mais la feature a été introduite dans v2.1.111.
/ultrareview fonctionne-t-il avec des changements non commités ?
Oui. Le mode branche bundle ton arbre de travail complet au moment où tu confirmes, y compris les changements stagés et non stagés. Les changements faits après que tu as confirmé le lancement ne sont pas inclus dans cette revue.
Arrêtez de configurer. Commencez à construire.
Templates SaaS avec orchestration IA.
Tarification et utilisation des tokens Claude Code
Réduis les coûts Claude Code de 40 à 70 % avec le suivi ccusage, la commande /model, /compact et /clear, le mode plan, et le niveau de forfait adapté à ton usage.
Techniques de réflexion approfondie
Des phrases déclencheurs comme think harder, ultrathink et think step by step poussent Claude Code en raisonnement étendu et en plus de calcul au moment du test, même modèle.