Build This Now
Build This Now
Qu'est-ce que le code Claude ?Installer Claude CodeL'installateur natif de Claude CodeTon premier projet Claude Code
Bonnes pratiques Claude CodeMeilleures pratiques pour Claude Opus 4.7Claude Code sur un VPSIntégration GitRevue de code avec Claude CodeLes Worktrees avec Claude CodeClaude Code à distanceClaude Code ChannelsTâches planifiées avec Claude CodePermissions Claude CodeLe mode auto de Claude CodeFeedback LoopsWorkflows TodoGestion des tâches dans Claude CodeTemplates de projetTarification et utilisation des tokens Claude CodeClaude Code Ultra Review
speedy_devvkoen_salo
Blog/Handbook/Workflow/Claude Code Ultra Review

Claude Code Ultra Review

Une flotte d'agents cloud parcourt ton diff en parallèle, vérifie chaque trouvaille de manière indépendante, et ne remonte que les vrais bugs. Ce que fait /ultrareview, quand l'utiliser, et ce que ça coûte.

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.

Published Apr 22, 202611 min readHandbook hubWorkflow index

Le problème : la revue de code, c'est un jeu de chiffres avec de mauvaises chances. Les reviewers humains repèrent les erreurs évidentes, mais un gros diff épuise l'attention vite. Un refactor de 1 500 lignes qui touche l'auth, le chiffrement, et trois tables de base de données ? Le type mismatch subtil à la ligne 847 passe inaperçu. Ça part en prod.

/review aide. Un scan en passe unique dans ta session locale attrape beaucoup de choses. Mais un seul agent, une seule passe, aucune étape de vérification. Les trouvailles sont bonnes. La confiance est moins élevée.

/ultrareview fonctionne autrement. La commande envoie ton diff dans un sandbox cloud, démarre une flotte d'agents, et fait passer chaque trouvaille par une vérification indépendante avant de la remonter. Seuls les bugs confirmés reviennent.

Ce que /ultrareview fait vraiment

La commande est disponible depuis Claude Code v2.1.111, lancé le 16 avril 2026 en research preview. Deux modes d'utilisation :

Le mode branche passe en revue le diff entre ta branche courante et la branche par défaut, y compris les changements non commités ou en staging :

/ultrareview

Le mode PR prend un numéro de PR GitHub. Le sandbox distant clone directement depuis GitHub au lieu de bundler ton arbre de travail local :

/ultrareview 1234

Utilise le mode PR quand ton repo est trop gros pour être bundlé. Push la branche, ouvre une draft PR, puis passe le numéro.

Le pipeline en quatre étapes

Chaque revue passe par les mêmes quatre étapes dans le sandbox cloud :

Setup : Anthropic provisionne l'infrastructure distante et démarre la flotte de sous-agents. La flotte par défaut est de 5 agents. Ça prend environ 90 secondes.

Find : Les agents explorent différents chemins d'exécution dans le code modifié en parallèle. Chacun cherche de son côté, donc les race conditions, les erreurs logiques, et les type mismatches inter-modules subissent une pression depuis plusieurs angles à la fois.

Verify : Un second groupe d'agents tente de reproduire chaque trouvaille candidate. Un bug signalé par un seul agent est challengé par un autre. S'il ne peut pas être confirmé indépendamment, il ne remonte pas.

Dedup : Les trouvailles dupliquées issues de différents agents sont fusionnées en rapports uniques classés par importance.

La boîte de confirmation avant le lancement montre la portée : nombre de fichiers, nombre de lignes, runs gratuits restants, et coût estimé. La revue ne démarre qu'après ta confirmation.

Les revues tournent en tâche de fond. Ton terminal reste libre. Suis la progression avec /tasks. Fermer le terminal n'est pas un problème. Arrêter une revue en cours archive la session cloud et ne renvoie aucune trouvaille partielle.

Comparaison avec /review

/review/ultrareview
Exécutionlocale, en sessionsandbox cloud distant
Profondeurpasse uniqueflotte multi-agents avec vérification indépendante
Duréequelques secondes à quelques minutes5 à 10 minutes (jusqu'à 20 sur les grosses PRs)
Coûtcompte dans l'usage normalruns gratuits, puis $5 à $20/revue en extra usage
Idéal pourfeedback rapide pendant l'itérationconfiance pré-merge sur des changements importants

La vraie différence, c'est l'étape de vérification. /review fait une passe. /ultrareview ne remonte que les trouvailles qui ont survécu à un second agent cherchant à les reproduire. C'est là que vient le taux de faux positifs inférieur à 1 %.

Des résultats qui valent le coup d'oeil

Anthropic a testé ça sur ses propres PRs avant le lancement. Les chiffres des tests internes (via claudefa.st) :

MétriqueRésultat
Grosses PRs (1 000+ lignes) avec des trouvailles84%, en moyenne 7,5 problèmes par revue
Petites PRs (moins de 50 lignes) avec des trouvailles31%, en moyenne 0,5 problème
Trouvailles jugées incorrectes par les ingénieursMoins de 1 %
PRs avec commentaires de revue substantiels (avant vs après)16 % à 54 %

Deux exemples réels. Un changement d'authentification d'une seule ligne chez Anthropic aurait silencieusement cassé les flux de connexion. /ultrareview l'a signalé comme critique avant le merge. Dans un refactor de chiffrement ZFS sur TrueNAS, il a détecté un type mismatch qui effaçait le cache de clé de chiffrement à chaque synchronisation. Le genre de bug qui vit en production des mois avant que quelqu'un remonte jusqu'au bon commit.

Un test pratique sur une PR de 11 000 lignes pour la voix (via mejba.me) : 64 bugs candidats à l'étape Find, un ensemble confirmé plus petit après Verify, 17 minutes au total. Des race conditions et des problèmes de gestion d'état à travers les frontières de modules. Des choses qu'une revue en passe unique rate parce qu'aucun agent ne peut tenir l'image complète en même temps.

Tarification

PlanRuns gratuitsAprès les runs gratuits
Pro3 (expirent le 5 mai 2026)facturés en extra usage
Max3 (expirent le 5 mai 2026)facturés en extra usage
Teamaucunfacturés en extra usage
Enterpriseaucunfacturés en extra usage

Chaque revue coûte environ $5 à $20 selon la taille du diff. Les runs gratuits sont une allocation unique. Ils expirent le 5 mai 2026 qu'ils soient utilisés ou non. Pas de renouvellement, pas de report.

Avant de lancer : vérifie que l'extra usage est activé sur ton compte. Lance /extra-usage pour vérifier. Si l'extra usage est désactivé, la feature bloque au lancement. Tu ne peux pas l'activer depuis la boîte de confirmation.

Prérequis

Obligatoires :

  • Claude Code v2.1.111 ou ultérieur
  • Authentification via compte Claude.ai (lance /login d'abord si tu utilises uniquement une clé API)
  • Remote GitHub (github.com) sur le repo pour le mode PR

Pas disponible sur :

  • Amazon Bedrock
  • Google Cloud Vertex AI
  • Microsoft Foundry
  • Organisations avec Zero Data Retention activé

Ce sont des exclusions architecturales. /ultrareview nécessite l'authentification via compte Claude.ai et l'infrastructure web d'Anthropic. Aucun contournement n'existe pour les équipes sur des cloud providers gérés.

Quand l'utiliser

/ultrareview sert à la revue pré-merge sur des changements où la confiance compte. Ce n'est pas un audit complet de codebase.

Bien adapté :

  • Grosses PRs de plus de ~500 lignes touchant l'auth, les paiements, ou l'infrastructure
  • Changements sensibles à la sécurité où la vérification multi-agents compte
  • Refactors complexes sur plusieurs modules (race conditions, type mismatches inter-frontières)
  • Revue de PRs de contributeurs ou externes en passant un numéro de PR

Pas adapté :

  • Itération rapide sur une branche de feature (5 à 20 minutes, c'est le mauvais outil pour les boucles rapides, utilise /review)
  • Audits complets de codebase (la portée est toujours le diff par rapport à ta branche par défaut)
  • Changements triviaux de moins de 50 lignes
  • Pipelines CI/CD (nécessite une session interactive et l'auth Claude.ai)
  • Environnements Bedrock, Vertex, Foundry, ou ZDR

L'erreur la plus courante

C'est la confusion post-lancement qui a produit la plupart des plaintes du style "ça n'a rien trouvé d'utile" :

/ultrareview passe en revue le diff entre ta branche et la branche par défaut. Il ne scanne pas toute ta codebase existante.

Une codebase terminée, entièrement commitée, sans changements récents, a presque aucun diff. Pointer la commande dessus donne un résultat quasi vide. C'est le comportement attendu. L'outil est un reviewer pré-merge, pas un auditeur.

Si tu veux passer en revue toute ta codebase, /ultrareview n'est pas le bon outil.

Stratégie de revue par niveaux

Un schéma pratique venant de la communauté (r/ClaudeCode) :

Type de PROutilPourquoi
Toutes les PRs/review (moins de 5 minutes)Check de fumée permanent
Grosses PRs ou critiques (500+ lignes, auth/paiements/infra)/ultrareview (10 à 20 minutes)Inspection approfondie pré-merge
Changements d'infrastructure (migrations DB, réécriture sécurité)/ultrareviewConfiance maximale quand les enjeux sont élevés

Pense à /review comme au détecteur de fumée. Toujours actif. Rapide. /ultrareview c'est l'inspection que tu commandes avant de signer un changement structurel.

Conseils pratiques

Lance /extra-usage avant que tes runs gratuits n'expirent. Si la facturation n'est pas configurée, la feature bloque au lancement sans rien faire.

Commite ou stash avant de lancer. Le mode branche bundle ton arbre de travail au moment où tu confirmes. Les changements faits après le lancement ne sont pas inclus.

Quand les trouvailles apparaissent, corrige-les depuis la notification dans la même session. Les laisser traîner gâche le contexte.

Pour les repos qui ne peuvent pas être bundlés : push la branche, ouvre une draft PR, puis lance /ultrareview <PR-number>. Le sandbox clone directement depuis GitHub.

Utilise /tasks pour suivre les revues qui tournent en arrière-plan. Tu peux fermer le terminal. Reviens pour les résultats.

Ce que ça signale

/ultrareview est la deuxième commande d'un pattern. /ultraplan (v2.1.92) a déplacé le calcul intensif de planification vers le cloud. /ultrareview (v2.1.111) fait la même chose pour la revue de code. Les routines et les déclencheurs distants suivent la même logique.

Chaque commande avec le préfixe "ultra" délègue une tâche de calcul lourde de ta session locale vers l'infrastructure hébergée par Anthropic. La capacité (5 à 20 agents en parallèle avec vérification indépendante) n'est accessible que dans le cloud. Aucun ordinateur portable ne fait tourner 20 agents dans un sandbox simultanément.

La structure de coût reflète ça. Chaque commande ultra facture séparément en extra usage, en dehors du compute inclus dans ton plan. L'abonnement, c'est l'accès. Le compute cloud est compté en plus.

Quel modèle fait tourner les agents n'est pas confirmé publiquement. La spéculation communautaire pointe vers des agents de classe Opus pour la logique et la chasse aux bugs, et Sonnet pour les violations de style. Anthropic n'a pas confirmé les modèles sous-jacents.

Des merges sans bugs prennent plus de temps à produire. Ils prennent moins de temps à déboguer en production. /ultrareview c'est là où ces deux réalités se rencontrent.

Questions fréquentes

C'est quoi /ultrareview dans Claude Code ?

/ultrareview est une commande de revue de code basée sur le cloud dans Claude Code. Elle lance une flotte d'agents dans un sandbox distant qui se répartissent sur le diff de ta branche, cherchent des bugs en parallèle, et vérifient chaque trouvaille de manière indépendante avant de la remonter. Seuls les bugs confirmés reviennent. Lancée dans Claude Code v2.1.111 le 16 avril 2026.

Combien coûte /ultrareview ?

Chaque revue coûte environ $5 à $20 selon la taille du diff, facturée en extra usage hors plan. Les abonnés Pro et Max ont 3 runs gratuits expirant le 5 mai 2026. Team et Enterprise n'ont pas de runs gratuits. Les revues sont toujours facturées séparément du compute inclus dans ton plan.

/ultrareview est-il gratuit ?

Les abonnés Pro et Max ont 3 runs gratuits (expirant le 5 mai 2026, qu'ils soient utilisés ou non). Après ça, chaque revue est facturée en extra usage à $5–$20 par revue. Les plans Team et Enterprise n'ont pas de palier gratuit.

Quelle est la différence entre /review et /ultrareview ?

/review fait un scan en passe unique localement dans ta session Claude Code. /ultrareview envoie ton diff dans un sandbox cloud, fait tourner 5 à 20 agents en parallèle, puis passe chaque trouvaille candidate par un agent de vérification indépendant avant de la remonter. /review prend quelques secondes. /ultrareview prend 5 à 20 minutes. /review compte dans l'usage normal du plan. /ultrareview se facture en extra usage.

Combien de temps prend /ultrareview ?

La plupart des revues se terminent en 5 à 10 minutes. Les très grosses PRs (le test mejba.me sur un diff de 11 000 lignes) ont pris 17 minutes. Compte jusqu'à 20 minutes sur les plus gros diffs.

Quelle est la précision de /ultrareview ?

Dans les tests internes d'Anthropic, les ingénieurs ont marqué moins de 1 % des trouvailles comme incorrectes. Sur les PRs de plus de 1 000 lignes, 84 % des revues remontent des trouvailles, en moyenne 7,5 problèmes chacune. Le faible taux de faux positifs vient de l'étape Verify, où des agents séparés tentent de reproduire chaque bug candidat de manière indépendante avant qu'il ne remonte.

Pourquoi /ultrareview n'a rien trouvé d'utile sur ma codebase ?

/ultrareview ne passe en revue que le diff entre ta branche courante et la branche par défaut. Il ne scanne pas toute ta codebase existante. Si tu l'as lancé sur une codebase terminée, entièrement commitée, sans changements récents, il y a presque aucun diff à revoir. C'est le comportement prévu. L'outil est un reviewer pré-merge, pas un auditeur de codebase.

/ultrareview peut-il passer en revue toute ma codebase ?

Non. La portée est toujours le diff entre ta branche et la branche par défaut. Il attrape les bugs dans le code que tu t'apprêtes à merger, pas dans le code déjà sur main. Pour un audit complet de codebase, il te faut une autre approche.

/ultrareview fonctionne-t-il sur Amazon Bedrock ou Google Vertex AI ?

Non. /ultrareview nécessite l'authentification via compte Claude.ai et tourne sur l'infrastructure web d'Anthropic. Pas disponible sur Bedrock, Vertex AI, Microsoft Foundry, ou les organisations avec Zero Data Retention activé. Aucun contournement n'existe.

Quel plan Claude Code faut-il pour /ultrareview ?

N'importe quel plan peut utiliser /ultrareview tant que l'extra usage est activé sur le compte. Les abonnés Pro et Max ont 3 runs gratuits. Les utilisateurs Team et Enterprise paient par revue dès le départ. La feature n'est pas limitée aux plans Team ou Enterprise (contrairement à Claude Code Review, le produit intégré à GitHub).

Comment activer l'extra usage pour /ultrareview ?

Lance /extra-usage dans Claude Code. Si l'extra usage n'est pas déjà activé, cette commande te redirige vers les paramètres de facturation. Tu dois l'activer avant de lancer /ultrareview. La feature bloque au lancement si l'extra usage est désactivé, et tu ne peux pas l'activer depuis la boîte de confirmation en plein flux.

/ultrareview peut-il tourner dans des pipelines CI/CD ?

Non. Il nécessite une session Claude Code interactive avec l'authentification via compte Claude.ai. Les exécutions automatisées en pipeline ne sont pas supportées.

Que se passe-t-il si j'arrête /ultrareview en cours d'exécution ?

La session cloud s'archive et tu récupères zéro trouvaille partielle. Si une revue de 17 minutes en est à 10 minutes quand tu l'arrêtes, rien ne revient. Laisse-la finir.

Combien d'agents /ultrareview utilise-t-il ?

La flotte par défaut est de 5 agents. La configuration supporte jusqu'à 20, bien que la possibilité de configurer une flotte plus grande soit utilisateur ou limitée par palier n'est pas documentée publiquement.

Puis-je passer en revue la pull request de quelqu'un d'autre avec /ultrareview ?

Oui. Passe le numéro de PR GitHub : /ultrareview 1234. Le sandbox distant clone la PR directement depuis GitHub. Ça fonctionne pour toute PR GitHub à laquelle tu as accès, y compris les PRs de contributeurs et les repos open-source que tu maintiens.

Qu'est-ce que /ultrareview attrape que /review rate ?

L'exploration parallèle multi-agents attrape des bugs qui nécessitent de tenir plusieurs parties d'un diff en contexte à la fois : des race conditions à travers les frontières de modules, des type mismatches qui ne comptent que quand deux fichiers modifiés interagissent, des erreurs logiques dans le flux de contrôle couvrant plusieurs fonctions. Un agent en passe unique lit le diff séquentiellement. Cinq agents l'explorent depuis différents angles simultanément, puis se vérifient mutuellement.

Ai-je besoin d'un compte GitHub pour utiliser /ultrareview ?

Pour le mode branche (/ultrareview seul), pas besoin de compte GitHub. Claude Code bundle ton arbre de travail local. Pour le mode PR (/ultrareview 1234), un remote github.com sur le repository est obligatoire.

Pourquoi les abonnés Pro et Max n'ont-ils que 3 runs gratuits ?

Anthropic n'a pas donné d'explication officielle. La spéculation communautaire (r/claude) pointe vers un coût de compute backend inhabituellement élevé, certaines théories suggérant que les agents tournent sur un modèle frontier pas encore publié. Le cap à 3 runs même pour les abonnés Max ($200/mois) est largement noté comme inhabituel. La tarification et la disponibilité sont explicitement présentées comme susceptibles de changer puisque la feature est en research preview.

Quelle version de Claude Code faut-il ?

Claude Code v2.1.111 ou ultérieur. Lance claude --version pour vérifier. La doc liste v2.1.86 comme minimum, mais la feature a été introduite dans v2.1.111.

/ultrareview fonctionne-t-il avec des changements non commités ?

Oui. Le mode branche bundle ton arbre de travail complet au moment où tu confirmes, y compris les changements stagés et non stagés. Les changements faits après que tu as confirmé le lancement ne sont pas inclus dans cette revue.

Continue in Workflow

  • Bonnes pratiques Claude Code
    Cinq habitudes séparent les ingénieurs qui livrent avec Claude Code : les PRDs, les règles CLAUDE.md modulaires, les slash commands personnalisés, les resets /clear, et un état d'esprit d'évolution du système.
  • Le mode auto de Claude Code
    Un second modèle Sonnet examine chaque appel d'outil Claude Code avant qu'il s'exécute. Ce que le mode auto bloque, ce qu'il autorise, et les règles d'autorisation qu'il place dans tes paramètres.
  • Claude Code Channels
    Connecte Claude Code à Telegram, Discord ou iMessage avec des serveurs MCP plugin. Walkthroughs de setup et workflows mobiles async qui valent la peine d'être configurés.
  • Meilleures pratiques pour Claude Opus 4.7
    Utilise Claude Opus 4.7 efficacement dans Claude Code : premiers tours, réglages d'effort, pensée adaptative, prompts d'outils, sous-agents, gestion de session et contrôle des tokens.
  • Revue de code avec Claude Code
    Des agents Claude parallèles traquent les bugs sur chaque PR, croisent leurs résultats, et publient un seul commentaire à fort signal. Ce qu'ils trouvent, ce que ça coûte, comment l'activer.
  • Feedback Loops
    Donne à Claude Code un seul prompt qui écrit du code, lance ta commande de test ou de dev, lit la sortie, corrige ce qui casse, et boucle jusqu'à ce que la suite soit au vert.

More from Handbook

  • Principes de base de l'agent
    Cinq façons de construire des agents spécialisés dans le code Claude : Sous-agents de tâches, .claude/agents YAML, commandes slash personnalisées, personas CLAUDE.md, et invites de perspective.
  • L'ingénierie du harness agent
    Le harness, c'est toutes les couches autour de ton agent IA sauf le modèle lui-même. Découvre les cinq leviers de contrôle, le paradoxe des contraintes, et pourquoi le design du harness détermine les performances de l'agent bien plus que le modèle.
  • Patterns d'agents
    Orchestrateur, fan-out, chaîne de validation, routage par spécialiste, raffinement progressif, et watchdog. Six formes d'orchestration pour câbler des sub-agents Claude Code.
  • Meilleures pratiques des équipes d'agents
    Patterns éprouvés pour les équipes d'agents Claude Code. Prompts de création riches en contexte, tâches bien calibrées, propriété des fichiers, mode délégué, et correctifs v2.1.33-v2.1.45.

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.

Tarification et utilisation des tokens Claude Code

Réduis les coûts Claude Code de 40 à 70 % avec le suivi ccusage, la commande /model, /compact et /clear, le mode plan, et le niveau de forfait adapté à ton usage.

Techniques de réflexion approfondie

Des phrases déclencheurs comme think harder, ultrathink et think step by step poussent Claude Code en raisonnement étendu et en plus de calcul au moment du test, même modèle.

On this page

Ce que /ultrareview fait vraiment
Le pipeline en quatre étapes
Comparaison avec /review
Des résultats qui valent le coup d'oeil
Tarification
Prérequis
Quand l'utiliser
L'erreur la plus courante
Stratégie de revue par niveaux
Conseils pratiques
Ce que ça signale
Questions fréquentes
C'est quoi /ultrareview dans Claude Code ?
Combien coûte /ultrareview ?
/ultrareview est-il gratuit ?
Quelle est la différence entre /review et /ultrareview ?
Combien de temps prend /ultrareview ?
Quelle est la précision de /ultrareview ?
Pourquoi /ultrareview n'a rien trouvé d'utile sur ma codebase ?
/ultrareview peut-il passer en revue toute ma codebase ?
/ultrareview fonctionne-t-il sur Amazon Bedrock ou Google Vertex AI ?
Quel plan Claude Code faut-il pour /ultrareview ?
Comment activer l'extra usage pour /ultrareview ?
/ultrareview peut-il tourner dans des pipelines CI/CD ?
Que se passe-t-il si j'arrête /ultrareview en cours d'exécution ?
Combien d'agents /ultrareview utilise-t-il ?
Puis-je passer en revue la pull request de quelqu'un d'autre avec /ultrareview ?
Qu'est-ce que /ultrareview attrape que /review rate ?
Ai-je besoin d'un compte GitHub pour utiliser /ultrareview ?
Pourquoi les abonnés Pro et Max n'ont-ils que 3 runs gratuits ?
Quelle version de Claude Code faut-il ?
/ultrareview fonctionne-t-il avec des changements non commités ?

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.