Build This Now
Build This Now
O que é o Código Claude?Instalar o Claude CodeInstalador Nativo do Claude CodeO Teu Primeiro Projeto com Claude Code
Melhores Práticas do Claude CodeBoas Práticas para o Claude Opus 4.7Claude Code num VPSIntegração GitRevisão de Código com ClaudeWorktrees no Claude CodeControle Remoto do Claude CodeChannels do Claude CodeTarefas Agendadas no Claude CodePermissões do Claude CodeModo Auto do Claude CodeFeedback LoopsFluxos de Trabalho com TodosTarefas no Claude CodeTemplates de ProjetoPreços e Consumo de Tokens no Claude CodeClaude Code Ultra Review
speedy_devvkoen_salo
Blog/Handbook/Workflow/Claude Code Ultra Review

Claude Code Ultra Review

Uma frota de agentes na nuvem analisa o teu diff em paralelo, verifica cada problema de forma independente, e só te entrega bugs confirmados. O que faz o /ultrareview, quando usar, e quanto custa.

Pare de configurar. Comece a construir.

Templates SaaS com orquestração de IA.

Published Apr 22, 202611 min readHandbook hubWorkflow index

O problema: revisão de código é uma batalha de atenção que costumas perder. Revisores humanos apanham os erros óbvios, mas diffs grandes esgotam o foco rapidamente. Um refactor de 1.500 linhas que toca auth, encriptação e três tabelas de base de dados? O type mismatch subtil na linha 847 passa em silêncio. E vai para produção.

/review ajuda. Um scan de passagem única na tua sessão local apanha bastante coisa. Mas é um agente, uma passagem, sem etapa de verificação. Os resultados são bons. A confiança é menor.

/ultrareview funciona de outra forma. Envia o teu diff para um sandbox na nuvem, lança uma frota de agentes, e passa cada problema encontrado por uma verificação independente antes de te mostrar qualquer coisa. Só chegam até ti os bugs confirmados.

O que o /ultrareview faz de facto

O comando chegou no Claude Code v2.1.111, lançado a 16 de abril de 2026, como research preview. Tens dois modos de invocação:

O modo branch revê o diff entre o teu branch atual e o branch padrão, incluindo tudo o que está uncommitted ou staged:

/ultrareview

O modo PR recebe um número de PR do GitHub. O sandbox remoto clona diretamente do GitHub em vez de empacotar a tua working tree local:

/ultrareview 1234

Usa o modo PR quando o teu repositório é grande demais para empacotar. Faz push do branch, abre um draft PR, e passa o número.

O pipeline de quatro etapas

Cada revisão passa pelas mesmas quatro etapas no sandbox na nuvem:

Setup: A Anthropic provisiona a infraestrutura remota e lança uma frota de sub-agentes. A frota padrão tem 5 agentes. Demora cerca de 90 segundos.

Find: Os agentes exploram caminhos de execução diferentes pelo código alterado em paralelo. Cada um caça de forma independente, por isso race conditions, erros de lógica e type mismatches entre módulos recebem pressão de vários ângulos ao mesmo tempo.

Verify: Um conjunto separado de agentes tenta reproduzir cada problema candidato. Um bug que só um agente sinalizou é desafiado por outro. Se não conseguir ser confirmado de forma independente, não aparece nos resultados.

Dedup: Resultados duplicados de agentes diferentes são fundidos em relatórios únicos e ordenados.

O diálogo de confirmação antes do lançamento mostra o âmbito: número de ficheiros, número de linhas, execuções gratuitas restantes e custo estimado. A revisão só começa depois de confirmares.

As revisões correm em segundo plano. O teu terminal fica livre. Acompanha o progresso com /tasks. Fechar o terminal não é problema. Parar uma revisão a meio arquiva a sessão na nuvem e devolve zero resultados parciais.

Como se compara ao /review

/review/ultrareview
Execuçãolocal, na sessãosandbox remoto na nuvem
Profundidadepassagem únicafrota multi-agente com verificação independente
Duraçãosegundos a poucos minutos5 a 10 minutos (até 20 em PRs grandes)
Custoconta para o uso normalexecuções gratuitas, depois $5 a $20/revisão como extra usage
Ideal parafeedback rápido enquanto iterasconfiança pré-merge em mudanças substanciais

A diferença principal é a etapa de verificação. /review é uma passagem. /ultrareview só te mostra resultados que sobreviveram a um segundo agente a tentar reproduzi-los. É daí que vem a taxa de falsos positivos abaixo de 1%.

Resultados que vale a pena conhecer

A Anthropic rodou isto nos seus próprios PRs antes do lançamento. Os números dos testes internos (via claudefa.st):

MétricaResultado
PRs grandes (1.000+ linhas) com problemas84%, média de 7,5 problemas por revisão
PRs pequenos (menos de 50 linhas) com problemas31%, média de 0,5 problemas
Resultados marcados como incorretos por engenheirosMenos de 1%
PRs com comentários de revisão substantivos (antes vs depois)16% para 54%

Dois exemplos reais. Uma mudança de autenticação de uma linha na Anthropic teria silenciosamente quebrado os fluxos de login. O /ultrareview sinalizou-a como crítica antes do merge. Num refactor de encriptação ZFS no TrueNAS, encontrou um type mismatch que estava a apagar o cache da chave de encriptação em cada sync. O tipo de bug que vive em produção durante meses antes de alguém rastrear as falhas intermitentes até ao commit certo.

Um teste prático num PR de chamadas de voz com 11.000 linhas (via mejba.me): 64 bugs candidatos na etapa Find, um conjunto menor confirmado após o Verify, 17 minutos no total. Race conditions e problemas de gestão de estado entre módulos. O tipo de coisa que uma revisão de passagem única não apanha, porque nenhum agente está simultaneamente a segurar a imagem completa.

Preços

PlanoExecuções gratuitasApós execuções gratuitas
Pro3 (expiram a 5 de maio de 2026)faturado como extra usage
Max3 (expiram a 5 de maio de 2026)faturado como extra usage
Teamnenhumafaturado como extra usage
Enterprisenenhumafaturado como extra usage

Cada revisão custa aproximadamente $5 a $20 dependendo do tamanho do diff. As execuções gratuitas são uma dotação única. Expiram a 5 de maio de 2026, usadas ou não. Sem renovação, sem acumulação.

Antes de executar: confirma que tens extra usage ativo na tua conta. Corre /extra-usage para verificar. Se estiver desativado, o comando bloqueia no arranque. Não podes ativá-lo a partir do diálogo de confirmação.

Requisitos de plataforma

Obrigatório:

  • Claude Code v2.1.111 ou posterior
  • Autenticação com conta Claude.ai (corre /login primeiro se usas só uma API key)
  • Remote GitHub (github.com) no repositório para o modo PR

Não disponível em:

  • Amazon Bedrock
  • Google Cloud Vertex AI
  • Microsoft Foundry
  • Organizações com Zero Data Retention ativado

Estas são exclusões arquiteturais. O /ultrareview requer autenticação com conta Claude.ai e a infraestrutura web da Anthropic. Não existe solução alternativa para equipas em cloud providers geridos.

Quando usar

/ultrareview é revisão pré-merge para mudanças onde a confiança importa. Não é uma auditoria completa da codebase.

Bom para:

  • PRs grandes com mais de ~500 linhas que tocam auth, pagamentos ou infraestrutura
  • Mudanças sensíveis à segurança onde a verificação multi-agente faz diferença
  • Refactors complexos em vários módulos (race conditions, type mismatches entre fronteiras)
  • Rever PRs de contribuidores ou externos passando um número de PR

Não é bom para:

  • Iteração rápida num feature branch (5 a 20 minutos é a ferramenta errada para loops rápidos, usa /review)
  • Auditorias completas da codebase (o âmbito é sempre o diff vs. o teu branch padrão)
  • Mudanças triviais com menos de 50 linhas
  • Pipelines CI/CD (requer sessão interativa e autenticação Claude.ai)
  • Ambientes Bedrock, Vertex, Foundry ou ZDR

O erro mais comum

Esta é a confusão pós-lançamento que gerou a maioria das queixas de "não encontrou nada útil":

/ultrareview revê o diff entre o teu branch e o branch padrão. Não faz scan da tua codebase completa existente.

Uma codebase terminada e totalmente commitada sem mudanças recentes tem quase nenhum diff. Apontar o comando para ela dá um resultado quase vazio. Isso é funcionamento correto. A ferramenta é um revisor pré-merge, não um auditor.

Se queres rever toda a tua codebase, /ultrareview não é a ferramenta certa.

Estratégia de revisão em camadas

Um padrão prático da comunidade (r/ClaudeCode):

Tipo de PRFerramentaPorquê
Todos os PRs/review (menos de 5 minutos)Verificação de fumo sempre ativa
PRs grandes ou críticos (500+ linhas, auth/pagamentos/infra)/ultrareview (10 a 20 minutos)Inspeção profunda pré-merge
Mudanças de infraestrutura (migrações de DB, reescritas de segurança)/ultrareviewMáxima confiança quando a fasquia é mais alta

Pensa no /review como o detetor de fumo. Sempre ativo. Rápido. O /ultrareview é a inspeção que chamas antes de assinar uma mudança estrutural.

Dicas práticas

Corre /extra-usage antes das tuas execuções gratuitas expirarem. Se a faturação não estiver configurada, o comando bloqueia no arranque sem fazer nada.

Faz commit ou stash antes de correr. O modo branch empacota a tua working tree no momento em que confirmas. Mudanças feitas depois do arranque não ficam incluídas nessa revisão.

Quando os resultados aparecem, corrige-os a partir da notificação na mesma sessão. Deixá-los ficar desperdiça o contexto.

Para repositórios que não podem ser empacotados: faz push do branch, abre um draft PR, depois corre /ultrareview <PR-number>. O sandbox clona do GitHub diretamente.

Usa /tasks para acompanhar revisões a correr em segundo plano. Podes fechar o terminal. Volta aos resultados quando quiseres.

O que isto sinaliza

/ultrareview é o segundo comando num padrão. /ultraplan (v2.1.92) moveu o compute pesado de planeamento para a nuvem. /ultrareview (v2.1.111) faz o mesmo para revisão de código. Routines e remote triggers seguem a mesma lógica.

Cada comando com o prefixo "ultra" descarrega uma tarefa de compute pesada da tua sessão local para a infraestrutura da Anthropic. A capacidade (5 a 20 agentes em paralelo com verificação independente) só é possível na nuvem. Nenhum portátil corre 20 agentes num sandbox ao mesmo tempo.

A estrutura de custos reflete isso. Cada comando ultra fatura separadamente como extra usage, fora do compute incluído no teu plano. A subscrição é acesso. O compute na nuvem é medido por cima.

Qual modelo alimenta os agentes não está publicamente confirmado. A especulação da comunidade aponta para agentes de classe Opus para lógica e caça a bugs, com classe Sonnet para violações de estilo. A Anthropic não confirmou os modelos subjacentes.

Merges sem bugs demoram mais a produzir. Demoram menos a depurar em produção. O /ultrareview é onde esses dois factos se encontram.

Perguntas frequentes

O que é o /ultrareview no Claude Code?

/ultrareview é um comando de revisão de código baseado na nuvem no Claude Code. Lança uma frota de agentes num sandbox remoto que se distribuem pelo teu diff de branch, caçam bugs em paralelo, e verificam cada resultado de forma independente antes de o mostrar. Só chegam bugs confirmados. Chegou no Claude Code v2.1.111 a 16 de abril de 2026.

Quanto custa o /ultrareview?

Cada revisão custa aproximadamente $5 a $20 dependendo do tamanho do diff, faturado como extra usage fora do teu plano. Subscritores Pro e Max têm 3 execuções gratuitas que expiram a 5 de maio de 2026. Team e Enterprise não têm execuções gratuitas. As revisões faturam sempre separadamente do compute incluído no plano.

O /ultrareview é gratuito?

Subscritores Pro e Max têm 3 execuções gratuitas (expiram a 5 de maio de 2026, usadas ou não). Depois disso, cada revisão fatura como extra usage a $5 a $20 por revisão. Os planos Team e Enterprise não têm nível gratuito.

Qual é a diferença entre /review e /ultrareview?

/review faz um scan de passagem única localmente na tua sessão Claude Code. /ultrareview envia o teu diff para um sandbox na nuvem, corre 5 a 20 agentes em paralelo, e depois passa cada resultado candidato por um agente de verificação independente antes de o mostrar. /review demora segundos. /ultrareview demora 5 a 20 minutos. /review conta para o uso normal do plano. /ultrareview fatura como extra usage.

Quanto tempo demora o /ultrareview?

A maioria das revisões termina em 5 a 10 minutos. PRs muito grandes (o teste mejba.me num diff de 11.000 linhas) demorou 17 minutos. Conta até 20 minutos nos diffs maiores.

Qual é a precisão do /ultrareview?

Nos testes internos da Anthropic, os engenheiros marcaram menos de 1% dos resultados como incorretos. Em PRs com mais de 1.000 linhas, 84% das revisões devolvem resultados com uma média de 7,5 problemas cada. A baixa taxa de falsos positivos vem da etapa Verify, onde agentes separados tentam reproduzir de forma independente cada bug candidato antes de ele aparecer.

Por que é que o /ultrareview não encontrou nada útil na minha codebase?

/ultrareview só revê o diff entre o teu branch atual e o branch padrão. Não faz scan da tua codebase completa. Se o correste numa codebase terminada e totalmente commitada sem mudanças recentes, há quase nenhum diff para rever. A ferramenta é um revisor pré-merge, não um auditor de codebase.

O /ultrareview consegue rever toda a minha codebase?

Não. O âmbito é sempre o diff entre o teu branch e o branch padrão. Apanha bugs em código que estás prestes a fazer merge, não em código que já está na main. Para uma auditoria completa da codebase, precisas de uma abordagem diferente.

O /ultrareview funciona no Amazon Bedrock ou Google Vertex AI?

Não. O /ultrareview requer autenticação com conta Claude.ai e corre na infraestrutura web da Anthropic. Não está disponível no Bedrock, Vertex AI, Microsoft Foundry, ou em organizações com Zero Data Retention ativado. Não existe solução alternativa.

Que plano Claude Code preciso para o /ultrareview?

Qualquer plano pode usar /ultrareview desde que tenha extra usage ativo na conta. Subscritores Pro e Max têm 3 execuções gratuitas. Utilizadores Team e Enterprise pagam por revisão desde o início. A funcionalidade não está limitada a Team ou Enterprise (ao contrário do Claude Code Review, o produto integrado no GitHub).

Como ativo o extra usage para o /ultrareview?

Corre /extra-usage no Claude Code. Se extra usage ainda não estiver ativo, esse comando leva-te às definições de faturação. Tens de o ativar antes de correr /ultrareview. O comando bloqueia no arranque se extra usage estiver desativado, e não consegues ativá-lo a partir do diálogo de confirmação a meio do fluxo.

O /ultrareview funciona em pipelines CI/CD?

Não. Requer uma sessão interativa Claude Code com autenticação de conta Claude.ai. Execuções de pipelines automatizadas não são suportadas.

O que acontece se parar o /ultrareview a meio?

A sessão na nuvem arquiva e recebes zero resultados parciais. Se uma revisão de 17 minutos estiver nos 10 minutos quando a paras, não volta nada. Deixa-a terminar.

Quantos agentes usa o /ultrareview?

A frota padrão tem 5 agentes. A configuração suporta até 20, mas se tamanhos de frota maiores são configuráveis pelo utilizador ou restritos por nível não está publicamente documentado.

Posso rever o pull request de outra pessoa com o /ultrareview?

Sim. Passa o número do PR do GitHub: /ultrareview 1234. O sandbox remoto clona o PR diretamente do GitHub. Funciona para qualquer PR do GitHub a que tens acesso, incluindo PRs de contribuidores e repositórios open-source que manténs.

O que é que o /ultrareview apanha que o /review não apanha?

A exploração paralela multi-agente apanha bugs que requerem manter várias partes de um diff em contexto ao mesmo tempo: race conditions entre módulos, type mismatches que só importam quando dois ficheiros alterados interagem, erros de lógica em control flow que abrangem várias funções. Um agente de passagem única lê o diff sequencialmente. Cinco agentes exploram-no de ângulos diferentes em simultâneo e depois verificam uns os outros.

Preciso de uma conta GitHub para usar o /ultrareview?

Para o modo branch (/ultrareview sem argumentos), não precisas de conta GitHub. O Claude Code empacota a tua working tree local. Para o modo PR (/ultrareview 1234), é necessário um remote github.com no repositório.

Por que é que os subscritores Pro e Max só têm 3 execuções gratuitas?

A Anthropic não deu uma explicação oficial. A especulação da comunidade (r/claude) aponta para um custo de compute de backend invulgarmente alto, com algumas teorias a sugerir que os agentes correm num modelo frontier ainda não lançado publicamente. O limite de 3 execuções mesmo para subscritores Max ($200/mês) é amplamente notado como incomum. Preços e disponibilidade estão explicitamente marcados como sujeitos a alteração, dado que a funcionalidade está em research preview.

Que versão do Claude Code preciso?

Claude Code v2.1.111 ou posterior. Corre claude --version para verificar. A documentação lista v2.1.86 como mínimo, mas a funcionalidade foi introduzida na v2.1.111.

O /ultrareview funciona com mudanças não commitadas?

Sim. O modo branch empacota a tua working tree completa no momento em que confirmas, incluindo mudanças staged e unstaged. Mudanças feitas depois de confirmares o arranque não ficam incluídas nessa revisão.

Continue in Workflow

  • Melhores Práticas do Claude Code
    Cinco hábitos separam os engenheiros que entregam com Claude Code: PRDs, regras modulares em CLAUDE.md, slash commands personalizados, resets com /clear e uma mentalidade de evolução do sistema.
  • Modo Auto do Claude Code
    Um segundo modelo Sonnet revê cada chamada de ferramenta do Claude Code antes de ser executada. O que o modo auto bloqueia, o que permite e as regras de permissão que cria nas tuas definições.
  • Channels do Claude Code
    Liga o Claude Code ao Telegram, Discord ou iMessage com plugins MCP. Walkthroughs de configuração e os fluxos de trabalho assíncronos e mobile-first que tornam a ligação válida.
  • Boas Práticas para o Claude Opus 4.7
    Como tirar partido do Claude Opus 4.7 no Claude Code: primeiras mensagens, níveis de esforço, pensamento adaptativo, uso de ferramentas, subagentes, reinícios de sessão e controlo de tokens.
  • Revisão de Código com Claude
    Agentes Claude em paralelo caçam bugs em cada PR, cruzam resultados e publicam um único comentário com sinal alto. O que encontra, quanto custa, como ativar.
  • Feedback Loops
    Passe para o Claude Code um prompt que escreve código, roda o seu teste ou comando de dev, lê a saída, corrige o que quebra e faz loop até a suite ficar verde.

More from Handbook

  • Fundamentos do agente
    Cinco maneiras de criar agentes especializados no Código Claude: Sub-agentes de tarefas, .claude/agents YAML, comandos de barra personalizados, personas CLAUDE.md e prompts de perspetiva.
  • Engenharia de Harness para Agentes
    O harness é cada camada ao redor do seu agente de IA, exceto o modelo em si. Aprenda os cinco pontos de controle, o paradoxo das restrições, e por que o design do harness determina o desempenho do agente mais do que o modelo.
  • Padrões de Agentes
    Orchestrator, fan-out, cadeia de validação, routing especializado, refinamento progressivo e watchdog. Seis formas de orquestração para ligar sub-agentes no Claude Code.
  • Boas Práticas para Equipas de Agentes
    Padrões testados em produção para Equipas de Agentes Claude Code. Prompts de criação ricos em contexto, tarefas bem dimensionadas, posse de ficheiros, modo delegado, e correções das versões v2.1.33-v2.1.45.

Pare de configurar. Comece a construir.

Templates SaaS com orquestração de IA.

Preços e Consumo de Tokens no Claude Code

Corta os custos do Claude Code em 40-70% com o ccusage para tracking, /model para mudar de modelo, /compact e /clear, modo de planeamento e o plano que encaixa no teu workload.

Técnicas de Pensamento Profundo

Frases de gatilho como think harder, ultrathink e think step by step empurram o Claude Code para raciocínio expandido e mais computação em tempo de inferência, no mesmo modelo.

On this page

O que o /ultrareview faz de facto
O pipeline de quatro etapas
Como se compara ao /review
Resultados que vale a pena conhecer
Preços
Requisitos de plataforma
Quando usar
O erro mais comum
Estratégia de revisão em camadas
Dicas práticas
O que isto sinaliza
Perguntas frequentes
O que é o /ultrareview no Claude Code?
Quanto custa o /ultrareview?
O /ultrareview é gratuito?
Qual é a diferença entre /review e /ultrareview?
Quanto tempo demora o /ultrareview?
Qual é a precisão do /ultrareview?
Por que é que o /ultrareview não encontrou nada útil na minha codebase?
O /ultrareview consegue rever toda a minha codebase?
O /ultrareview funciona no Amazon Bedrock ou Google Vertex AI?
Que plano Claude Code preciso para o /ultrareview?
Como ativo o extra usage para o /ultrareview?
O /ultrareview funciona em pipelines CI/CD?
O que acontece se parar o /ultrareview a meio?
Quantos agentes usa o /ultrareview?
Posso rever o pull request de outra pessoa com o /ultrareview?
O que é que o /ultrareview apanha que o /review não apanha?
Preciso de uma conta GitHub para usar o /ultrareview?
Por que é que os subscritores Pro e Max só têm 3 execuções gratuitas?
Que versão do Claude Code preciso?
O /ultrareview funciona com mudanças não commitadas?

Pare de configurar. Comece a construir.

Templates SaaS com orquestração de IA.