Otimização da velocidade
A seleção do modelo, o tamanho do contexto e a especificidade do pedido são as três alavancas que decidem a rapidez com que o Código Claude responde. /modelo de haiku, /compacto, e /claro coberto.
Pare de configurar. Comece a construir.
Templates SaaS com orquestração de IA.
Problema: Todas as solicitações ficam pendentes e demoram a responder. As respostas demoram a chegar quando precisas delas em segundos.
Solução rápida: Muda para um modelo mais leve. Digita /model haiku a meio da sessão e a próxima resposta chega mais depressa. O Haiku lida com questões de sintaxe, explicações rápidas e geração de pequenos trechos de código.
A abordagem do multiplicador de velocidade
A maior parte da espera não se deve ao modelo ser lento. É a sessão que está mal configurada. Três parâmetros que já controlas determinam a rapidez com que uma resposta chega: qual o modelo que escolheste, qual o tamanho do contexto e quão preciso é o prompt.
Respostas rápidas mantêm-te no fluxo. As lentas tiram-te de lá.
Fatores que aumentam o tempo de resposta
Contexto inchado: cada vez que é a tua vez, acumulas mais tokens para o Claude processar. Sessões longas acumulam histórico, e cada resposta fica mais pesada.
Incompatibilidade do modelo: Usar o Sonnet para uma frase curta é como ir de camião até à loja da esquina. Adapta o motor à tarefa.
Prompts vagos: «Ajuda-me com este código» obriga a adivinhar. Explica bem o que queres e a resposta chega mais rápido.
O processo de otimização de velocidade em 3 etapas
Fase 1: Estratégia de seleção do modelo
Adapta o teu modelo à complexidade da tarefa usando comandos de barra a meio da sessão:
/model haiku # Quick questions, syntax help, simple edits
/model sonnet # Complex refactoring, architecture decisionsMuda para o Haiku para as coisas rápidas. Volta ao modelo original quando o raciocínio for importante. Sem reiniciar.
Fase 2: Gestão do contexto
Mantém o teu contexto simples para respostas mais rápidas:
/compact # Compress conversation history when it grows large
/clear # Start fresh when switching to unrelated tasksRecorre ao /compact assim que as respostas começarem a demorar. Ele resume o histórico num resumo, mantendo o que é importante, para que a carga de tokens por turno diminua.
Rodada 3: Escreve prompts específicos
A otimização mais rápida não precisa de comandos. Basta um prompt mais preciso:
Lento: "Corrige esta função" Rápido: "Adiciona uma verificação de null para o parâmetro user em handleSubmit"
Lento: «Ajuda-me com a base de dados» Rápido: «Escreve uma consulta Prisma para buscar os utilizadores com as suas publicações, ordenadas por createdAt desc»
Prompts precisos acabam com a ronda do "espera, o que queres dizer?". Só isso, muitas vezes, reduz pela metade toda a troca de mensagens.
Técnicas avançadas de velocidade
Sessões paralelas: Abre dois terminais quando as tarefas não se cruzam. Frontend num. Backend no outro.
Agrupa tarefas relacionadas: Um comando pode realizar três tarefas de uma só vez:
"In the UserProfile component:
1. Add loading state
2. Handle the error case
3. Add the avatar upload button"Padrões CLAUDE.md: Coloca as convenções recorrentes do projeto no CLAUDE.md. O Claude carrega o ficheiro sozinho, por isso deixas de ter de explicar as mesmas regras repetidamente.
Aliases do Shell: Cria atalhos para fluxos de trabalho comuns:
alias cc="claude"
alias cch="claude --model haiku"O equilíbrio entre custo e velocidade
O ajuste para aumentar a velocidade reduz a conta ao mesmo tempo. Respostas mais rápidas geralmente significam:
- Menos tokens cobrados graças a um contexto focado
- Menor gasto com modelos quando o Haiku faz o trabalho fácil
- Mais resultados por cada euro
- O contexto deixa de se acumular entre turnos
Adquire estes hábitos logo no início. A diferença em relação a uma configuração mais lenta continua a aumentar.
Quando a velocidade é o que mais importa
Ciclos de feedback curtos: a depuração depende da latência. Cada segundo poupado conta quando estás preso ao problema.
Fase de exploração: A experimentar diferentes ângulos? Respostas rápidas dão-te mais ousadia. Cinco ideias em vez de duas.
Revisões de código: rever um diff ou pedir uma explicação funciona melhor quando a troca de ideias acompanha a tua leitura.
Erros comuns de velocidade
Nunca compactar: Deixar o contexto crescer até as respostas ficarem lentas. Executa o /compact antes de bateres no fundo do poço.
Sonnet para tudo: Executar o modelo mais pesado em tarefas que o Haiku conclui igualmente bem.
Pensamento em série: Esperar por uma resposta antes de iniciar a próxima tarefa, quando uma segunda sessão poderia ser executada em paralelo.
Pedidos vagos: Deixar o Claude adivinhar o briefing em vez de o definir claramente desde o início.
Verificação do sucesso
O ajuste está a dar certo quando:
- As perguntas fáceis são respondidas quase instantaneamente no Haiku
/compacté executado antes que o excesso de recursos te atrase- As sessões paralelas funcionam quando o trabalho não se sobrepõe
- O teu ritmo de programação permanece ininterrupto
Próximas ações
- Torna-te fluente na alternância entre
/model haikue/model sonnet - Trabalha com a gestão de contexto de ponta a ponta
- Cria o teu CLAUDE.md
- Aprende padrões de fluxo de trabalho paralelos
- Estuda o manual de eficiência mais abrangente
Pare de configurar. Comece a construir.
Templates SaaS com orquestração de IA.
Técnicas de Pensamento Profundo
Frases de gatilho como think harder, ultrathink e think step by step empurram o Claude Code para raciocínio expandido e mais computação em tempo de inferência, no mesmo modelo.
Modo Fast do Claude Code
O modo fast encaminha os teus pedidos ao Opus 4.6 por uma via de serviço prioritária no Claude Code. Mesmo modelo, mesmo teto de qualidade, respostas 2.5x mais rápidas a uma taxa de tokens mais elevada.