Build This Now
Build This Now
Qu'est-ce que le code Claude ?Installer Claude CodeL'installateur natif de Claude CodeTon premier projet Claude Code
Techniques de réflexion approfondieOptimisation de la vitesseLe mode rapide de Claude CodeModèles d'efficacité
speedy_devvkoen_salo
Blog/Handbook/Performance/Speed Optimization

Optimisation de la vitesse

Le choix du modèle, la taille du contexte et la spécificité de l'invite sont les trois leviers qui décident de la rapidité des réponses de Claude Code. /model haiku, /compact, et /clear covered.

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.

Published Feb 3, 2026Handbook hubPerformance index

Problème : chaque requête reste bloquée et tourne en rond. Les réponses mettent un temps fou à arriver alors que tu en as besoin en quelques secondes.

Solution rapide : Passe à un modèle plus léger. Tape « /model haiku » en cours de session et la réponse suivante arrivera plus vite. Haiku gère les questions de syntaxe, les explications rapides et la génération de petits bouts de code.

L'approche du multiplicateur de vitesse

La plupart du temps, ce n'est pas le modèle qui est lent. C'est la session qui est mal configurée. Trois paramètres que tu contrôles déjà déterminent la rapidité de la réponse : le modèle que tu as choisi, la taille du contexte et la précision de la requête.

Les réponses rapides te permettent de rester dans le flux. Les réponses lentes t'en font sortir.

Les facteurs qui ralentissent le temps de réponse

Contexte surchargé : chaque tour ajoute des tokens à ce que Claude doit traiter. Les longues sessions accumulent l'historique, et chaque réponse devient plus lourde.

Inadéquation du modèle : utiliser Sonnet pour une simple ligne, c'est comme aller chercher son pain en camion. Adapte le moteur à la tâche.

Prompts vagues : « Aide-moi avec ce code » oblige à deviner. Précise ce que tu veux et la réponse arrivera plus vite.

Le processus d'optimisation de la vitesse en 3 étapes

Étape 1 : Stratégie de sélection du modèle

Adapte ton modèle à la complexité de la tâche en utilisant des commandes slash en cours de session :

/model haiku    # Quick questions, syntax help, simple edits
/model sonnet   # Complex refactoring, architecture decisions

Passe à Haiku pour les tâches rapides. Reviens en arrière quand le raisonnement compte. Pas de redémarrage.

Étape 2 : Gestion du contexte

Garde ton contexte allégé pour des réponses plus rapides :

/compact        # Compress conversation history when it grows large
/clear          # Start fresh when switching to unrelated tasks

Utilise /compact dès que les réponses commencent à traîner. Ça résume l'historique tout en gardant l'essentiel, ce qui réduit la charge de tokens par tour.

Round 3 : Écris des invites spécifiques

L'optimisation la plus rapide ne nécessite aucune commande. Juste une invite plus précise :

Lent : « Corrige cette fonction » Rapide : « Ajoute une vérification null pour le paramètre user dans handleSubmit »

Lent : « Aide-moi avec la base de données » Rapide : « Écris une requête Prisma pour récupérer les utilisateurs avec leurs publications, classés par createdAt en ordre décroissant »

Des invites précises éliminent le cycle « Attends, qu’est-ce que tu veux dire ? ». Ça suffit souvent à réduire de moitié la durée totale de l’échange.

Techniques avancées pour gagner du temps

Sessions parallèles : lance deux terminaux lorsque les tâches ne se chevauchent pas. Le frontend dans l’un. Le backend dans l’autre.

Regroupez les tâches connexes : une seule instruction peut gérer trois tâches à la fois :

"In the UserProfile component:
1. Add loading state
2. Handle the error case
3. Add the avatar upload button"

Modèles CLAUDE.md : enregistre les conventions récurrentes du projet dans CLAUDE.md. Claude charge le fichier tout seul, ce qui t'évite de réexpliquer sans cesse les mêmes règles.

Alias de shell : Crée des raccourcis pour les workflows courants :

alias cc="claude"
alias cch="claude --model haiku"

L'équilibre entre coût et vitesse

Optimiser la vitesse permet en même temps de réduire la facture. Des réponses plus rapides signifient généralement :

  • Moins de tokens facturés grâce à un contexte ciblé
  • Une dépense de modèle réduite lorsque Haiku se charge des tâches simples
  • Plus de résultats par dollar
  • Le contexte cesse de s'accumuler entre les tours

Adopte ces habitudes dès le début. L'écart avec une configuration plus lente ne cesse de se creuser.

Quand la vitesse compte le plus

Boucles de rétroaction serrées : le débogage repose sur la latence. Chaque seconde gagnée compte une fois que tu es coincé face au problème.

Phase d'exploration : tu essaies différents angles d'approche ? Des réponses rapides te rendent plus audacieux. Cinq idées au lieu de deux.

Révisions de code : réviser un diff ou demander une explication fonctionne mieux lorsque l'échange suit le rythme de ta lecture.

Erreurs courantes en matière de vitesse

Ne jamais compacter : laisser le contexte s'alourdir jusqu'à ce que les réponses traînent. Exécute /compact avant de te heurter à un mur.

Sonnet pour tout : exécuter le modèle plus lourd sur des tâches que Haiku termine tout aussi bien.

Pensée séquentielle : Attendre une réponse avant de commencer la tâche suivante, alors qu’une deuxième session pourrait tourner en parallèle.

Demandes vagues : Laisser Claude deviner le brief au lieu de le formuler clairement dès le départ.

Vérification de la réussite

Le réglage est réussi quand :

  • Les questions faciles sont traitées presque instantanément sur Haiku
  • /compact se lance avant que le surchargement ne te ralentisse
  • Les sessions parallèles s'exécutent sans que le travail ne se chevauche
  • Ton rythme de codage reste ininterrompu

Prochaines actions

  1. Maîtrise le passage d'/model haiku à /model sonnet
  2. Maîtrise la gestion du contexte de bout en bout
  3. Développe ton CLAUDE.md
  4. Apprends les modèles de workflow parallèles
  5. Étudier le guide d'efficacité au sens large

Continue in Performance

  • Techniques de réflexion approfondie
    Des phrases déclencheurs comme think harder, ultrathink et think step by step poussent Claude Code en raisonnement étendu et en plus de calcul au moment du test, même modèle.
  • Modèles d'efficacité
    Les frameworks de permutation transforment 8 à 12 builds manuels en un template CLAUDE.md que Claude Code utilise pour générer les variations 11, 12 et 13 à la demande. Capturé une seule fois.
  • Le mode rapide de Claude Code
    Le mode rapide route tes requêtes Opus 4.6 sur un chemin de service prioritaire dans Claude Code. Mêmes poids, même plafond, réponses 2,5x plus vite à un tarif token plus élevé.

More from Handbook

  • Principes de base de l'agent
    Cinq façons de construire des agents spécialisés dans le code Claude : Sous-agents de tâches, .claude/agents YAML, commandes slash personnalisées, personas CLAUDE.md, et invites de perspective.
  • Patterns d'agents
    Orchestrateur, fan-out, chaîne de validation, routage par spécialiste, raffinement progressif, et watchdog. Six formes d'orchestration pour câbler des sub-agents Claude Code.
  • Meilleures pratiques des équipes d'agents
    Patterns éprouvés pour les équipes d'agents Claude Code. Prompts de création riches en contexte, tâches bien calibrées, propriété des fichiers, mode délégué, et correctifs v2.1.33-v2.1.45.
  • Contrôles des équipes d'agents
    Configure le mode délégué, les modes d'affichage, l'approbation des plans, les limites de fichiers et les règles CLAUDE.md pour que le chef d'équipe Claude Code coordonne au lieu de coder.

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.

Techniques de réflexion approfondie

Des phrases déclencheurs comme think harder, ultrathink et think step by step poussent Claude Code en raisonnement étendu et en plus de calcul au moment du test, même modèle.

Le mode rapide de Claude Code

Le mode rapide route tes requêtes Opus 4.6 sur un chemin de service prioritaire dans Claude Code. Mêmes poids, même plafond, réponses 2,5x plus vite à un tarif token plus élevé.

On this page

L'approche du multiplicateur de vitesse
Les facteurs qui ralentissent le temps de réponse
Le processus d'optimisation de la vitesse en 3 étapes
Étape 1 : Stratégie de sélection du modèle
Étape 2 : Gestion du contexte
Round 3 : Écris des invites spécifiques
Techniques avancées pour gagner du temps
L'équilibre entre coût et vitesse
Quand la vitesse compte le plus
Erreurs courantes en matière de vitesse
Vérification de la réussite
Prochaines actions

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.