Claude Code Ultra Review
Eine Flotte von Cloud-Agents durchsucht deinen PR-Diff, verifiziert jeden Fund unabhängig, und liefert nur echte Bugs zurück. Was /ultrareview macht, wann du es einsetzt, und was es kostet.
Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.
SaaS-Builder-Vorlagen mit KI-Orchestrierung.
Das Problem: Code-Review ist ein Zahlenspiel mit schlechten Quoten. Offensichtliche Fehler fallen auf, aber große Diffs zermürben die Aufmerksamkeit schnell. Ein 1.500-Zeilen-Refactor, der Auth, Verschlüsselung und drei Datenbanktabellen anfasst? Der subtile Typfehler in Zeile 847 bleibt unbemerkt. Landet im Release.
/review hilft. Ein Single-Pass-Scan in deiner lokalen Session findet einiges. Aber: ein Agent, ein Durchlauf, kein Verification-Schritt. Die Findings sind gut. Das Vertrauen ist geringer.
/ultrareview funktioniert anders. Es schickt deinen Diff in eine Cloud-Sandbox, startet eine Flotte von Agents, und jeder Fund läuft durch einen unabhängigen Verifikations-Durchlauf, bevor er dir gezeigt wird. Nur bestätigte Bugs kommen zurück.
Was /ultrareview wirklich macht
Der Befehl ist in Claude Code v2.1.111 enthalten, veröffentlicht am 16. April 2026 als Research Preview. Zwei Modi:
Branch-Modus reviewt den Diff zwischen deinem aktuellen Branch und dem Default-Branch, inklusive uncommittetem und gestagtem Code:
/ultrareviewPR-Modus nimmt eine GitHub-PR-Nummer. Die Remote-Sandbox klont direkt von GitHub statt deinen lokalen Working Tree zu bündeln:
/ultrareview 1234PR-Modus ist sinnvoll, wenn dein Repo zu groß zum Bündeln ist. Branch pushen, Draft-PR öffnen, Nummer übergeben.
Die vier Phasen
Jeder Review läuft in der Cloud-Sandbox durch die gleichen vier Phasen:
Setup: Anthropic stellt Remote-Infrastruktur bereit und startet die Agent-Flotte. Standard sind 5 Agents. Das dauert ca. 90 Sekunden.
Find: Agents erkunden parallel verschiedene Ausführungspfade durch den geänderten Code. Jeder sucht unabhängig, also bekommen Race Conditions, Logikfehler und modulübergreifende Typfehler gleichzeitig Druck aus mehreren Richtungen.
Verify: Ein separater Satz Agents versucht, jeden Kandidaten-Fund zu reproduzieren. Ein Bug, den nur ein Agent gefunden hat, wird von einem anderen angefochten. Kann er nicht unabhängig bestätigt werden, taucht er nicht auf.
Dedup: Doppelte Findings verschiedener Agents werden zu einzelnen, gerankte Berichten zusammengeführt.
Der Bestätigungsdialog vor dem Start zeigt den Umfang: Dateianzahl, Zeilenanzahl, verbleibende Gratis-Runs und geschätzte Kosten. Der Review startet erst nach deiner Bestätigung.
Reviews laufen als Hintergrundaufgaben. Dein Terminal bleibt frei. Fortschritt checkst du mit /tasks. Terminal schließen ist kein Problem. Einen Review mittendrin stoppen archiviert die Cloud-Session und liefert null Partial-Findings.
Vergleich mit /review
/review | /ultrareview | |
|---|---|---|
| Läuft | lokal, in-session | remote Cloud-Sandbox |
| Tiefe | Single-Pass | Multi-Agent-Flotte plus unabhängige Verifikation |
| Dauer | Sekunden bis wenige Minuten | 5 bis 10 Minuten (bis 20 bei großen PRs) |
| Kosten | zählt zum normalen Verbrauch | Gratis-Runs, dann 5 bis 20 $ pro Review als Extra-Usage |
| Am besten für | schnelles Feedback beim Iterieren | Pre-Merge-Vertrauen bei wesentlichen Änderungen |
Der entscheidende Unterschied ist die Verify-Phase. /review ist ein Durchlauf. /ultrareview zeigt nur Findings, die einen zweiten Agent überlebt haben, der sie reproduzieren wollte. Daher die unter-1%-Falsch-Positiv-Rate.
Zahlen, die du kennen solltest
Anthropic hat das vor dem Launch auf eigenen PRs getestet. Die Zahlen aus internen Tests (via claudefa.st):
| Metrik | Ergebnis |
|---|---|
| Große PRs (1.000+ Zeilen) mit Findings | 84 %, durchschnittlich 7,5 Issues pro Review |
| Kleine PRs (unter 50 Zeilen) mit Findings | 31 %, durchschnittlich 0,5 Issues |
| Findings von Engineers als falsch markiert | Unter 1 % |
| PRs mit wesentlichen Review-Kommentaren (vorher vs. nachher) | 16 % auf 54 % |
Zwei Beispiele aus der Praxis. Eine einzeilige Auth-Änderung bei Anthropic hätte Login-Flows stillschweigend gebrochen. /ultrareview flaggte das als kritisch vor dem Merge. In einem TrueNAS-ZFS-Verschlüsselungs-Refactor fand es einen Typfehler, der bei jedem Sync den Encryption-Key-Cache löschte. Die Art Bug, die monatelang in Produktion lebt, bevor jemand die sporadischen Fehler auf den richtigen Commit zurückführt.
Ein Praxis-Test auf einem 11.000-Zeilen-Voice-Calling-PR (via mejba.me): 64 Kandidaten-Bugs in der Find-Phase, ein kleineres bestätigtes Set nach Verify, 17 Minuten gesamt. Race Conditions und State-Management-Probleme über Modulgrenzen hinweg. Genau das, was ein Single-Pass-Review verpasst, weil kein einzelner Agent gleichzeitig das gesamte Bild hält.
Preise
| Plan | Gratis-Runs | Nach Gratis-Runs |
|---|---|---|
| Pro | 3 (ablauf 5. Mai 2026) | als Extra-Usage abgerechnet |
| Max | 3 (ablauf 5. Mai 2026) | als Extra-Usage abgerechnet |
| Team | keine | als Extra-Usage abgerechnet |
| Enterprise | keine | als Extra-Usage abgerechnet |
Ein Review kostet ca. 5 bis 20 $ je nach Diff-Größe. Die Gratis-Runs sind eine einmalige Zuteilung. Sie verfallen am 5. Mai 2026, ob genutzt oder nicht. Keine Verlängerung, kein Übertrag.
Vor dem ersten Run: sicherstellen, dass Extra-Usage auf deinem Account aktiviert ist. Mit /extra-usage prüfen. Ist Extra-Usage aus, blockiert das Feature beim Start. Im Bestätigungsdialog kannst du es nicht aktivieren.
Voraussetzungen
Erforderlich:
- Claude Code v2.1.111 oder neuer
- Claude.ai-Account-Authentifizierung (zuerst
/loginausführen, wenn du nur einen API-Key nutzt) - GitHub-Remote (
github.com) im Repo für den PR-Modus
Nicht verfügbar auf:
- Amazon Bedrock
- Google Cloud Vertex AI
- Microsoft Foundry
- Organisationen mit aktiviertem Zero Data Retention
Das sind architektonische Ausschlüsse. /ultrareview braucht Claude.ai-Account-Auth und Anthropics Web-Infrastruktur. Für Teams auf managed Cloud-Providern gibt es keinen Workaround.
Wann du es einsetzt
/ultrareview ist Pre-Merge-Review für Änderungen, bei denen Vertrauen zählt. Kein vollständiges Codebase-Audit.
Guter Einsatzbereich:
- Große PRs mit über ~500 Zeilen, die Auth, Payments oder Infrastruktur berühren
- Sicherheitskritische Änderungen, bei denen Multi-Agent-Verifikation wichtig ist
- Komplexe Refactors über mehrere Module (Race Conditions, modulübergreifende Typfehler)
- Review von Contributor- oder externen PRs per PR-Nummer
Schlechter Einsatzbereich:
- Schnelles Iterieren auf einem Feature-Branch (5 bis 20 Minuten ist das falsche Werkzeug für schnelle Loops, nutze
/review) - Vollständige Codebase-Audits (Scope ist immer der Diff gegenüber dem Default-Branch)
- Triviale Änderungen unter 50 Zeilen
- CI/CD-Pipelines (braucht interaktive Session und Claude.ai-Auth)
- Bedrock-, Vertex-, Foundry- oder ZDR-Umgebungen
Der häufigste Fehler
Das ist die Verwirrung nach dem Launch, die die meisten "hat nichts Nützliches gefunden"-Beschwerden ausgelöst hat:
/ultrareview reviewt den Diff zwischen deinem Branch und dem Default-Branch. Es scannt nicht deine gesamte bestehende Codebase.
Eine fertige, vollständig committete Codebase ohne aktuelle Änderungen hat fast keinen Diff. Den Befehl darauf anzusetzen liefert ein nahezu leeres Ergebnis. Das ist by design. Das Tool ist ein Pre-Merge-Reviewer, kein Auditor.
Wer seine gesamte Codebase reviewen will, ist mit /ultrareview falsch beraten.
Abgestufte Review-Strategie
Ein praktisches Muster aus der Community (r/ClaudeCode):
| PR-Typ | Tool | Warum |
|---|---|---|
| Jeder PR | /review (unter 5 Minuten) | Immer-aktiver Smoke-Check |
| Große oder kritische PRs (500+ Zeilen, Auth/Payments/Infra) | /ultrareview (10 bis 20 Minuten) | Pre-Merge-Tiefenprüfung |
| Infrastruktur-Änderungen (DB-Migrationen, Security-Rewrites) | /ultrareview | Höchstes Vertrauen, wenn die Stakes am höchsten sind |
Stell dir /review als Rauchmelder vor. Immer aktiv. Schnell. /ultrareview ist die Inspektion, die du holst, bevor du eine strukturelle Änderung abnimmst.
Praktische Tipps
/extra-usage ausführen, bevor die Gratis-Runs verfallen. Ist Billing nicht konfiguriert, blockiert das Feature beim Start, ohne dass etwas passiert.
Vor dem Start committen oder stashen. Branch-Modus bündelt deinen Working Tree in dem Moment, in dem du bestätigst. Änderungen nach dem Start sind nicht im Review enthalten.
Wenn Findings erscheinen, fix sie in der gleichen Session über die Benachrichtigung. Liegenlassen verschwendet den Kontext.
Für Repos, die nicht gebündelt werden können: Branch pushen, Draft-PR öffnen, dann /ultrareview <PR-Nummer> ausführen. Die Sandbox klont direkt von GitHub.
Mit /tasks laufende Reviews im Hintergrund verfolgen. Terminal schließen ist okay. Ergebnisse kommen zurück.
Was das signalisiert
/ultrareview ist der zweite Befehl in einem Muster. /ultraplan (v2.1.92) hat schwere Planungs-Compute in die Cloud verlagert. /ultrareview (v2.1.111) macht das gleiche für Code-Reviews. Routines und Remote-Trigger folgen der gleichen Logik.
Jeder "Ultra"-Präfix-Befehl lagert eine schwere Compute-Aufgabe von deiner lokalen Session auf Anthropic-gehostete Infrastruktur aus. Die Fähigkeit (5 bis 20 parallele Agents mit unabhängiger Verifikation) ist nur in der Cloud erreichbar. Kein Laptop läuft 20 Agents gleichzeitig in einer Sandbox.
Das Kostenmodell spiegelt das wider. Jeder Ultra-Befehl wird separat als Extra-Usage abgerechnet, außerhalb der im Plan enthaltenen Compute. Das Abo ist der Zugang. Die Cloud-Compute ist obendrauf gemessen.
Welches Modell die Agents antreibt, ist nicht öffentlich bestätigt. Community-Spekulation deutet auf Opus-Klasse für Logik und Bug-Hunting hin, mit Sonnet-Klasse für Style-Verstöße. Anthropic hat die zugrundeliegenden Modelle nicht bestätigt.
Bug-freie Merges dauern länger in der Produktion. Sie brauchen weniger Zeit zum Debuggen. /ultrareview ist da, wo diese zwei Tatsachen aufeinandertreffen.
Häufig gestellte Fragen
Was ist /ultrareview in Claude Code?
/ultrareview ist ein Cloud-basierter Code-Review-Befehl in Claude Code. Er startet eine Flotte von Agents in einer Remote-Sandbox, die deinen Branch-Diff durchsuchen, Bugs parallel aufspüren und jedes Finding unabhängig verifizieren, bevor es dir angezeigt wird. Nur bestätigte Bugs kommen zurück. Eingeführt in Claude Code v2.1.111 am 16. April 2026.
Was kostet /ultrareview?
Jeder Review kostet ca. 5 bis 20 $ je nach Diff-Größe, abgerechnet als Extra-Usage außerhalb deines Plans. Pro- und Max-Subscriber bekommen 3 Gratis-Runs, die am 5. Mai 2026 ablaufen. Team und Enterprise haben keine Gratis-Runs. Reviews werden immer separat vom im Plan enthaltenen Compute abgerechnet.
Ist /ultrareview kostenlos?
Pro- und Max-Subscriber bekommen 3 Gratis-Runs (ablaufen 5. Mai 2026, ob genutzt oder nicht). Danach wird jeder Review als Extra-Usage zu 5 bis 20 $ abgerechnet. Team- und Enterprise-Pläne haben keine Gratis-Stufe.
Was ist der Unterschied zwischen /review und /ultrareview?
/review läuft als Single-Pass-Scan lokal in deiner Claude Code Session. /ultrareview schickt deinen Diff in eine Cloud-Sandbox, läuft 5 bis 20 Agents parallel, und leitet jeden Kandidaten-Fund durch einen unabhängigen Verifikations-Agent, bevor er dir gezeigt wird. /review dauert Sekunden. /ultrareview dauert 5 bis 20 Minuten. /review zählt zum normalen Plan-Verbrauch. /ultrareview wird als Extra-Usage abgerechnet.
Wie lange dauert /ultrareview?
Die meisten Reviews sind in 5 bis 10 Minuten fertig. Sehr große PRs (der mejba.me-Test auf einem 11.000-Zeilen-Diff) dauerten 17 Minuten. Bei den größten Diffs bis zu 20 Minuten einplanen.
Wie genau ist /ultrareview?
In Anthropics internem Testing haben Engineers weniger als 1 % der Findings als falsch markiert. Bei PRs über 1.000 Zeilen liefern 84 % der Reviews Findings mit durchschnittlich 7,5 Issues. Die niedrige Falsch-Positiv-Rate kommt aus der Verify-Phase, wo separate Agents versuchen, jeden Kandidaten-Bug unabhängig zu reproduzieren.
Warum hat /ultrareview auf meiner Codebase nichts Nützliches gefunden?
/ultrareview reviewt nur den Diff zwischen deinem aktuellen Branch und dem Default-Branch. Es scannt nicht deine gesamte Codebase. Wenn du es auf einer fertigen, vollständig committeten Codebase ohne aktuelle Änderungen ausgeführt hast, gibt es kaum einen Diff zu reviewen. Das ist by design. Das Tool ist ein Pre-Merge-Reviewer, kein Codebase-Auditor.
Kann /ultrareview meine gesamte Codebase reviewen?
Nein. Scope ist immer der Diff zwischen deinem Branch und dem Default-Branch. Es findet Bugs in Code, den du gleich mergen willst, nicht in Code, der schon auf main liegt. Für ein vollständiges Codebase-Audit brauchst du einen anderen Ansatz.
Funktioniert /ultrareview auf Amazon Bedrock oder Google Vertex AI?
Nein. /ultrareview braucht Claude.ai-Account-Authentifizierung und läuft auf Anthropics Web-Infrastruktur. Nicht verfügbar auf Bedrock, Vertex AI, Microsoft Foundry oder bei Organisationen mit aktiviertem Zero Data Retention. Kein Workaround existiert.
Welchen Claude Code Plan brauche ich für /ultrareview?
Jeder Plan kann /ultrareview nutzen, solange Extra-Usage auf dem Account aktiviert ist. Pro- und Max-Subscriber bekommen 3 Gratis-Runs. Team- und Enterprise-Nutzer zahlen ab dem ersten Review. Das Feature ist nicht auf Team oder Enterprise beschränkt (im Gegensatz zu Claude Code Review, dem GitHub-integrierten Produkt).
Wie aktiviere ich Extra-Usage für /ultrareview?
/extra-usage in Claude Code ausführen. Ist Extra-Usage noch nicht aktiviert, verlinkt der Befehl dich zu den Billing-Einstellungen. Aktivieren bevor du /ultrareview startest. Das Feature blockiert beim Start, wenn Extra-Usage aus ist, und du kannst es nicht aus dem Bestätigungsdialog heraus aktivieren.
Kann /ultrareview in CI/CD-Pipelines laufen?
Nein. Es braucht eine interaktive Claude Code Session mit Claude.ai-Account-Authentifizierung. Automatisierte Pipeline-Runs werden nicht unterstützt.
Was passiert, wenn ich /ultrareview mittendrin stoppe?
Die Cloud-Session wird archiviert und du bekommst null Partial-Findings. Ist ein 17-Minuten-Review nach 10 Minuten, wenn du abbrichst, kommt nichts zurück. Einfach fertig laufen lassen.
Wie viele Agents nutzt /ultrareview?
Standard-Flotte sind 5 Agents. Die Konfiguration unterstützt bis zu 20, aber ob höhere Flottengrößen vom Nutzer konfigurierbar oder tier-beschränkt sind, ist nicht öffentlich dokumentiert.
Kann ich den PR von jemand anderem mit /ultrareview reviewen?
Ja. Die GitHub-PR-Nummer übergeben: /ultrareview 1234. Die Remote-Sandbox klont den PR direkt von GitHub. Funktioniert für jeden GitHub-PR, auf den du Zugriff hast, einschließlich Contributor-PRs und Open-Source-Repos, die du pflegst.
Was findet /ultrareview, das /review übersieht?
Multi-Agent-parallele Erkundung findet Bugs, die erfordern, mehrere Teile eines Diffs gleichzeitig im Kopf zu halten: Race Conditions über Modulgrenzen, Typfehler, die nur wichtig sind, wenn zwei geänderte Dateien interagieren, Logikfehler in Control Flow, der mehrere Funktionen überspannt. Ein Single-Pass-Agent liest den Diff sequenziell. Fünf Agents erkunden ihn gleichzeitig aus verschiedenen Winkeln und kontrollieren sich gegenseitig.
Brauche ich einen GitHub-Account für /ultrareview?
Für den Branch-Modus (bloßes /ultrareview) kein GitHub-Account nötig. Claude Code bündelt deinen lokalen Working Tree. Für den PR-Modus (/ultrareview 1234) ist ein github.com-Remote im Repository erforderlich.
Warum bekommen Pro- und Max-Subscriber nur 3 Gratis-Runs?
Anthropic hat keine offizielle Erklärung gegeben. Community-Spekulation (r/claude) deutet auf ungewöhnlich hohe Backend-Compute-Kosten hin, mit manchen Theorien, die auf Agents auf einem noch nicht öffentlich veröffentlichten Frontier-Modell hinweisen. Das 3-Run-Limit sogar für Max-Subscriber (200 $/Monat) wird weithin als ungewöhnlich bemerkt. Preise und Verfügbarkeit sind explizit als änderbar gekennzeichnet, da das Feature eine Research Preview ist.
Welche Version von Claude Code brauche ich?
Claude Code v2.1.111 oder neuer. Mit claude --version prüfen. Die Docs nennen v2.1.86 als Minimum, aber das Feature wurde in v2.1.111 eingeführt.
Funktioniert /ultrareview mit uncommitteten Änderungen?
Ja. Branch-Modus bündelt deinen vollständigen Working Tree in dem Moment, in dem du bestätigst, einschließlich gestagter und ungestagter Änderungen. Änderungen, die du nach dem Bestätigen des Starts machst, sind in diesem Review nicht enthalten.
Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.
SaaS-Builder-Vorlagen mit KI-Orchestrierung.
Claude Code Preise und Token-Nutzung
Senke Claude Code-Kosten um 40–70 % mit ccusage-Tracking, /model-Wechsel, /compact und /clear, Plan-Modus und dem Preistier, das zu deinem Workflow passt.
Deep Thinking Techniken
Trigger-Phrasen wie think harder, ultrathink und think step by step bringen Claude Code in erweitertes Denken und mehr Test-Time-Compute, gleiches Modell.