Build This Now
Build This Now
Was ist der Claude Code?Claude Code installierenClaude Code Native InstallerDein erstes Claude Code-Projekt
Claude Code Best PracticesClaude Opus 4.7 Best PracticesClaude Code auf einem VPSGit-IntegrationClaude Code ReviewClaude Code WorktreesClaude Code Remote ControlClaude Code ChannelsGeplante Aufgaben mit Claude CodeClaude Code BerechtigungenClaude Code Auto-ModusFeedback-LoopsTodo-WorkflowsClaude Code TasksProjekt-TemplatesClaude Code Preise und Token-NutzungClaude Code Ultra Review
speedy_devvkoen_salo
Blog/Handbook/Workflow/Claude Code Ultra Review

Claude Code Ultra Review

Eine Flotte von Cloud-Agents durchsucht deinen PR-Diff, verifiziert jeden Fund unabhängig, und liefert nur echte Bugs zurück. Was /ultrareview macht, wann du es einsetzt, und was es kostet.

Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.

SaaS-Builder-Vorlagen mit KI-Orchestrierung.

Published Apr 22, 202611 min readHandbook hubWorkflow index

Das Problem: Code-Review ist ein Zahlenspiel mit schlechten Quoten. Offensichtliche Fehler fallen auf, aber große Diffs zermürben die Aufmerksamkeit schnell. Ein 1.500-Zeilen-Refactor, der Auth, Verschlüsselung und drei Datenbanktabellen anfasst? Der subtile Typfehler in Zeile 847 bleibt unbemerkt. Landet im Release.

/review hilft. Ein Single-Pass-Scan in deiner lokalen Session findet einiges. Aber: ein Agent, ein Durchlauf, kein Verification-Schritt. Die Findings sind gut. Das Vertrauen ist geringer.

/ultrareview funktioniert anders. Es schickt deinen Diff in eine Cloud-Sandbox, startet eine Flotte von Agents, und jeder Fund läuft durch einen unabhängigen Verifikations-Durchlauf, bevor er dir gezeigt wird. Nur bestätigte Bugs kommen zurück.

Was /ultrareview wirklich macht

Der Befehl ist in Claude Code v2.1.111 enthalten, veröffentlicht am 16. April 2026 als Research Preview. Zwei Modi:

Branch-Modus reviewt den Diff zwischen deinem aktuellen Branch und dem Default-Branch, inklusive uncommittetem und gestagtem Code:

/ultrareview

PR-Modus nimmt eine GitHub-PR-Nummer. Die Remote-Sandbox klont direkt von GitHub statt deinen lokalen Working Tree zu bündeln:

/ultrareview 1234

PR-Modus ist sinnvoll, wenn dein Repo zu groß zum Bündeln ist. Branch pushen, Draft-PR öffnen, Nummer übergeben.

Die vier Phasen

Jeder Review läuft in der Cloud-Sandbox durch die gleichen vier Phasen:

Setup: Anthropic stellt Remote-Infrastruktur bereit und startet die Agent-Flotte. Standard sind 5 Agents. Das dauert ca. 90 Sekunden.

Find: Agents erkunden parallel verschiedene Ausführungspfade durch den geänderten Code. Jeder sucht unabhängig, also bekommen Race Conditions, Logikfehler und modulübergreifende Typfehler gleichzeitig Druck aus mehreren Richtungen.

Verify: Ein separater Satz Agents versucht, jeden Kandidaten-Fund zu reproduzieren. Ein Bug, den nur ein Agent gefunden hat, wird von einem anderen angefochten. Kann er nicht unabhängig bestätigt werden, taucht er nicht auf.

Dedup: Doppelte Findings verschiedener Agents werden zu einzelnen, gerankte Berichten zusammengeführt.

Der Bestätigungsdialog vor dem Start zeigt den Umfang: Dateianzahl, Zeilenanzahl, verbleibende Gratis-Runs und geschätzte Kosten. Der Review startet erst nach deiner Bestätigung.

Reviews laufen als Hintergrundaufgaben. Dein Terminal bleibt frei. Fortschritt checkst du mit /tasks. Terminal schließen ist kein Problem. Einen Review mittendrin stoppen archiviert die Cloud-Session und liefert null Partial-Findings.

Vergleich mit /review

/review/ultrareview
Läuftlokal, in-sessionremote Cloud-Sandbox
TiefeSingle-PassMulti-Agent-Flotte plus unabhängige Verifikation
DauerSekunden bis wenige Minuten5 bis 10 Minuten (bis 20 bei großen PRs)
Kostenzählt zum normalen VerbrauchGratis-Runs, dann 5 bis 20 $ pro Review als Extra-Usage
Am besten fürschnelles Feedback beim IterierenPre-Merge-Vertrauen bei wesentlichen Änderungen

Der entscheidende Unterschied ist die Verify-Phase. /review ist ein Durchlauf. /ultrareview zeigt nur Findings, die einen zweiten Agent überlebt haben, der sie reproduzieren wollte. Daher die unter-1%-Falsch-Positiv-Rate.

Zahlen, die du kennen solltest

Anthropic hat das vor dem Launch auf eigenen PRs getestet. Die Zahlen aus internen Tests (via claudefa.st):

MetrikErgebnis
Große PRs (1.000+ Zeilen) mit Findings84 %, durchschnittlich 7,5 Issues pro Review
Kleine PRs (unter 50 Zeilen) mit Findings31 %, durchschnittlich 0,5 Issues
Findings von Engineers als falsch markiertUnter 1 %
PRs mit wesentlichen Review-Kommentaren (vorher vs. nachher)16 % auf 54 %

Zwei Beispiele aus der Praxis. Eine einzeilige Auth-Änderung bei Anthropic hätte Login-Flows stillschweigend gebrochen. /ultrareview flaggte das als kritisch vor dem Merge. In einem TrueNAS-ZFS-Verschlüsselungs-Refactor fand es einen Typfehler, der bei jedem Sync den Encryption-Key-Cache löschte. Die Art Bug, die monatelang in Produktion lebt, bevor jemand die sporadischen Fehler auf den richtigen Commit zurückführt.

Ein Praxis-Test auf einem 11.000-Zeilen-Voice-Calling-PR (via mejba.me): 64 Kandidaten-Bugs in der Find-Phase, ein kleineres bestätigtes Set nach Verify, 17 Minuten gesamt. Race Conditions und State-Management-Probleme über Modulgrenzen hinweg. Genau das, was ein Single-Pass-Review verpasst, weil kein einzelner Agent gleichzeitig das gesamte Bild hält.

Preise

PlanGratis-RunsNach Gratis-Runs
Pro3 (ablauf 5. Mai 2026)als Extra-Usage abgerechnet
Max3 (ablauf 5. Mai 2026)als Extra-Usage abgerechnet
Teamkeineals Extra-Usage abgerechnet
Enterprisekeineals Extra-Usage abgerechnet

Ein Review kostet ca. 5 bis 20 $ je nach Diff-Größe. Die Gratis-Runs sind eine einmalige Zuteilung. Sie verfallen am 5. Mai 2026, ob genutzt oder nicht. Keine Verlängerung, kein Übertrag.

Vor dem ersten Run: sicherstellen, dass Extra-Usage auf deinem Account aktiviert ist. Mit /extra-usage prüfen. Ist Extra-Usage aus, blockiert das Feature beim Start. Im Bestätigungsdialog kannst du es nicht aktivieren.

Voraussetzungen

Erforderlich:

  • Claude Code v2.1.111 oder neuer
  • Claude.ai-Account-Authentifizierung (zuerst /login ausführen, wenn du nur einen API-Key nutzt)
  • GitHub-Remote (github.com) im Repo für den PR-Modus

Nicht verfügbar auf:

  • Amazon Bedrock
  • Google Cloud Vertex AI
  • Microsoft Foundry
  • Organisationen mit aktiviertem Zero Data Retention

Das sind architektonische Ausschlüsse. /ultrareview braucht Claude.ai-Account-Auth und Anthropics Web-Infrastruktur. Für Teams auf managed Cloud-Providern gibt es keinen Workaround.

Wann du es einsetzt

/ultrareview ist Pre-Merge-Review für Änderungen, bei denen Vertrauen zählt. Kein vollständiges Codebase-Audit.

Guter Einsatzbereich:

  • Große PRs mit über ~500 Zeilen, die Auth, Payments oder Infrastruktur berühren
  • Sicherheitskritische Änderungen, bei denen Multi-Agent-Verifikation wichtig ist
  • Komplexe Refactors über mehrere Module (Race Conditions, modulübergreifende Typfehler)
  • Review von Contributor- oder externen PRs per PR-Nummer

Schlechter Einsatzbereich:

  • Schnelles Iterieren auf einem Feature-Branch (5 bis 20 Minuten ist das falsche Werkzeug für schnelle Loops, nutze /review)
  • Vollständige Codebase-Audits (Scope ist immer der Diff gegenüber dem Default-Branch)
  • Triviale Änderungen unter 50 Zeilen
  • CI/CD-Pipelines (braucht interaktive Session und Claude.ai-Auth)
  • Bedrock-, Vertex-, Foundry- oder ZDR-Umgebungen

Der häufigste Fehler

Das ist die Verwirrung nach dem Launch, die die meisten "hat nichts Nützliches gefunden"-Beschwerden ausgelöst hat:

/ultrareview reviewt den Diff zwischen deinem Branch und dem Default-Branch. Es scannt nicht deine gesamte bestehende Codebase.

Eine fertige, vollständig committete Codebase ohne aktuelle Änderungen hat fast keinen Diff. Den Befehl darauf anzusetzen liefert ein nahezu leeres Ergebnis. Das ist by design. Das Tool ist ein Pre-Merge-Reviewer, kein Auditor.

Wer seine gesamte Codebase reviewen will, ist mit /ultrareview falsch beraten.

Abgestufte Review-Strategie

Ein praktisches Muster aus der Community (r/ClaudeCode):

PR-TypToolWarum
Jeder PR/review (unter 5 Minuten)Immer-aktiver Smoke-Check
Große oder kritische PRs (500+ Zeilen, Auth/Payments/Infra)/ultrareview (10 bis 20 Minuten)Pre-Merge-Tiefenprüfung
Infrastruktur-Änderungen (DB-Migrationen, Security-Rewrites)/ultrareviewHöchstes Vertrauen, wenn die Stakes am höchsten sind

Stell dir /review als Rauchmelder vor. Immer aktiv. Schnell. /ultrareview ist die Inspektion, die du holst, bevor du eine strukturelle Änderung abnimmst.

Praktische Tipps

/extra-usage ausführen, bevor die Gratis-Runs verfallen. Ist Billing nicht konfiguriert, blockiert das Feature beim Start, ohne dass etwas passiert.

Vor dem Start committen oder stashen. Branch-Modus bündelt deinen Working Tree in dem Moment, in dem du bestätigst. Änderungen nach dem Start sind nicht im Review enthalten.

Wenn Findings erscheinen, fix sie in der gleichen Session über die Benachrichtigung. Liegenlassen verschwendet den Kontext.

Für Repos, die nicht gebündelt werden können: Branch pushen, Draft-PR öffnen, dann /ultrareview <PR-Nummer> ausführen. Die Sandbox klont direkt von GitHub.

Mit /tasks laufende Reviews im Hintergrund verfolgen. Terminal schließen ist okay. Ergebnisse kommen zurück.

Was das signalisiert

/ultrareview ist der zweite Befehl in einem Muster. /ultraplan (v2.1.92) hat schwere Planungs-Compute in die Cloud verlagert. /ultrareview (v2.1.111) macht das gleiche für Code-Reviews. Routines und Remote-Trigger folgen der gleichen Logik.

Jeder "Ultra"-Präfix-Befehl lagert eine schwere Compute-Aufgabe von deiner lokalen Session auf Anthropic-gehostete Infrastruktur aus. Die Fähigkeit (5 bis 20 parallele Agents mit unabhängiger Verifikation) ist nur in der Cloud erreichbar. Kein Laptop läuft 20 Agents gleichzeitig in einer Sandbox.

Das Kostenmodell spiegelt das wider. Jeder Ultra-Befehl wird separat als Extra-Usage abgerechnet, außerhalb der im Plan enthaltenen Compute. Das Abo ist der Zugang. Die Cloud-Compute ist obendrauf gemessen.

Welches Modell die Agents antreibt, ist nicht öffentlich bestätigt. Community-Spekulation deutet auf Opus-Klasse für Logik und Bug-Hunting hin, mit Sonnet-Klasse für Style-Verstöße. Anthropic hat die zugrundeliegenden Modelle nicht bestätigt.

Bug-freie Merges dauern länger in der Produktion. Sie brauchen weniger Zeit zum Debuggen. /ultrareview ist da, wo diese zwei Tatsachen aufeinandertreffen.

Häufig gestellte Fragen

Was ist /ultrareview in Claude Code?

/ultrareview ist ein Cloud-basierter Code-Review-Befehl in Claude Code. Er startet eine Flotte von Agents in einer Remote-Sandbox, die deinen Branch-Diff durchsuchen, Bugs parallel aufspüren und jedes Finding unabhängig verifizieren, bevor es dir angezeigt wird. Nur bestätigte Bugs kommen zurück. Eingeführt in Claude Code v2.1.111 am 16. April 2026.

Was kostet /ultrareview?

Jeder Review kostet ca. 5 bis 20 $ je nach Diff-Größe, abgerechnet als Extra-Usage außerhalb deines Plans. Pro- und Max-Subscriber bekommen 3 Gratis-Runs, die am 5. Mai 2026 ablaufen. Team und Enterprise haben keine Gratis-Runs. Reviews werden immer separat vom im Plan enthaltenen Compute abgerechnet.

Ist /ultrareview kostenlos?

Pro- und Max-Subscriber bekommen 3 Gratis-Runs (ablaufen 5. Mai 2026, ob genutzt oder nicht). Danach wird jeder Review als Extra-Usage zu 5 bis 20 $ abgerechnet. Team- und Enterprise-Pläne haben keine Gratis-Stufe.

Was ist der Unterschied zwischen /review und /ultrareview?

/review läuft als Single-Pass-Scan lokal in deiner Claude Code Session. /ultrareview schickt deinen Diff in eine Cloud-Sandbox, läuft 5 bis 20 Agents parallel, und leitet jeden Kandidaten-Fund durch einen unabhängigen Verifikations-Agent, bevor er dir gezeigt wird. /review dauert Sekunden. /ultrareview dauert 5 bis 20 Minuten. /review zählt zum normalen Plan-Verbrauch. /ultrareview wird als Extra-Usage abgerechnet.

Wie lange dauert /ultrareview?

Die meisten Reviews sind in 5 bis 10 Minuten fertig. Sehr große PRs (der mejba.me-Test auf einem 11.000-Zeilen-Diff) dauerten 17 Minuten. Bei den größten Diffs bis zu 20 Minuten einplanen.

Wie genau ist /ultrareview?

In Anthropics internem Testing haben Engineers weniger als 1 % der Findings als falsch markiert. Bei PRs über 1.000 Zeilen liefern 84 % der Reviews Findings mit durchschnittlich 7,5 Issues. Die niedrige Falsch-Positiv-Rate kommt aus der Verify-Phase, wo separate Agents versuchen, jeden Kandidaten-Bug unabhängig zu reproduzieren.

Warum hat /ultrareview auf meiner Codebase nichts Nützliches gefunden?

/ultrareview reviewt nur den Diff zwischen deinem aktuellen Branch und dem Default-Branch. Es scannt nicht deine gesamte Codebase. Wenn du es auf einer fertigen, vollständig committeten Codebase ohne aktuelle Änderungen ausgeführt hast, gibt es kaum einen Diff zu reviewen. Das ist by design. Das Tool ist ein Pre-Merge-Reviewer, kein Codebase-Auditor.

Kann /ultrareview meine gesamte Codebase reviewen?

Nein. Scope ist immer der Diff zwischen deinem Branch und dem Default-Branch. Es findet Bugs in Code, den du gleich mergen willst, nicht in Code, der schon auf main liegt. Für ein vollständiges Codebase-Audit brauchst du einen anderen Ansatz.

Funktioniert /ultrareview auf Amazon Bedrock oder Google Vertex AI?

Nein. /ultrareview braucht Claude.ai-Account-Authentifizierung und läuft auf Anthropics Web-Infrastruktur. Nicht verfügbar auf Bedrock, Vertex AI, Microsoft Foundry oder bei Organisationen mit aktiviertem Zero Data Retention. Kein Workaround existiert.

Welchen Claude Code Plan brauche ich für /ultrareview?

Jeder Plan kann /ultrareview nutzen, solange Extra-Usage auf dem Account aktiviert ist. Pro- und Max-Subscriber bekommen 3 Gratis-Runs. Team- und Enterprise-Nutzer zahlen ab dem ersten Review. Das Feature ist nicht auf Team oder Enterprise beschränkt (im Gegensatz zu Claude Code Review, dem GitHub-integrierten Produkt).

Wie aktiviere ich Extra-Usage für /ultrareview?

/extra-usage in Claude Code ausführen. Ist Extra-Usage noch nicht aktiviert, verlinkt der Befehl dich zu den Billing-Einstellungen. Aktivieren bevor du /ultrareview startest. Das Feature blockiert beim Start, wenn Extra-Usage aus ist, und du kannst es nicht aus dem Bestätigungsdialog heraus aktivieren.

Kann /ultrareview in CI/CD-Pipelines laufen?

Nein. Es braucht eine interaktive Claude Code Session mit Claude.ai-Account-Authentifizierung. Automatisierte Pipeline-Runs werden nicht unterstützt.

Was passiert, wenn ich /ultrareview mittendrin stoppe?

Die Cloud-Session wird archiviert und du bekommst null Partial-Findings. Ist ein 17-Minuten-Review nach 10 Minuten, wenn du abbrichst, kommt nichts zurück. Einfach fertig laufen lassen.

Wie viele Agents nutzt /ultrareview?

Standard-Flotte sind 5 Agents. Die Konfiguration unterstützt bis zu 20, aber ob höhere Flottengrößen vom Nutzer konfigurierbar oder tier-beschränkt sind, ist nicht öffentlich dokumentiert.

Kann ich den PR von jemand anderem mit /ultrareview reviewen?

Ja. Die GitHub-PR-Nummer übergeben: /ultrareview 1234. Die Remote-Sandbox klont den PR direkt von GitHub. Funktioniert für jeden GitHub-PR, auf den du Zugriff hast, einschließlich Contributor-PRs und Open-Source-Repos, die du pflegst.

Was findet /ultrareview, das /review übersieht?

Multi-Agent-parallele Erkundung findet Bugs, die erfordern, mehrere Teile eines Diffs gleichzeitig im Kopf zu halten: Race Conditions über Modulgrenzen, Typfehler, die nur wichtig sind, wenn zwei geänderte Dateien interagieren, Logikfehler in Control Flow, der mehrere Funktionen überspannt. Ein Single-Pass-Agent liest den Diff sequenziell. Fünf Agents erkunden ihn gleichzeitig aus verschiedenen Winkeln und kontrollieren sich gegenseitig.

Brauche ich einen GitHub-Account für /ultrareview?

Für den Branch-Modus (bloßes /ultrareview) kein GitHub-Account nötig. Claude Code bündelt deinen lokalen Working Tree. Für den PR-Modus (/ultrareview 1234) ist ein github.com-Remote im Repository erforderlich.

Warum bekommen Pro- und Max-Subscriber nur 3 Gratis-Runs?

Anthropic hat keine offizielle Erklärung gegeben. Community-Spekulation (r/claude) deutet auf ungewöhnlich hohe Backend-Compute-Kosten hin, mit manchen Theorien, die auf Agents auf einem noch nicht öffentlich veröffentlichten Frontier-Modell hinweisen. Das 3-Run-Limit sogar für Max-Subscriber (200 $/Monat) wird weithin als ungewöhnlich bemerkt. Preise und Verfügbarkeit sind explizit als änderbar gekennzeichnet, da das Feature eine Research Preview ist.

Welche Version von Claude Code brauche ich?

Claude Code v2.1.111 oder neuer. Mit claude --version prüfen. Die Docs nennen v2.1.86 als Minimum, aber das Feature wurde in v2.1.111 eingeführt.

Funktioniert /ultrareview mit uncommitteten Änderungen?

Ja. Branch-Modus bündelt deinen vollständigen Working Tree in dem Moment, in dem du bestätigst, einschließlich gestagter und ungestagter Änderungen. Änderungen, die du nach dem Bestätigen des Starts machst, sind in diesem Review nicht enthalten.

Continue in Workflow

  • Claude Code Best Practices
    Fünf Gewohnheiten trennen Entwickler, die mit Claude Code liefern: PRDs, modulare CLAUDE.md-Regeln, Custom-Slash-Commands, /clear-Resets und eine System-Evolutions-Denkweise.
  • Claude Code Auto-Modus
    Ein zweites Sonnet-Modell prüft jeden Claude Code-Tool-Aufruf, bevor er ausgeführt wird. Was der Auto-Modus blockiert, was er erlaubt, und die Erlaubnisregeln, die er in deine Einstellungen schreibt.
  • Claude Code Channels
    Claude Code per Plugin-MCP-Server in Telegram, Discord oder iMessage einbinden. Setup-Anleitungen und die asynchronen Mobil-Workflows, die das Einrichten lohnenswert machen.
  • Claude Opus 4.7 Best Practices
    Opus 4.7 optimal in Claude Code einsetzen: erster Turn, Effort-Einstellungen, adaptives Thinking, Tool-Prompting, Subagenten, Session-Resets und Token-Kontrolle.
  • Claude Code Review
    Parallele Claude-Agenten jagen Bugs in jedem PR, prüfen Ergebnisse gegenseitig und posten einen einzigen aussagekräftigen Kommentar. Was es findet, was es kostet, wie du es aktivierst.
  • Feedback-Loops
    Gib Claude Code einen einzigen Prompt, der Code schreibt, deinen Test- oder Dev-Befehl ausführt, die Ausgabe liest, alles Kaputte behebt und schleift, bis die Suite grün ist.

More from Handbook

  • Grundlagen für Agenten
    Fünf Möglichkeiten, spezialisierte Agenten in Claude Code zu erstellen: Aufgaben-Unteragenten, .claude/agents YAML, benutzerdefinierte Slash-Befehle, CLAUDE.md Personas und perspektivische Aufforderungen.
  • Agent-Harness-Engineering
    Der Harness ist jede Schicht rund um deinen KI-Agenten, außer dem Modell selbst. Lern die fünf Steuerungshebel, das Constraint-Paradoxon und warum das Harness-Design die Performance des Agenten mehr bestimmt als das Modell.
  • Agenten-Muster
    Orchestrator, Fan-out, Validierungskette, Spezialistenrouting, Progressive Verfeinerung und Watchdog. Sechs Orchestrierungsformen, um Claude Code Sub-Agenten zu verdrahten.
  • Agent Teams Best Practices
    Bewährte Muster für Claude Code Agent Teams. Kontextreiche Spawn-Prompts, richtig bemessene Aufgaben, Datei-Eigentümerschaft, Delegate-Modus und Fixes für v2.1.33-v2.1.45.

Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.

SaaS-Builder-Vorlagen mit KI-Orchestrierung.

Claude Code Preise und Token-Nutzung

Senke Claude Code-Kosten um 40–70 % mit ccusage-Tracking, /model-Wechsel, /compact und /clear, Plan-Modus und dem Preistier, das zu deinem Workflow passt.

Deep Thinking Techniken

Trigger-Phrasen wie think harder, ultrathink und think step by step bringen Claude Code in erweitertes Denken und mehr Test-Time-Compute, gleiches Modell.

On this page

Was /ultrareview wirklich macht
Die vier Phasen
Vergleich mit /review
Zahlen, die du kennen solltest
Preise
Voraussetzungen
Wann du es einsetzt
Der häufigste Fehler
Abgestufte Review-Strategie
Praktische Tipps
Was das signalisiert
Häufig gestellte Fragen
Was ist /ultrareview in Claude Code?
Was kostet /ultrareview?
Ist /ultrareview kostenlos?
Was ist der Unterschied zwischen /review und /ultrareview?
Wie lange dauert /ultrareview?
Wie genau ist /ultrareview?
Warum hat /ultrareview auf meiner Codebase nichts Nützliches gefunden?
Kann /ultrareview meine gesamte Codebase reviewen?
Funktioniert /ultrareview auf Amazon Bedrock oder Google Vertex AI?
Welchen Claude Code Plan brauche ich für /ultrareview?
Wie aktiviere ich Extra-Usage für /ultrareview?
Kann /ultrareview in CI/CD-Pipelines laufen?
Was passiert, wenn ich /ultrareview mittendrin stoppe?
Wie viele Agents nutzt /ultrareview?
Kann ich den PR von jemand anderem mit /ultrareview reviewen?
Was findet /ultrareview, das /review übersieht?
Brauche ich einen GitHub-Account für /ultrareview?
Warum bekommen Pro- und Max-Subscriber nur 3 Gratis-Runs?
Welche Version von Claude Code brauche ich?
Funktioniert /ultrareview mit uncommitteten Änderungen?

Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.

SaaS-Builder-Vorlagen mit KI-Orchestrierung.