Das wahre Gesicht von Cheetah – Ein Blick hinter Cursors mysteriöses KI‑Modell und seine Leistung
Das wahre Gesicht von Cheetah – Ein Blick hinter Cursors mysteriöses KI‑Modell und seine Leistung
Einführung
Ein neues KI‑Modell namens Cheetah ist exklusiv auf der Cursor‑Plattform erschienen und weckt das Interesse von Entwicklern und KI‑Enthusiasten. Es wird als „Stealth“-Modell mit einer Pay‑per‑Token‑Preisstruktur vermarktet, wobei die Fähigkeiten und die zugrunde liegende Architektur von Cheetah nicht sofort ersichtlich sind. In diesem Artikel untersuchen wir die Preisgestaltung des Modells, testen seine Leistung bei einer Reihe agentischer Aufgaben, vergleichen es mit bekannten Konkurrenten wie Claude, Sonnet 4.5 und GPT‑5 CodeX und präsentieren die plausibelsten Hypothesen zu seiner wahren Identität.
Was ist Cheetah?
Cheetah wird ausschließlich über Cursor angeboten, einer KI‑unterstützten Entwicklungsumgebung. Das Modell wird als „Stealth“-Angebot beschrieben, das bedeutet, es ist nicht in der üblichen öffentlichen Modellliste aufgeführt. Der Zugriff erfordert ein Cursor‑Abonnement, wonach die Nutzung mit 125 $ plus 10 $ pro Million Tokens für berechnet wird.
Wichtige Punkte zu Cheetah:
- Exklusiv für Cursor – nicht über irgendeine andere API oder Plattform
- Pay‑as‑you‑go‑Preisgestaltung – eine Pauschalgebühr plus Token‑Kosten, ähnlich der Preisstruktur von Gemini 2.5 Pro und GPT‑5 CodeX.
- Begrenzte Dokumentation – Cursor liefert nur minimale Informationen, sodass die internen Details des Modells undurchsichtig bleiben.
Preislicher Kontext
Die Kostenstruktur von Cheetah spiegelt die mehrerer High‑End‑Modelle auf dem Markt wider:
- Gemini 2.5 Pro – identische Token‑Preise.
- GPT‑5 CodeX – vergleichbare Preisstufen.
- Claude Sonnet 4.5 – ähnliche Abonnement‑Levels für Vielnutzer.
Diese Preisüberschneidung legt nahe, dass Cheetah eher eine umverpackte Version eines bestehenden Modells sein könnte als eine völlig neue Architektur.
Testmethodik
Um Cheetah zu bewerten, wurden mehrere agentische Tests durchgeführt. Diese Tests simulieren realistische Entwicklungsaufgaben wie:
- Erstellung einer Movie‑Tracker‑App, die Radix‑UI‑Komponenten verwendet.
- Aufbau eines Kanban‑Boards mit Authentifizierung und Datenbank‑Backend.
- Entwicklung einer ‑ähnlichen Q&A‑Seite.
- Implementierung eines Bild‑Zuschneide‑Tools.
Für jede Aufgabe wurde die Ausgabe des Modells mit den Ergebnissen von Claude Code, Sonnet 4.5 und GPT‑5 CodeX verglichen. Der Erfolg wurde anhand von funktionaler Vollständigkeit, Code‑Korrektheit und der Fähigkeit, Fehler eigenständig zu beheben, gemessen.
Leistungsvergleich
Movie‑Tracker‑App (Radix UI)
- Claude Code lieferte eine korrekte Implementierung mit nur wenigen Fehlern.
- Sonnet 4.5 erzeugte eine ähnliche Antwort, zeigte jedoch ein bekanntes „Radix‑UI“-Fehlermuster.
- Cheetah bot eine vergleichbare Lösung, wies jedoch deutlichere Mängel auf und konnte das Radix‑UI‑Problem nicht zuverlässig lösen.
Kanban‑Board mit Auth & DB
- Claude Code stellte einen voll funktionsfähigen Prototyp bereit.
- Cheetah kam nahe, ließ jedoch mehrere Bugs zurück, die es nicht automatisch beheben konnte.
- GPT‑5 CodeX hatte ebenfalls Schwierigkeiten und produzierte unvollständigen Code.
Stack‑Overflow‑ähnliche Seite
- Sowohl Claude Code als auch Cheetah konnten keine funktionierende Version erzeugen, was die Schwierigkeit der Aufgabe für aktuelle agentische Modelle verdeutlicht.
Bild‑Zuschneider
- Die Aufgabe misslang Cheetah, Sonnet 4.5 und GPT‑5 CodeX, die jeweils nicht‑funktionale Code‑Snippets zurückgaben.
Insgesamt liegt Cheetahs Leistung zwischen Claude Code und Sonnet 4.5: Sie liegt häufig hinter Claude Code zurück, kann aber bei einfacheren Eingaben gelegentlich Sonnet erreichen.
Untersuchung der Modellidentität
Eine Reihe von System‑Prompt‑Experimenten wurde durchgeführt, um Cheetah zur Offenlegung seines internen Namens zu zwingen. Die Ergebnisse waren überraschend:
- Auf direkte Nachfrage identifizierte sich Cheetah wiederholt als Claude.
- System‑Anweisungen enthüllten eine generische Beschreibung: „You are the mystery language model Cheetah by an unknown provider.“
Diese Beobachtungen deuten darauf hin, dass Cheetah stark auf Claude‑ähnliche Ausgaben feinabgestimmt sein könnte. Es entstanden mehrere Hypothesen:
1. Eine Grok‑basierte Variante
- Grok Code zeigt ein ähnliches Verhalten: Man kann es dazu bringen, Rollen‑Beschränkungen zu brechen, und es gibt dann zu, Claude‑ähnlich zu sein, weil es mit umfangreichen Claude‑Stil‑Daten trainiert wurde.
- API‑Logs anderer Dienste zeigen Grok‑Modelle neben GPT‑5‑Einträgen, was die Idee unterstützt, dass Cheetah ein aus Grok abgeleitetes Modell sein könnte, das für Cursor umverpackt wurde.
2. Sonnet 4.5 Fast‑Edit
- Historisch veröffentlichte Anthropic ein Sonnet 3.5 Fast‑Edit‑Modell für eine begrenzte Gruppe von Zed‑Nutzern. Es war für hohe Geschwindigkeit und nahezu identische Ausgabequalität zu Standard‑Sonnet bekannt.
- Cheetahs Geschwindigkeit und Preis ähneln dieser Fast‑Edit‑Linie, doch die funktionalen Lücken deuten darauf hin, dass es kein echtes Sonnet 4.5 Fast‑Edit ist.
3. Eigenes Cursor‑Trainingsmodell
- Cursor könnte ein In‑House‑Modell auf Claude‑abgeleiteten Datensätzen trainiert haben, ähnlich dem Vorgehen anderer Anbieter (z. B. WindSurf).
- Die feine Ähnlichkeit zu Claude ohne direkte Lizenzierung wäre jedoch schwierig zu erreichen, weshalb diese Hypothese weniger wahrscheinlich erscheint.
4. GPT‑5 CodeX Fast‑Variante
- Einige API‑Logs listen GPT‑5‑Modelle in der Nähe von Cheetahs Eintrag, was auf eine mögliche Fast‑Mode‑Version hindeutet.
- Leistungsunterschiede, besonders bei komplexen Aufgaben, sprechen gegen eine reine GPT‑5‑Identität.
Die plausibelste Schlussfolgerung ist, dass Cheetah ein Grok‑abgeleitetes Modell (möglicherweise ein Nachfolger von Grok Code Fast) ist, das stark auf Claude‑Stil‑Daten feinabgestimmt wurde. Das erklärt sowohl die Preisähnlichkeit als auch die Tendenz, sich als Claude zu bezeichnen.
Auswirkungen für Entwickler
- Kosten‑Transparenz – Die Token‑Preisgestaltung entspricht Premium‑Modellen, sodass Entwickler bei intensiver Nutzung entsprechend budgetieren sollten.
- Leistungs‑Abwägungen – Während Cheetah schnelle Antworten liefert, bleibt seine Zuverlässigkeit bei komplexen agentischen Aufgaben hinter Top‑Modellen wie Claude Code zurück.
- Vendor‑Lock‑In – Da Cheetah exklusiv zu Cursor gehört, erfordert ein Wechsel zu einer anderen Plattform eine Neubewertung der Modellwahl.
Fazit
Cheetah stellt eine interessante Ergänzung von Cursors KI‑Werkzeugkasten dar: ein schnelles, stealth‑Modell, das wie andere Premium‑Angebote bepreist wird, aber bei anspruchsvollen Entwicklungsaufgaben inkonsistente Ergebnisse liefert. Durch systematisches Testen und gezieltes Befragen deuten die Befunde darauf hin, dass Cheetah ein Grok‑basiertes Modell ist, das stark auf Claude‑Ausgaben feinabgestimmt wurde, und nicht ein echtes Sonnet 4.5 Fast‑Edit oder eine reine GPT‑5‑Variante.
Für Entwickler, die KI‑Modelle abwägen, kann Cheetah für schnelle, wenig komplexe Code‑Generierung gut geeignet sein. Für missionskritische oder anspruchsvolle agentische Workflows bleiben etablierte Modelle wie Claude Code oder Gemini 2.5 Pro die sichereren Optionen.