spdup.net

Actualités tech

Dévoiler Cheetah – Au cœur du modèle d'IA mystérieux de Cursor et de ses performances


Dévoiler Cheetah – Au cœur du modèle d’IA mystérieux de Cursor et de ses performances

Introduction

Un nouveau modèle d’IA appelé Cheetah est apparu exclusivement sur la plateforme Cursor, suscitant la curiosité des développeurs et des passionnés d’IA. Commercialisé comme un modèle « stealth » avec une tarification au token, les capacités de Cheetah et son architecture sous‑jacente ne sont pas immédiatement claires. Dans cet article, nous examinons la tarification du modèle, testons ses performances sur une série de tâches agentiques, le comparons à des concurrents connus tels que Claude, Sonnet 4.5 et GPT‑5 CodeX, et présentons les hypothèses les plus plausibles quant à sa véritable identité.


Qu’est‑ce que Cheetah ?

Cheetah est proposé uniquement via Cursor, un environnement de développement enrichi par l’IA. Le modèle est décrit comme une offre « stealth », c’est‑à‑dire qu’il n’apparaît pas parmi les modèles publics habituels. L’accès nécessite un abonnement Cursor, après quoi l’utilisation est facturée à 125 $ plus 10 $ par million de tokens pour les entrées et les sorties.

Points clés concernant Cheetah :

  • Exclusif à Cursor – non disponible via aucune autre API ou plateforme.
  • Tarification à l’usage – un forfait fixe + frais au token, similaire aux tarifs de Gemini 2.5 Pro et GPT‑5 CodeX.
  • Documentation limitée – Cursor ne fournit que des informations minimales, laissant les internes du modèle opaques.

Contexte tarifaire

La structure de coûts de Cheetah reflète celle de plusieurs modèles haut de gamme du marché :

  • Gemini 2.5 Pro – tarifs au token identiques.
  • GPT‑5 CodeX – niveaux de prix comparables.
  • Claude Sonnet 4.5 – abonnements similaires pour les gros utilisateurs.

Ce chevauchement tarifaire suggère que Cheetah pourrait être une version reconditionnée d’un modèle existant plutôt qu’une toute nouvelle architecture.


Méthodologie de test

Pour évaluer Cheetah, nous avons exécuté une série de tests agentiques. Ces tests simulent des tâches de développement réalistes telles que :

  1. Construire une application de suivi de films utilisant les composants Radix UI.
  2. Créer un tableau Kanban avec authentification et base de données en arrière‑plan.
  3. Développer un site de questions‑réponses à la Stack Overflow.
  4. Implémenter un outil de recadrage d’image.

Pour chaque tâche, la sortie du modèle a été comparée à celle de Claude Code, Sonnet 4.5 et GPT‑5 CodeX. Le succès a été mesuré par la complétude fonctionnelle, la justesse du code et la capacité à résoudre les erreurs de façon autonome.


Comparaison des performances

Application de suivi de films (Radix UI)

  • Claude Code a produit une implémentation correcte avec peu d’erreurs.
  • Sonnet 4.5 a généré une réponse similaire mais a affiché un problème connu lié à « Radix UI ».
  • Cheetah a fourni une solution comparable mais avec des lacunes plus visibles, ne parvenant pas à résoudre de façon fiable le problème Radix UI.

Tableau Kanban avec authentification & BD

  • Claude Code a livré un prototype pleinement fonctionnel.
  • Cheetah s’en est approché mais a laissé plusieurs bugs qu’il n’a pas pu corriger automatiquement.
  • GPT‑5 CodeX a également eu des difficultés, produisant un code incomplet.

Site de type Stack Overflow

  • Tant Claude Code que Cheetah n’ont pas réussi à produire une version fonctionnelle, ce qui montre la difficulté de la tâche pour les modèles agentiques actuels.

Outil de recadrage d’image

  • La tâche a échoué pour Cheetah, Sonnet 4.5 et GPT‑5 CodeX, chacun renvoyant des extraits non fonctionnels.

Dans l’ensemble, les performances de Cheetah se situent entre Claude Code et Sonnet 4.5 : il est souvent en dessous de Claude Code mais parfois à la hauteur de Sonnet sur des invites plus simples.


Investigation de l’identité du modèle

Une série d’expériences avec des invites système a été réalisée pour forcer Cheetah à révéler son nom interne. Les résultats sont intrigants :

  • Lorsqu’on le questionne directement, Cheetah s’identifie à plusieurs reprises comme Claude.
  • Les instructions système affichent une description générique : « Vous êtes le modèle de langage mystérieux Cheetah d’un fournisseur inconnu. »

Ces observations laissent penser que Cheetah est fortement affiné sur des sorties de type Claude. Plusieurs hypothèses ont émergé :

1. Variante basée sur Grok

  • Grok Code montre un comportement similaire : on peut le pousser à briser les restrictions de jeu de rôle, puis il admet être « Claude‑like » à cause d’un entraînement intensif sur des données de style Claude.
  • Des journaux d’API d’autres services montrent des modèles Grok apparaissant aux côtés d’entrées GPT‑5, ce qui soutient l’idée que Cheetah pourrait être un modèle dérivé de Grok reconditionné pour Cursor.

2. Sonnet 4.5 Fast‑Edit

  • Historiquement, Anthropic a publié un modèle Sonnet 3.5 Fast‑Edit pour un groupe restreint d’utilisateurs Zed. Il était réputé pour sa grande vitesse et une qualité de sortie quasi identique à Sonnet standard.
  • La rapidité et le prix de Cheetah rappellent cette lignée, mais ses lacunes fonctionnelles suggèrent qu’il n’est pas un véritable Sonnet 4.5 Fast‑Edit.

3. Modèle entraîné en interne par Cursor

  • Cursor pourrait avoir entraîné un modèle interne sur des jeux de données dérivés de Claude, à l’instar d’autres fournisseurs (p. ex. WindSurf).
  • Cependant, reproduire une similarité nuancée à Claude sans licence directe serait difficile, rendant cette hypothèse moins probable.

4. Variante rapide de GPT‑5 CodeX

  • Certains journaux d’API listent des modèles GPT‑5 à proximité de l’entrée Cheetah, laissant envisager une version mode rapide.
  • Les écarts de performance, surtout sur les tâches complexes, vont à l’encontre d’une identité purement GPT‑5.

La conclusion la plus plausible est que Cheetah est un modèle dérivé de Grok (potentiellement un successeur de Grok Code Fast) qui a été fortement affiné sur des données de style Claude, expliquant à la fois la similitude tarifaire et la tendance à se proclamer Claude.


Implications pour les développeurs

  • Transparence des coûts – La tarification au token s’aligne sur les modèles premium, les développeurs doivent donc prévoir un budget conséquent en cas d’usage intensif.
  • Compromis de performance – Bien que Cheetah offre des réponses rapides, sa fiabilité sur des tâches agentiques complexes reste inférieure aux modèles de pointe comme Claude Code.
  • Verrouillage fournisseur – Puisque Cheetah est exclusif à Cursor, passer à une autre plateforme nécessiterait de réévaluer les choix de modèles.

Conclusion

Cheetah représente une addition intrigante à la boîte à outils IA de Cursor : un modèle rapide et « stealth », tarifé comme les offres premium mais fournissant des résultats inconstants sur des tâches de développement exigeantes. À travers des tests systématiques et des investigations, les preuves pointent vers Cheetah étant un modèle basé sur Grok, fortement affiné sur des sorties Claude, plutôt qu’un véritable Sonnet 4.5 Fast‑Edit ou une variante pure de GPT‑5.

Pour les développeurs qui pèsent leurs options de modèles IA, Cheetah peut convenir pour de la génération de code rapide et de faible complexité, mais pour des flux de travail agentiques critiques ou très complexes, les modèles établis comme Claude Code ou Gemini 2.5 Pro restent les choix les plus sûrs.

Voir la Vidéo Originale