Revue de Claude 4.5 Haiku – Pourquoi le dernier modèle d’Anthropic ne répond pas aux attentes
Revue de Claude 4.5 Haiku – Pourquoi le dernier modèle d’Anthropic ne répond pas aux attentes
Introduction
Anthropic a annoncé le modèle Claude 4.5 Haiku comme la prochaine étape de sa gamme d’IA, promettant des performances comparables au modèle phare Claude Sonnet 4 tout en offrant un tiers du coût et le double de la vitesse. Le déploiement a été présenté comme une victoire majeure pour les développeurs qui ont besoin d’un modèle de raisonnement rapide et abordable.
Cependant, une série de tests pratiques révèle une tout autre réalité. Dans les tâches de codage, la génération visuelle et les flux de travail d’agents autonomes, Claude 4.5 Haiku sous‑perfome de façon constante, souvent de manière spectaculaire. Cet article décortique les résultats, examine la stratégie tarifaire et propose des alternatives pour quiconque recherche un modèle fiable et économique.
Aperçu de Claude 4.5 Haiku
- Positionnement : Commercialisé comme un modèle « petit » pour un usage quotidien, placé aux côtés de Claude Opus (haut de gamme) et Claude Sonnet (milieu de gamme).
- Promesses : 1/3 du coût de Sonnet 4, >2 × plus rapide en inférence, et des capacités de codage comparables.
- Disponibilité : Intégré à Claude Code, à l’application web Claude, et proposé comme remplacement direct de Sonnet 4 dans les appels API.
Le matériel promotionnel mettait en avant des graphiques suggérant un compromis fluide entre vitesse, prix et capacité. La réalité, comme le montrent les tests, est bien moins favorable.
Benchmarks et tests en conditions réelles
Génération visuelle
Test | Résultat | Qualité attendue |
---|---|---|
Plan d’étage SVG | Disposition incohérente, murs qui se croisent aléatoirement | Diagramme architectural exploitable |
Panda tenant un burger (SVG) | Panda reconnaissable mais composition médiocre | Illustration nette et bien équilibrée |
Pokéball 3‑JS | Géométrie cassée, code non fonctionnel | Objet 3‑D interactif |
Rendu d’échiquier | Cases mal alignées, pièces manquantes | Représentation exacte du plateau |
Clone Minecraft basé sur le web | Non fonctionnel, ressources manquantes | Environnement bac à sable jouable |
Papillon dans un jardin | Acceptable mais sans éclat | Image détaillée et esthétiquement plaisante |
Les sorties visuelles étaient soit totalement inutilisables, soit, au mieux, médiocres. Pour un modèle présenté comme assistant capable de raisonnement, de tels échecs sont un signal d’alarme.
Performance en codage et agents
- Application Movie Tracker (intégration Clawed Code) : Renvoie une erreur 404 ; le point de terminaison généré n’a jamais été créé.
- Calculateur terminal Go : Produit des erreurs de syntaxe et une mise en page incohérente, rendant l’outil inutilisable.
- Prototype de jeu Godo : Bourré d’erreurs d’exécution ; le code ne compile pas.
- Génération de dépôt open‑source : Structures de fichiers constamment malformées et dépendances cassées.
- Outil CLI & script Blender : Aucun des deux ne s’exécute ; tous deux contiennent des erreurs fatales.
Des exécutions répétées (plus de cinq tentatives par test) ont donné les mêmes mauvais résultats, indiquant des lacunes systémiques plutôt que des bugs ponctuels.
Prix vs. performance
Les paliers tarifaires d’Anthropic reflètent la structure à trois modèles d’OpenAI :
- Opus ≈ GPT‑5 (haut de gamme)
- Sonnet ≈ GPT‑5 (milieu de gamme)
- Haiku ≈ GPT‑5 Mini (bas de gamme)
Cependant, Claude 4.5 Haiku coûte environ trois fois plus que des alternatives comparables telles que GLM‑4.6‑6 (≈ 0,50 $‑1,75 $ par million de tokens) tout en offrant ~200 % de performance en moins sur les mêmes benchmarks. Son prix n’a donc aucun sens ni pour les entreprises, ni pour les utilisateurs individuels.
Pourquoi le modèle ne tient pas ses promesses
- Régression des capacités de base – Sonnet 4 avait fixé la barre haute pour l’assistance au codage ; Haiku 4.5 recule sur pratiquement tous les indicateurs.
- Public cible mal aligné – Le modèle semble optimisé pour le volume d’API en entreprise plutôt que pour une utilité concrète, sacrifiant la qualité au profit de gains de vitesse marginaux.
- Pression stratégique – Anthropic semble poussé à mettre en avant des modèles « bas coût, rapides » pour satisfaire les investisseurs, privilégiant les gros titres de benchmark à la performance fonctionnelle.
- Absence d’entraînement guidé par les benchmarks – Contrairement aux versions antérieures d’Anthropic qui évitaient le sur‑ajustement aux benchmarks, Haiku paraît avoir été réglé sur les métriques de coût au détriment de l’utilité pratique.
Alternatives recommandées
Si vous avez besoin d’un modèle rapide et abordable pour le codage, la synthèse ou un raisonnement simple, envisagez les options suivantes :
- GLM‑4.6‑6 – Assistance au codage solide, coût token inférieur et scores de benchmark satisfaisants.
- GPT‑5 Mini – Performance équilibrée avec un prix compétitif.
- Gro Code Fast – Optimisé pour la génération de code rapide à un prix raisonnable.
Ces modèles surpassent régulièrement Claude 4.5 Haiku tant en précision qu’en efficacité économique.
Conclusion
Le Claude 4.5 Haiku d’Anthropic a été présenté comme le successeur économique et ultra‑rapide de Sonnet 4, mais des tests approfondis montrent qu’il est nettement plus faible dans les domaines du codage, de la génération visuelle et des tâches d’agents autonomes. Son tarif ne reflète pas la dégradation des performances, ce qui en fait un mauvais choix pour les développeurs et les entreprises.
Pour quiconque évalue des modèles d’IA aujourd’hui, les preuves suggèrent d’éviter Haiku 4.5 et de se tourner vers des alternatives éprouvées telles que GLM‑4.6‑6, GPT‑5 Mini ou Gro Code Fast. Ces solutions offrent la vitesse et l’accessibilité promises sans sacrifier la fiabilité requise par les flux de travail d’IA modernes.