Métriques Performance API : Latence, Throughput, Error Rate
Les métriques performance API trackent vitesse, capacité, fiabilité — latence p50/p95/p99, throughput (RPS), error rate, saturation. Base des SLOs.
Qu'est-ce que les métriques performance API ?
Les métriques performance API sont des mesures quantitatives de comment une API se comporte sous charge réelle ou simulée. Elles répondent : À quelle vitesse répond-elle ? Combien de trafic peut-elle gérer ? À quelle fréquence échoue-t-elle ? Ensemble, ces métriques forment la base des SLAs, SLOs et planning capacité.
Les quatre golden signals
| Signal | Ce qu'il mesure | Exemple |
|---|---|---|
| Latence | Temps par requête | p95 = 250ms |
| Throughput | Requêtes par unité de temps | 1 500 RPS |
| Erreurs | Taux requêtes failed | 0,3% 5xx |
| Saturation | À quel point le système est "plein" | CPU 80% |
Latence : percentiles, pas averages
| Percentile | Ce qu'il vous dit |
|---|---|
| p50 (médiane) | Requête typique |
| p95 | 5% utilisateurs voient ça ou pire |
| p99 | 1% voient ça ou pire |
| p99.9 | 0,1% — pires expériences |
| Max | Pire requête unique |
Throughput : requêtes par seconde (RPS)
- RPS
- QPS
- Utilisateurs concurrents / VUs
- Bandwidth
Taux d'erreurs
- Erreurs 5xx — server faults
- Erreurs 4xx — client errors
- Timeouts
- Erreurs connexion
Saturation
- Utilisation CPU
- Usage mémoire
- Disk I/O
- Bandwidth réseau
- Profondeur queue
- File descriptors ouverts
- Comptes thread/connexion
Métriques application-spécifiques
| Métrique | Ce qu'elle dit |
|---|---|
| TTFB | Temps réponse serveur avant payload |
| Temps réponse total | Latence end-to-end |
| Temps DNS lookup | Overhead résolution réseau |
| Temps connexion | Handshake TCP/TLS |
| Temps query DB | Combien de latence est DB |
| Score Apdex | 0-1 pondéré par satisfaction |
| Taux conversion | Outcome business |
SLI / SLO / SLA
| Terme | Signification | Exemple |
|---|---|---|
| SLI | La métrique elle-même | Latence p95 |
| SLO | Target interne | p95 < 500ms |
| SLA | Contrat customer-facing | 99,9% uptime |
| Error budget | Combien vous pouvez échouer | 43m/mois à 99,9% |
Comment mesurer la performance API
Testing synthétique / load
Outils : JMeter, k6, Locust, Gatling.
Real User Monitoring (RUM)
Outils : Datadog, New Relic, Sentry.
APM
Outils : Datadog APM, New Relic APM, Dynatrace, OpenTelemetry.
Logs + métriques + traces
Standard OpenTelemetry.
Best practices performance API
- Mesurer, pas deviner.
- Tracker percentiles.
- Définir SLOs.
- Alerter sur burn rate.
- Tester au-dessus de la charge attendue.
- Monitor saturation.
- Tagger par endpoint + version.
- Slicer par region/browser/device.
- Load testing continuous en CI.
Pièges courants
- Reporter averages.
- Mesurer seulement en staging.
- Pas de discipline SLO.
- Alerter sur tous les 5xx.
- Reliance outil unique.
- Performance testée une fois.
- Ignorer latence tail.
FAQ : métriques performance API
Quelle est une bonne latence API ?
APIs web : p95 < 500ms.
Comment je trouve mon throughput maximum ?
Load test en augmentant RPS jusqu'à dégradation latence.
Taux erreur acceptable ?
SLOs : < 0,1% 5xx.
p95 vs p99 : lequel tracker ?
Les deux.
Comment throughput est-il lié à capacité ?
Capacité est le throughput max sustainable.
Qu'est-ce qu'un error budget ?
La quantité d'unreliability permise par un SLO.
À quelle fréquence load testing ?
Continuously en CI.
Mesurez la performance API avec LoadFocus
LoadFocus exécute des scripts JMeter et k6 depuis 25+ régions. Inscrivez-vous sur loadfocus.com/signup.
Outils LoadFocus connexes
Mettez ce concept en pratique avec LoadFocus — la plateforme même qui propulse tout ce que vous venez de lire.