Métricas Performance API: Latencia, Throughput, Error Rate
Las métricas performance API trackean velocidad, capacidad, fiabilidad — latencia p50/p95/p99, throughput (RPS), error rate, saturación. Base SLOs.
¿Qué son métricas performance API?
Las métricas performance API son medidas cuantitativas de cómo una API se comporta bajo carga real o simulada. Responden: ¿Qué tan rápido responde? ¿Cuánto tráfico puede manejar? ¿Con qué frecuencia falla? Juntas, estas métricas forman la base de SLAs, SLOs y planning capacidad.
Las cuatro golden signals
| Signal | Qué mide | Ejemplo |
|---|---|---|
| Latencia | Tiempo por request | p95 = 250ms |
| Throughput | Requests por unidad tiempo | 1.500 RPS |
| Errores | Tasa requests fallidos | 0,3% 5xx |
| Saturación | Qué tan "lleno" el sistema | CPU 80% |
Latencia: percentiles, no averages
| Percentil | Qué te dice |
|---|---|
| p50 (mediana) | Request típico |
| p95 | 5% usuarios ven esto o peor |
| p99 | 1% ven esto o peor |
| p99.9 | 0,1% — peores experiencias |
| Max | Peor request único |
Throughput: requests por segundo (RPS)
- RPS
- QPS
- Usuarios concurrentes / VUs
- Bandwidth
Tasa errores
- Errores 5xx — server faults
- Errores 4xx — client errors
- Timeouts
- Errores conexión
Saturación
- Utilización CPU
- Uso memoria
- Disk I/O
- Bandwidth red
- Profundidad cola
- File descriptors abiertos
- Conteos thread/conexión
Métricas application-específicas
| Métrica | Qué te dice |
|---|---|
| TTFB | Tiempo respuesta servidor antes payload |
| Tiempo respuesta total | Latencia end-to-end |
| Tiempo DNS lookup | Overhead resolución red |
| Tiempo conexión | Handshake TCP/TLS |
| Tiempo query DB | Cuánta latencia es DB |
| Score Apdex | 0-1 ponderado por satisfacción |
| Tasa conversión | Outcome business |
SLI / SLO / SLA
| Término | Significado | Ejemplo |
|---|---|---|
| SLI | La métrica misma | Latencia p95 |
| SLO | Target interno | p95 < 500ms |
| SLA | Contrato customer-facing | 99,9% uptime |
| Error budget | Cuánto puedes fallar | 43m/mes a 99,9% |
Cómo medir performance API
Testing sintético / load
Tools: JMeter, k6, Locust, Gatling.
Real User Monitoring (RUM)
Tools: Datadog, New Relic, Sentry.
APM
Tools: Datadog APM, New Relic APM, Dynatrace, OpenTelemetry.
Logs + métricas + traces
Estándar OpenTelemetry.
Mejores prácticas performance API
- Medir, no adivinar.
- Trackear percentiles.
- Definir SLOs.
- Alertar en burn rate.
- Testear sobre carga esperada.
- Monitor saturación.
- Taggear por endpoint + versión.
- Slicear por región/browser/device.
- Load testing continuous en CI.
Pitfalls comunes
- Reportar averages.
- Solo medir en staging.
- Sin disciplina SLO.
- Alertar en todos 5xx.
- Reliance herramienta única.
- Performance testeada una vez.
- Ignorar latencia tail.
FAQ: métricas performance API
¿Cuál es buena latencia API?
APIs web: p95 < 500ms.
¿Cómo encuentro mi throughput máximo?
Load test aumentando RPS hasta latencia degradar.
¿Tasa error aceptable?
SLOs: < 0,1% 5xx.
¿p95 vs p99: cuál trackear?
Ambos.
¿Cómo se relaciona throughput con capacidad?
Capacidad es throughput max sustenible.
¿Qué es un error budget?
La cantidad de unreliability permitida por un SLO.
¿Con qué frecuencia load testing?
Continuously en CI.
Mide performance API con LoadFocus
LoadFocus corre scripts JMeter y k6 desde 25+ regiones. Regístrate en loadfocus.com/signup.
Herramientas LoadFocus relacionadas
Lleva este concepto a la práctica con LoadFocus — la misma plataforma que potencia todo lo que acabas de leer.