Métricas Performance API: Latencia, Throughput, Error Rate

Las métricas performance API trackean velocidad, capacidad, fiabilidad — latencia p50/p95/p99, throughput (RPS), error rate, saturación. Base SLOs.

¿Qué son métricas performance API?

Las métricas performance API son medidas cuantitativas de cómo una API se comporta bajo carga real o simulada. Responden: ¿Qué tan rápido responde? ¿Cuánto tráfico puede manejar? ¿Con qué frecuencia falla? Juntas, estas métricas forman la base de SLAs, SLOs y planning capacidad.

Las cuatro golden signals

SignalQué mideEjemplo
LatenciaTiempo por requestp95 = 250ms
ThroughputRequests por unidad tiempo1.500 RPS
ErroresTasa requests fallidos0,3% 5xx
SaturaciónQué tan "lleno" el sistemaCPU 80%

Latencia: percentiles, no averages

PercentilQué te dice
p50 (mediana)Request típico
p955% usuarios ven esto o peor
p991% ven esto o peor
p99.90,1% — peores experiencias
MaxPeor request único

Throughput: requests por segundo (RPS)

  • RPS
  • QPS
  • Usuarios concurrentes / VUs
  • Bandwidth

Tasa errores

  • Errores 5xx — server faults
  • Errores 4xx — client errors
  • Timeouts
  • Errores conexión

Saturación

  • Utilización CPU
  • Uso memoria
  • Disk I/O
  • Bandwidth red
  • Profundidad cola
  • File descriptors abiertos
  • Conteos thread/conexión

Métricas application-específicas

MétricaQué te dice
TTFBTiempo respuesta servidor antes payload
Tiempo respuesta totalLatencia end-to-end
Tiempo DNS lookupOverhead resolución red
Tiempo conexiónHandshake TCP/TLS
Tiempo query DBCuánta latencia es DB
Score Apdex0-1 ponderado por satisfacción
Tasa conversiónOutcome business

SLI / SLO / SLA

TérminoSignificadoEjemplo
SLILa métrica mismaLatencia p95
SLOTarget internop95 < 500ms
SLAContrato customer-facing99,9% uptime
Error budgetCuánto puedes fallar43m/mes a 99,9%

Cómo medir performance API

Testing sintético / load

Tools: JMeter, k6, Locust, Gatling.

Real User Monitoring (RUM)

Tools: Datadog, New Relic, Sentry.

APM

Tools: Datadog APM, New Relic APM, Dynatrace, OpenTelemetry.

Logs + métricas + traces

Estándar OpenTelemetry.

Mejores prácticas performance API

  • Medir, no adivinar.
  • Trackear percentiles.
  • Definir SLOs.
  • Alertar en burn rate.
  • Testear sobre carga esperada.
  • Monitor saturación.
  • Taggear por endpoint + versión.
  • Slicear por región/browser/device.
  • Load testing continuous en CI.

Pitfalls comunes

  • Reportar averages.
  • Solo medir en staging.
  • Sin disciplina SLO.
  • Alertar en todos 5xx.
  • Reliance herramienta única.
  • Performance testeada una vez.
  • Ignorar latencia tail.

FAQ: métricas performance API

¿Cuál es buena latencia API?

APIs web: p95 < 500ms.

¿Cómo encuentro mi throughput máximo?

Load test aumentando RPS hasta latencia degradar.

¿Tasa error aceptable?

SLOs: < 0,1% 5xx.

¿p95 vs p99: cuál trackear?

Ambos.

¿Cómo se relaciona throughput con capacidad?

Capacidad es throughput max sustenible.

¿Qué es un error budget?

La cantidad de unreliability permitida por un SLO.

¿Con qué frecuencia load testing?

Continuously en CI.

Mide performance API con LoadFocus

LoadFocus corre scripts JMeter y k6 desde 25+ regiones. Regístrate en loadfocus.com/signup.

¿Qué tan rápido es tu sitio web?

Mejora su velocidad y SEO sin problemas con nuestra Prueba de Velocidad gratuita.

Prueba de velocidad de sitio web gratis

Analice la velocidad de carga de su sitio web y mejore su rendimiento con nuestro comprobador de velocidad de página gratuito.

×