API Performance Metrics: Latency, Throughput, Error Rate

API-Performance-Metrics tracken Speed, Kapazität, Zuverlässigkeit — Latency p50/p95/p99, Throughput (RPS), Error-Rate, Saturation.

Was sind API-Performance-Metrics?

API-Performance-Metrics sind quantitative Measures, wie eine API unter echtem oder simuliertem Load behavt. Sie beantworten: Wie schnell respondet sie? Wie viel Traffic kann sie handhaben? Wie oft failt sie? Zusammen bilden diese Metrics die Basis von SLAs, SLOs und Capacity-Planning.

Die vier Golden Signals

SignalWas es misstBeispiel
LatencyZeit pro Requestp95 = 250ms
ThroughputRequests pro Zeit-Unit1.500 RPS
ErrorsFailed-Request-Rate0,3% 5xx
SaturationWie "voll" das System istCPU 80%

Latency: Perzentile, nicht Averages

PerzentilWas es Ihnen sagt
p50 (Median)Typischer Request
p955% der User sehen das oder schlimmer
p991% sehen das oder schlimmer
p99.90,1% — schlimmste Erfahrungen
MaxSchlimmster Single-Request

Throughput: Requests per Second (RPS)

  • RPS
  • QPS
  • Concurrent Users / VUs
  • Bandwidth

Error-Rate

  • 5xx-Errors — Server-Faults
  • 4xx-Errors — Client-Errors
  • Timeouts
  • Connection-Errors

Saturation

  • CPU-Utilization
  • Memory-Usage
  • Disk-I/O
  • Network-Bandwidth
  • Queue-Depth
  • Open File-Descriptors
  • Thread/Connection-Counts

Application-spezifische Metrics

MetricWas es sagt
TTFBServer-Response-Time vor Payload
Total Response-TimeEnd-to-End Latency
DNS-Lookup-TimeNetwork-Resolution
Connection-TimeTCP/TLS-Handshake
Database-Query-TimeWie viel Latency ist DB
Apdex-Score0-1 Satisfaction-Score
Conversion-RateBusiness-Outcome

SLI / SLO / SLA

TermMeaningBeispiel
SLIDie Metric selbstp95-Latency
SLOInternes Targetp95 < 500ms
SLACustomer-facing Contract99,9% Uptime
Error-BudgetWie viel Sie failen können43m/Monat at 99,9%

Wie API-Performance gemessen wird

Synthetic / Load-Testing

Tools: JMeter, k6, Locust, Gatling.

Real User Monitoring (RUM)

Tools: Datadog, New Relic, Sentry.

APM

Tools: Datadog APM, New Relic APM, Dynatrace, OpenTelemetry.

Logs + Metrics + Traces

OpenTelemetry-Standard.

API-Performance Best Practices

  • Messen, nicht raten.
  • Perzentile tracken.
  • SLOs definieren.
  • Auf Burn-Rate alerten.
  • Über expected Load testen.
  • Saturation monitoren.
  • Per Endpoint + Version taggen.
  • Per Region/Browser/Device slicen.
  • Continuous Load-Testing in CI.

Häufige Fallstricke

  • Averages reporten.
  • Nur in Staging messen.
  • Keine SLO-Disziplin.
  • Auf alle 5xx alerten.
  • Single-Tool-Reliance.
  • Performance einmal getestet.
  • Tail-Latency ignorieren.

FAQ: API-Performance-Metrics

Was ist eine gute API-Latency?

Web-APIs: p95 < 500ms.

Wie finde ich meinen Max-Throughput?

Load-Test increasing RPS bis Latency degradiert.

Was ist eine acceptable Error-Rate?

Meist SLOs: < 0,1% 5xx.

p95 vs p99: was tracken?

Beide.

Wie ist Throughput related zu Capacity?

Capacity ist max sustainable Throughput.

Was ist ein Error-Budget?

Die Menge an Unreliability allowed by einem SLO.

Wie oft sollte ich Load-Testen?

Continuously in CI.

API-Performance mit LoadFocus messen

LoadFocus läuft JMeter- und k6-Scripts aus 25+ Regionen. Registrieren bei loadfocus.com/signup.

Wie schnell ist Ihre Website?

Steigern Sie ihre Geschwindigkeit und SEO nahtlos mit unserem kostenlosen Geschwindigkeitstest.

Kostenloser Websitespeed-Test

Analysieren Sie die Ladegeschwindigkeit Ihrer Website und verbessern Sie ihre Leistung mit unserem kostenlosen Seitengeschwindigkeits-Checker.

×