News · Cloud

Hetzner launcht H100-GPU-Server — EU-Preis-Schock für Inferenz-Workloads

Hetzner bringt H100-SXM5-Single-GPU- und Quad-GPU-Server in Falkenstein und Helsinki. Preise unter dem halben Marktwert von AWS und CoreWeave.

Harbinger Team·10. Mai 2026
Quelle
Hetzner Blog— gepostet 10. Mai 2026

Hetzner hat heute seine erste H100-SXM5-GPU-Linie im Cloud- Bereich angekündigt. Single-H100 ab 2,49 €/h, Quad-H100 ab 8,90 €/h — Preise, die auf dem Hyperscaler-Markt schwer zu unterbieten sind. Verfügbar in Falkenstein und Helsinki.

TL;DR

  • Hetzner CCX-GPU-H100 ist live, drei Varianten:
    • 1× H100-SXM5 80 GB — 2,49 €/h (1.812 €/Monat)
    • 2× H100-SXM5 80 GB — 4,75 €/h
    • 4× H100-SXM5 80 GB — 8,90 €/h
  • Vergleich: AWS p5.48xlarge (8× H100) liegt in eu-central-1 bei ~$60/h ($43.500/Monat) — Hetzner bietet 4× H100 für ~6.500 €/Monat.
  • CoreWeave und Lambda Labs liegen bei 2–3,50 $/h pro H100 — Hetzner ist 30–40 % darunter.
  • Verfügbar als Cloud-Compute mit Stunden-Billing (kein Lock-in) ODER als Dedicated Server mit Monatsvertrag (noch billiger).
  • NVLink-Interconnect zwischen GPUs nur in der Quad-Variante.

Was wurde geändert

Hetzner hatte vorher RTX-4090- und A100-PCIe-Server für GPU- Workloads, aber kein H100-Angebot. Das galt als Lücke — A100 reicht nicht mehr für moderne LLM-Training-Setups, und H100-SXM mit NVLink ist für viele MoE-Modelle Voraussetzung.

Die neue Linie nutzt Supermicro AS-8125GS-TNHR Chassis mit HGX-Boards, also echte H100-SXM5 (700W, NVLink), nicht die schwächere H100-PCIe (350W). Storage: 4 TB NVMe Local + bis zu 30 TB extra. Network: 100 GbE redundant zum Storage-Layer.

Spannend: Hetzner bietet die Maschinen auch als Auction-Server an — gebrauchte Builds aus dem Cloud-Pool mit 20–30 % Rabatt gegen Vertrag.

Was bedeutet das für DACH-Teams

Für LLM-Inferenz und Fine-Tuning in EU ist das eine echte Alternative zur Hyperscaler-Sklaverei. Konkrete Use-Cases:

  • Self-Hosted Llama-3 70B / Mistral-Large: 1× H100 reicht für 4-bit-quantisiertes 70B mit ~30 tok/s — bei 1.800 €/Monat konkurrenzfähig gegen die Token-Preise von Anthropic für Volume-Workloads ab ~300M Tokens/Monat.
  • Fine-Tuning kleinerer Modelle (7B–13B): Quad-H100 ist ausreichend, Cost-per-Token-Training bei ~1/4 von AWS p5.
  • RAG-Pipelines mit Embedding-Inference + LLM: gemischte Workload auf einem Server — Embedder + LLM auf derselben GPU.

Aber Vorsicht: Hetzner hat keine Multi-Tenant-GPU-Isolation mit MIG, keine VPC mit Layer-3-Isolation, und der SLA ist 99,9 % — wenn der Server ausfällt, brauchst du Reboot-Automation oder ein Failover-Setup. Für Production- Inference-APIs mit Compliance-Anforderungen ist das wichtig.

Außerdem: GPU-Server bei Hetzner sind regelmäßig ausverkauft. Wer das ernsthaft plant, sollte sofort buchen, nicht warten.

Quelle: Hetzner Blog

Stand: 10. Mai 2026. GPU-Preise und Verfügbarkeit ändern sich schnell — Hetzner-Robot oder Cloud-Console prüfen.

Weitere News aus Cloud

Wochen-Digest

News dieser Art direkt ins Postfach

Freitag 9:00, drei News mit Einordnung, ein Rechner, eine Take.

Kein Spam. 1-Klick-Abmeldung. Datenschutz bei Loops.so.

Einordnung von Harbinger Team. News-Tipp oder Korrektur? Schreib uns.