Hetzner launcht H100-GPU-Server — EU-Preis-Schock für Inferenz-Workloads
Hetzner bringt H100-SXM5-Single-GPU- und Quad-GPU-Server in Falkenstein und Helsinki. Preise unter dem halben Marktwert von AWS und CoreWeave.
Hetzner hat heute seine erste H100-SXM5-GPU-Linie im Cloud- Bereich angekündigt. Single-H100 ab 2,49 €/h, Quad-H100 ab 8,90 €/h — Preise, die auf dem Hyperscaler-Markt schwer zu unterbieten sind. Verfügbar in Falkenstein und Helsinki.
TL;DR
- Hetzner CCX-GPU-H100 ist live, drei Varianten:
- 1× H100-SXM5 80 GB — 2,49 €/h (1.812 €/Monat)
- 2× H100-SXM5 80 GB — 4,75 €/h
- 4× H100-SXM5 80 GB — 8,90 €/h
- Vergleich: AWS p5.48xlarge (8× H100) liegt in eu-central-1 bei ~$60/h ($43.500/Monat) — Hetzner bietet 4× H100 für ~6.500 €/Monat.
- CoreWeave und Lambda Labs liegen bei 2–3,50 $/h pro H100 — Hetzner ist 30–40 % darunter.
- Verfügbar als Cloud-Compute mit Stunden-Billing (kein Lock-in) ODER als Dedicated Server mit Monatsvertrag (noch billiger).
- NVLink-Interconnect zwischen GPUs nur in der Quad-Variante.
Was wurde geändert
Hetzner hatte vorher RTX-4090- und A100-PCIe-Server für GPU- Workloads, aber kein H100-Angebot. Das galt als Lücke — A100 reicht nicht mehr für moderne LLM-Training-Setups, und H100-SXM mit NVLink ist für viele MoE-Modelle Voraussetzung.
Die neue Linie nutzt Supermicro AS-8125GS-TNHR Chassis mit HGX-Boards, also echte H100-SXM5 (700W, NVLink), nicht die schwächere H100-PCIe (350W). Storage: 4 TB NVMe Local + bis zu 30 TB extra. Network: 100 GbE redundant zum Storage-Layer.
Spannend: Hetzner bietet die Maschinen auch als Auction-Server an — gebrauchte Builds aus dem Cloud-Pool mit 20–30 % Rabatt gegen Vertrag.
Was bedeutet das für DACH-Teams
Für LLM-Inferenz und Fine-Tuning in EU ist das eine echte Alternative zur Hyperscaler-Sklaverei. Konkrete Use-Cases:
- Self-Hosted Llama-3 70B / Mistral-Large: 1× H100 reicht für 4-bit-quantisiertes 70B mit ~30 tok/s — bei 1.800 €/Monat konkurrenzfähig gegen die Token-Preise von Anthropic für Volume-Workloads ab ~300M Tokens/Monat.
- Fine-Tuning kleinerer Modelle (7B–13B): Quad-H100 ist ausreichend, Cost-per-Token-Training bei ~1/4 von AWS p5.
- RAG-Pipelines mit Embedding-Inference + LLM: gemischte Workload auf einem Server — Embedder + LLM auf derselben GPU.
Aber Vorsicht: Hetzner hat keine Multi-Tenant-GPU-Isolation mit MIG, keine VPC mit Layer-3-Isolation, und der SLA ist 99,9 % — wenn der Server ausfällt, brauchst du Reboot-Automation oder ein Failover-Setup. Für Production- Inference-APIs mit Compliance-Anforderungen ist das wichtig.
Außerdem: GPU-Server bei Hetzner sind regelmäßig ausverkauft. Wer das ernsthaft plant, sollte sofort buchen, nicht warten.
Quelle: Hetzner Blog
Stand: 10. Mai 2026. GPU-Preise und Verfügbarkeit ändern sich schnell — Hetzner-Robot oder Cloud-Console prüfen.
Weitere News aus Cloud
Wochen-Digest
News dieser Art direkt ins Postfach
Freitag 9:00, drei News mit Einordnung, ein Rechner, eine Take.
Kein Spam. 1-Klick-Abmeldung. Datenschutz bei Loops.so.