AWS

AWS EC2 Instance-Typen 2026: Welche Familie wofür wirklich passt

C7i, M7i, R7i, T4g, X2 — die EC2-Zoologie ist groesser als sie sein muesste. Was die Familien unterscheidet, was sie kosten und wo Graviton wirklich gewinnt.

Harbinger Team14. Mai 20269 Min. LesezeitAktualisiert 14.5.2026
  • aws
  • ec2
  • instance-types
  • graviton
  • pricing
  • compute
Inhaltsverzeichnis14 Abschnitte

Wer sich bei AWS zum ersten Mal die EC2-Instance-Familien-Tabelle anschaut, bekommt eine ehrliche Reaktion: zu viele Buchstaben. C7i, C7g, C7a, M7i, M7g, R7iz, X2idn, I4g, T4g — und das sind nur die aktuellen Generationen. Spoiler: die meisten Workloads brauchen drei davon, der Rest ist Optimierung.

Dieser Guide raeumt auf: welche Familie loest welches Problem, was kostet sie in eu-central-1 und wo lohnt sich Graviton wirklich. Stand der Preise: 14. Mai 2026.

TL;DR

  • C7i / C7g / C7a: Compute-optimiert. Web-Server, API-Backends, CI-Runner. Graviton (C7g) ist ~20 % guenstiger und in den meisten Faellen gleich schnell.
  • M7i / M7g: General Purpose. Wenn du nicht weisst was du brauchst, ist M die Default-Wahl.
  • R7i / R7iz / X2: Memory-optimiert. Caches, In-Memory-DBs, Java-Heaps jenseits 64 GB.
  • T4g: Burstable. Cron-Jobs, Dev-Instanzen, Side-Projects unter 20 % Average-Load.
  • Faustregel: Wenn Workload ARM-tauglich ist (>95 % heute), nimm Graviton. Spart ~20 % bei gleicher Performance.

Die Familien-Logik

EC2-Instances folgen einem Schema: <Familie><Generation><Suffix>.<Groesse>.

BuchstabeBedeutungWofuer
CCompute-optimiertCPU-bound, hoher Takt
MMemory:CPU 4:1 (Mittel)General Purpose
RMemory:CPU 8:1 (Hoch)In-Memory, Caches
XMemory-extrem (>= 16:1)SAP HANA, Riesen-Caches
IStorage-optimiertNVMe lokal, IOPS-Bedarf
GGPUInferenz, kleine Trainings
PGPU schwerTraining, HPC
TBurstableIdle-Workloads mit Spitzen

Suffix-Buchstaben sagen dir die CPU-Architektur:

  • i = Intel Xeon (z. B. c7i)
  • g = AWS Graviton (ARM, eigene Silicon-Linie)
  • a = AMD EPYC
  • z = High-Frequency-Variante (z. B. r7iz mit 3,9 GHz)
  • n = Network-optimiert (>= 100 Gbit/s)
  • d = mit lokalem NVMe-Storage

Praxis: 80 % aller AWS-Kunden brauchen nur C, M, R. Der Rest sind Sonderfaelle.

Preise im Vergleich (eu-central-1, On-Demand, Mai 2026)

Hier die haeufigsten 2xlarge-Groessen (8 vCPU). Preise gerundet, Stundenpreis und Monat (730 h):

InstancevCPURAMStundeMonatNotiz
t4g.2xlarge832 GB$0,1075~$78Burstable, Graviton
c7i.2xlarge816 GB$0,3604~$263Intel, compute-opt
c7g.2xlarge816 GB$0,2890~$211Graviton, ~20 % off
c7a.2xlarge816 GB$0,3245~$237AMD EPYC
m7i.2xlarge832 GB$0,4032~$294Intel, GP
m7g.2xlarge832 GB$0,3270~$239Graviton, GP
r7i.2xlarge864 GB$0,5292~$386Intel, memory
r7g.2xlarge864 GB$0,4291~$313Graviton, memory
r7iz.2xlarge864 GB$0,7440~$5433,9 GHz, fuer Latenz

Rechnung: Ein typisches API-Backend laeuft auf c7g.2xlarge fuer ~$211/Monat. Dasselbe auf c7i.2xlarge: ~$263. Differenz 24 %. Bei 10 Instanzen sind das ~$520 weniger pro Monat, nur durch Architektur-Wechsel.

Graviton — die wichtigste Optimierung 2026

Graviton (AWS-eigene ARM-Prozessoren) ist 2026 die Default-Empfehlung fuer fast alles. Hier die Realitaet:

WorkloadGraviton-tauglich?Performance vs Intel
Node.js / Python / Ruby / GoJa+10 bis +20 %
Java (OpenJDK 17+)Ja+5 bis +15 %
.NET 8+Jagleich bis +10 %
PHPJagleich
Postgres / MySQL / RedisJagleich bis +15 %
Kafka / ElasticsearchJagleich
Legacy x86-Binaries (kein ARM)Neinn/a
Tensorflow / PyTorch InferenceJa (CPU)gleich

Der einzige echte Blocker: wenn du Closed-Source-Software hast, die nur als x86-Binary kommt. Im Indie-/Startup-Kontext ist das heute selten.

Burstable T-Familie — der Indie-Sweet-Spot

T4g-Instances laufen mit einer Baseline-CPU-Quote und sammeln „CPU-Credits“, wenn sie unter dieser Quote bleiben. Bei Lastspitzen werden Credits verbraucht und der vCPU auf 100 % freigegeben.

InstanceBaselineVollast / hCredits / hSinnvoll fuer
t4g.nano5 %0,3 vCPU/h6DNS, kleine Worker
t4g.micro10 %0,3 vCPU/h12Cron, kleine APIs
t4g.small20 %0,5 vCPU/h24Dev-VMs
t4g.medium20 %0,5 vCPU/h24Side-Project-API
t4g.xlarge40 %1,5 vCPU/h96Mittlere Web-Apps

Achtung: T-Instances haben einen Unlimited-Mode, in dem extra-CPU einfach extra-billed wird. Wenn du nicht aufpasst, wird die billige t4g.medium bei 80 % Auslastung teurer als eine m7g.medium. Im Monitoring „CPU Credit Balance“ immer mit alerten.

Storage-Optionen: was passt zur Instance

Die Instance ist eine Sache, das Storage daneben die andere:

StorageLatenzIOPS-RangePreis (eu-central-1)Wofuer
EBS gp3~1 ms3.000-16.000$0,096/GB-MonatDefault-Volume
EBS io2<1 msbis 64.000$0,138/GB + IOPS-PreisDB-Volumes
EBS st1~5-10 ms500$0,053/GB-MonatThroughput, Cold-DB
Instance-NVMe (i7g)<0,2 ms>>100kinkl. Instance-PreisHot-Cache, ephemer
EFS Standard~2-5 msn/a$0,33/GB-MonatShared-Filesystem
EFS One-Zone~2-5 msn/a$0,176/GB-MonatSingle-AZ-Workloads

Faustregel: gp3 ist 2026 fast immer richtig. io2 nur, wenn du

16.000 IOPS und Sub-Millisekunden-Latenz brauchst — und dann auch wirklich messen, ob die Datenbank das nutzt.

Networking-Performance — die unsichtbare Variable

Instance-GroesseNetwork-Bandbreite (Burst)EBS-Bandbreite
.largebis 12,5 Gbit/sbis 4,7 Gbit/s
.xlargebis 12,5 Gbit/sbis 4,7 Gbit/s
.2xlargebis 15 Gbit/sbis 10 Gbit/s
.4xlarge15 Gbit/s sustained10 Gbit/s
.8xlarge30 Gbit/s sustained20 Gbit/s
.16xlarge75 Gbit/s sustained40 Gbit/s
.metal100-200 Gbit/s80 Gbit/s

Was nicht in den Marketing-Charts steht: die kleinen Groessen bursten auf hohe Bandbreite, halten sie aber nicht. Wenn du einen Replication-Lag-Streamer auf m7g.large laufen laesst, bekommst du 12 Gbit/s als Hochkommas. Sustained sind es nach ~5 Minuten weniger. Fuer Streaming-Workloads .8xlarge+ planen.

Bestellempfehlungen nach Workload

Stateless Web/API-Backend, normale Last: c7g.large bis c7g.2xlarge. Ein paar davon hinter ALB. Auto-Scaling- Group mit Spot-Mix (50 % Spot, 50 % On-Demand).

Postgres / MySQL Primary: r7g.2xlarge oder r7g.4xlarge mit io2-Volume. RDS-Instanz oder selbst gehostet — bei beidem Graviton (db.r7g) waehlen.

Redis / Memcached: r7g.large bis r7g.2xlarge. Oder ElastiCache mit selber Familie.

Hot-Cache mit lokalem NVMe: i4g.large / i4g.xlarge. NVMe-SSD ist ephemer, also nur fuer „rebuild-bares“ Cache geeignet.

CI-Runner / Build-Server: c7g.4xlarge im Spot-Mode. Selbst mit Unterbrechungen ~70 % Rabatt gegenueber On-Demand.

Side-Project / Dev-Box: t4g.medium oder t4g.large. ~30-50 €/Monat.

Saving-Plans und Spot — wann was

StrategieRabatt vs On-DemandCommitment
Compute Savings Plan 1y~30 %1 Jahr
Compute Savings Plan 3y~50-55 %3 Jahre
Reserved Instance Standard 3y AURI~60 %3 Jahre + Family lock
Spot Instancesbis 90 %Kein, aber Unterbrechungen

Praxis: Compute Savings Plan 1y fuer Baseline-Kapazitaet, Spot fuer Spitzen. RIs sind 2026 nur noch in absoluten Ausnahmefaellen wirtschaftlich besser als Savings Plans.

GPU-Instances kurz angerissen

Wenn du GPUs auf AWS willst, gibt es 2026 zwei relevante Familien:

InstanceGPUvRAMvCPURAM$ / h eu-central-1
g6.xlarge1× L4 (24 GB)24 GB416 GB$0,932
g6.2xlarge1× L4 (24 GB)24 GB832 GB$1,128
g6e.xlarge1× L40S (48 GB)48 GB432 GB$1,931
p4d.24xlarge8× A100 (40 GB)320 GB961.152 GB$32,77
p5.48xlarge8× H100 (80 GB)640 GB1922.048 GB$98,32
p5e.48xlarge8× H200 (141 GB)1.128 GB1922.048 GB$107,80

Praxis: Fuer Inferenz ist g6 oder g6e die richtige Wahl — ~$700-1.400 / Monat. Fuer Training sind p5/p5e die einzigen sinnvollen Optionen, aber spuerbar teurer als Specialist-Provider wie RunPod oder Lambda Labs. Spot-Pricing schlaegt zu (bis ~70 % off bei g6).

Real-World: 30-VM-Setup Kostenoptimierung

Ein konkretes Beispiel aus eigener Beratung: 30 EC2-Instances, Mischbetrieb. Vorher: alle c7i.2xlarge mit On-Demand-Pricing.

MassnahmeSaving
20× c7i → 20× c7g (Graviton)~$520 / Mo
5× t4g.medium statt c7g.large (Dev/Cron)~$80 / Mo
Compute SP 1y NU auf 60 % Baseline~$1.200 / Mo
Spot fuer 5× CI-Runner~$280 / Mo
gp2 → gp3 auf allen Volumes~$45 / Mo

Total Saving: ~$2.125 / Monat bei initial ~$8.500 / Monat Compute-Bill. ~25 % Reduktion ohne Performance-Verlust.

Wichtig: die Aenderungen sind additiv. Du kannst sie ueber 3-4 Wochen einfuehren ohne grosse Migrations-Aktion.

Naechste Generation: Was 2026 kommt

AWS hat fuer Q3 2026 angekuendigt:

  • c8g / m8g / r8g: Graviton 4 mit ~25 % mehr Performance bei gleichem Preis wie c7g
  • i8g: Storage-Instances mit Graviton + neuer NVMe-Generation
  • p6 / p6e: Trainium 3 + Inferentia 3, AWS-eigene AI-Chips als Alternative zu NVIDIA

Wenn dein Workload nicht akut ist: warte mit 3y-Reservations, bis c8g/m8g/r8g GA sind (vermutlich Juli-September 2026).

Faustregeln zum Mitnehmen

  1. Default: Graviton (g-Suffix). Ausnahme nur, wenn x86-Binary zwingt.
  2. C fuer CPU, M fuer Generalist, R fuer RAM. Mehr Buchstaben brauchst du selten.
  3. T-Familie nur bei < 20 % Average-Load. Sonst zahlst du drauf.
  4. Spot fuer alles, was Restart vertraegt. CI, Batch, ML-Inferenz.
  5. gp3 statt gp2. Immer. gp2 ist seit 2024 nur noch Legacy.

Quellen

Pricing-Stand: 14. Mai 2026. AWS aendert Preise und fuegt Instance-Typen quartalsweise dazu — vor Reservierungen die aktuelle Pricing-Page pruefen.

H

Geschrieben von

Harbinger Team

Cloud-, Data- und AI-Engineer in DACH. Schreibt seit 2018 über infrastruktur­kritische Tech-Entscheidungen — keine Marketing- Folien, sondern echte Trade-offs aus Production-Workloads.

Hat dir das geholfen?

Jede Woche ein neuer Artikel über DACH-Cloud, Data und AI — direkt in dein Postfach. Kein Spam, kein Marketing-Sprech.

Kein Spam. 1-Klick-Abmeldung. Datenschutz bei Loops.so.