Data Engineering

Redshift vs BigQuery vs Snowflake 2026: Welches Warehouse fuer welche Daten-Realitaet

Drei Warehouses, drei Pricing-Modelle, drei Welten. Was kostet wirklich was bei 10 TB, 100 TB und 1 PB — und welcher Stack passt zu welchem Team.

Harbinger Team14. Mai 20268 Min. LesezeitAktualisiert 14.5.2026
  • redshift
  • bigquery
  • snowflake
  • data-warehouse
  • pricing
  • analytics
Inhaltsverzeichnis17 Abschnitte

Das Cloud-Data-Warehouse-Trio Redshift, BigQuery und Snowflake hat sich 2026 vollstaendig aufgefaechert: AWS-zentrisch, GCP-Pay-Per- Query und Multi-Cloud-Premium. Welches sich fuer deinen Stack lohnt, haengt nicht (mehr) am Feature-Set, sondern an drei Fragen: Pricing-Modell, Team-Skill, und wie sehr du Multi-Cloud willst.

Hier die Aufstellung mit konkreten Kosten fuer typische Volumen. Stand: 14. Mai 2026.

TL;DR

  • BigQuery: Pay-Per-Query (On-Demand) oder Slots (Reserved). Beste Wahl, wenn Queries sporadisch sind und Storage waechst.
  • Redshift: Compute-zentriert (RA3-Nodes oder Serverless). Beste Wahl, wenn du tief AWS-integriert bist.
  • Snowflake: Multi-Cloud, getrennte Storage/Compute-Pricing, Workload-Isolation via Warehouses. Beste Wahl, wenn mehrere Teams parallel auf das gleiche Warehouse zugreifen.
  • Faustregel: Indie/Startup-Stack → BigQuery. AWS-EU Enterprise → Redshift. Multi-Cloud / mehrere Datenteams → Snowflake.

Pricing-Modelle im Vergleich

BigQuery

ModellKostenWofuer
On-Demand$6,25 / TB ScannedSporadische Queries, kleine Workloads
Editions: Standard$0,04 / Slot-HourKontinuierliche Workloads
Editions: Enterprise$0,06 / Slot-HourPlus BigLake, BI Engine
Editions: Enterprise Plus$0,10 / Slot-HourPlus Multi-Region, Compliance
Storage Active$0,020 / GB / MonatLetzte 90 Tage Daten
Storage Long-Term$0,010 / GB / Monat> 90 Tage unveraendert

Redshift

ModellKostenWofuer
RA3.xlplus (provisioned)$1,33 / Node-Hour (eu-central-1)Steady-State, Reserved-fhig
RA3.4xlarge$4,46 / Node-HourMittlere Workloads
RA3.16xlarge$17,82 / Node-HourGrosse Workloads
Redshift Serverless$0,42 / RPU-Hour (Min 60 RPU)Variabel Workload
Managed Storage RA3$0,024 / GB / MonatAuto, mit Compute getrennt

Snowflake

ModellKostenWofuer
XS Warehouse1 Credit / HourDev, Light Query
S Warehouse2 Credits / HourStandard Dashboard
M Warehouse4 Credits / HourReports, ELT mittlere
L Warehouse8 Credits / HourGrosse ELT
XL Warehouse16 Credits / HourHeavy ETL
4XL Warehouse128 Credits / HourRiesen-Jobs
Credit-Preis Standard EU$2,55 / Credit-
Credit-Preis Enterprise EU$3,70 / Credit-
Storage AWS S3 EU$40 / TB / MonatCompressed Columnar

Beispiel-Rechnung: typisches Mid-Size-Setup

Setup-Annahmen:

  • 50 TB Daten gesamt (30 TB Active, 20 TB > 90 Tage)
  • 100 ETL-Jobs pro Tag, jeweils 5 Minuten auf grosser Maschine
  • 1.000 Dashboard-Queries pro Tag, jeweils 2 GB Scan
  • 50 Ad-hoc-Analyse-Queries pro Tag, jeweils 50 GB Scan

BigQuery On-Demand:

KomponenteBerechnungKosten / Monat
Storage Active 30 TB30 × 1024 × $0,020$614
Storage Long-Term 20 TB20 × 1024 × $0,010$205
Dashboard Queries1000 × 30 Tage × 2 GB × $0,00625 / GB$375
Ad-hoc Queries50 × 30 Tage × 50 GB × $0,00625 / GB$469
ETL Jobs(ueber Slot-Editions besser)-
Total BigQuery OnDemand~$1.663

Achtung: ETL-Jobs scannen typischerweise viel mehr. Auf On-Demand gerechnet schnell teuer. Mit BigQuery Editions (Slot-basiert):

BigQuery Standard Edition (400 Slots Reserved):

KomponenteBerechnungKosten / Monat
Storage 50 TB(wie oben)$819
400 Slot-Hours Standard400 × 730 × $0,04$11.680

Slot-Reservation ist nur sinnvoll, wenn du kontinuierlich Workloads hast.

Redshift RA3.4xlarge × 4 Nodes:

KomponenteBerechnungKosten / Monat
Compute 4 Nodes4 × $4,46 × 730$13.023
Managed Storage 50 TB50 × 1024 × $0,024$1.229
Total Redshift~$14.252

Mit 3y-Reservation ($1,80 / Node-Hour bei 3y All Upfront): **$6.500/Monat**.

Redshift Serverless (Annahme 100 RPU avg):

KomponenteBerechnungKosten / Monat
Compute 100 RPU × 730h × $0,42-$30.660
Storage 50 TB50 × 1024 × $0,024$1.229

Serverless wird bei dauerhaftem Load schnell teuer — sinnvoll nur fuer wirklich bursty Workloads.

Snowflake (M-Warehouse Always-On 12h/Tag + XL 1h/Tag):

KomponenteBerechnungKosten / Monat
Storage 50 TB50 × $40$2.000
M Warehouse 12h/Tag30 × 12 × 4 × $2,55$3.672
XL Warehouse 1h/Tag30 × 1 × 16 × $2,55$1.224
Total Snowflake~$6.896

Mit Auto-Suspend (typisch 1 Min Idle) und durchdachten Warehouse- Groessen sinken Snowflake-Kosten in der Praxis um 30-50 %.

Performance-Charakteristiken

BigQuery

  • Schnell bei breiten Aggregations-Queries ueber Petabyte
  • Langsam bei Point-Lookups ohne Clustering
  • Native Caching: gleiche Queries innerhalb 24h sind free
  • BI Engine: in-memory Cache fuer Dashboards, $7/GB/Monat

Redshift

  • Schnell bei vorbereiteten Star-Schema-Queries
  • AQUA-Cache beschleunigt wiederholte Queries
  • Concurrency-Scaling spinnt zusaetzliche Cluster fuer Query- Spikes
  • Materialized Views mit Auto-Refresh seit 2024

Snowflake

  • Multi-Cluster Warehouse: auto-scaling von 1 bis 10 Clustern
  • Result-Cache 24h, kostenlos
  • Search Optimization fuer Point-Lookups
  • Hybrid Tables (Unistore) fuer transaktionale Workloads seit 2024

Concurrency und Multi-User

AspektBigQueryRedshiftSnowflake
User-Konfliktenicht relevant (slot-shared)WichtigPer Warehouse isoliert
Multi-User-Skalierungnahezu unbegrenztbegrenzt (concurrency scaling)exzellent (separat Warehouses)
Workload-IsolationSlot ReservationsWLM QueuesNative (Warehouse)
Time-to-ResultMittel-SchnellSchnellSchnell

Snowflakes Strength: Marketing-Team queryt nicht ETL-Pipeline weg. Du baust ein Warehouse pro Workload — Auto-Suspend macht das bezahlbar.

Storage-Modell

AspektBigQueryRedshiftSnowflake
Storage-EngineCapacitor (Columnar)RA3 Managed S3 + CacheS3/Azure-Blob/GCS, Snowflake-eigenes Format
Time Travelnein (Snapshots manuell)Snapshots0-90 Tage Standard, bis 1 Jahr Enterprise
Storage / Compute getrenntja (architektur)Ja (RA3)ja
Zero-Copy Cloningneinneinja

Snowflakes Zero-Copy Cloning ist der unterschaetzte Feature: „CREATE TABLE x_test CLONE x_prod“ macht keine Kopie, keine zusaetzlichen Storage-Kosten, separate Schreibrechte. Fuer Test-/Dev-Workflows ein massiver Hebel.

Integration mit dem Stack

Tool / ServiceBigQueryRedshiftSnowflake
dbtnativnativnativ
Fivetrannativnativnativ
Airbytenativnativnativ
Lookernativ + BI Engineunterstuetztunterstuetzt
Tableaugutgutgut
Hex / Mode / Hightouchgutgutsehr gut
Sparkgut (BigQuery Connector)gut (Spectrum)gut
Vertex AI / SageMaker / SnowparkVertex AI Workbench nativSageMaker (Redshift Data API)Snowpark Python/Scala

Snowflake hat 2024-2026 Snowpark + Cortex stark erweitert — LLMs direkt im Warehouse abrufbar, Python-DataFrames-Lite, native ML.

DACH-/EU-Aspekte

AnbieterEU-RegionDSGVOMulti-Cloud
BigQueryEU multi-region (BE/NL/DE/FI)gut, GCP DPAnein (GCP only)
Redshifteu-central-1, eu-west-1, eu-north-1gut, AWS DPAnein (AWS only)
SnowflakeEU AWS, EU Azure, EU GCPsehr gut, multiple regionsja (alle drei Hyperscaler)

Fuer strenge Souveraenitaetsanforderungen ist Snowflake auf AWS-EU mit eigener KMS-Key-Verwaltung der DACH-Standard.

Wann was waehlen

BigQuery wenn:

  • Du bist auf GCP gelandet (oder es ist nicht entschieden)
  • Variable Query-Workloads (Storage waechst staerker als Query-Volumen)
  • Du nutzt schon Looker / Looker Studio
  • Du brauchst native Geo/JSON-Funktionen

Redshift wenn:

  • Du bist tief in AWS
  • Du hast klassische ETL-Pipelines mit kontinuierlichem Compute
  • Du brauchst Spectrum fuer S3-Federation
  • Reserved-Instance-Discounts amortisieren

Snowflake wenn:

  • Multi-Cloud-Strategy
  • Mehrere Datenteams parallel
  • Du brauchst Zero-Copy Cloning fuer Dev/Test
  • Du planst Snowpark-/Cortex-AI-Integration
  • Premium-Budget vorhanden

Faustregeln zum Mitnehmen

  1. Klein anfangen mit BigQuery On-Demand. Sehe wo es weh tut.
  2. Reserved Slots / Snowflake-Capacity ab konsistentem Verbrauch.
  3. Warehouse-Isolation (Snowflake) ist Gold. Wenn Teams konkurrieren.
  4. Multi-Cloud-Lock-in ist real. Snowflake bietet Cloud-Provider-Flexibilitaet.
  5. Storage-Compute-Separation nutzen. Bei allen drei Anbietern.

Quellen

Pricing-Stand: 14. Mai 2026. Alle drei Anbieter passen Pricing- Editions und Features quartalsweise an — vor groesseren Commitments aktuelle Preise und Free-Tier-Limits verifizieren.

H

Geschrieben von

Harbinger Team

Cloud-, Data- und AI-Engineer in DACH. Schreibt seit 2018 über infrastruktur­kritische Tech-Entscheidungen — keine Marketing- Folien, sondern echte Trade-offs aus Production-Workloads.

Hat dir das geholfen?

Jede Woche ein neuer Artikel über DACH-Cloud, Data und AI — direkt in dein Postfach. Kein Spam, kein Marketing-Sprech.

Kein Spam. 1-Klick-Abmeldung. Datenschutz bei Loops.so.