Cloud allgemein

SQL-Queries auf CSV-Dateien ohne Datenbank ausführen

Du kennst SQL, hast eine CSV, aber keine Datenbank. Der schnellste Weg, CSV-Dateien mit SQL im Browser abzufragen — kein Setup, kein Python, kein ETL.

Harbinger Team3. April 20266 Min. LesezeitAktualisiert 14.5.2026
  • sql on csv
  • query csv file
  • csv sql browser
  • analyze csv without database
  • run sql on spreadsheet
  • dach
Inhaltsverzeichnis18 Abschnitte

SQL auf CSV-Dateien ausführen — ohne Datenbank

Wenn du SQL kannst, kennst du den Frust: du hast eine CSV voller Daten, du siehst die Fragen, die du beantworten willst — aber um die Queries zu schreiben, brauchst du eine Datenbank. Und eine DB für eine einmalige Analyse aufzusetzen, fühlt sich an, als würdest du eine Autobahn zum Bäcker bauen.

Stattdessen greifen die meisten zu Excel oder Google Sheets. Für 10.000 Zeilen und einfache Summen klappt das. Aber sobald du GROUP BY, JOIN zwischen zwei Files, Window-Function oder WHERE mit mehreren Bedingungen brauchst — kämpfst du mit dem Tool.

Es geht besser. Ohne Datenbank.

TL;DR

  • DuckDB im Browser via Harbinger Explorer: SQL gegen CSV ohne Setup
  • Volle SQL-Syntax: JOINs, Window-Functions, CTEs
  • Natural-Language als Alternative zum SQL-Schreiben
  • 30 Sekunden Setup, ab 8 €/Monat

Das Problem: SQL-Skills, aber keine Datenbank

Diese Situation passiert Analysten ständig:

  • Du lädst CSV-Export aus einem SaaS-Tool (HubSpot, Shopify, Stripe) und willst echtes SQL drauf
  • Du bekommst Dataset von einem Kunden und musst es schnell profilen
  • Du hast zwei CSV-Files und willst sie joinen
  • Du machst Quick-Analyse, die keine DB rechtfertigt

Optionen, die die meisten in Betracht ziehen:

  1. Excel/Google Sheets: Pivot-Tabellen funktionieren für manches, aber versuch ein Multi-Level GROUP BY oder Self-Join in Excel. Da gehst du nicht raus.

  2. SQLite: Gutes Tool, aber Installation nötig, DB erstellen, CSV importieren, dann Queries schreiben. 20–30 Minuten vor jeder Analyse.

  3. Python + pandas: Wenn du Python kannst, klappt das. Aber wenn du Analyst bist und SQL kennst (nicht Python), ist das einen neuen Skill lernen, um den Job zu machen, den du schon kannst.

  4. Upload zu BigQuery/Redshift: Massiver Overkill für 50.000-Zeilen-CSV. Auch Cloud-Zugang und Schema-Verständnis nötig.

Was fehlt: was, das dich eine CSV droppen und sofort SQL schreiben lässt. Genau das macht Harbinger Explorer.

Warum DuckDB alles geändert hat (und warum du nicht wissen musst, was DuckDB ist)

DuckDB ist eine analytische Datenbank-Engine, die in einem Browser-Tab läuft — kein Server, keine Installation, keine Konfiguration. Sie powert Harbinger Explorers Query-Engine.

Du musst DuckDB nicht verstehen, um es zu nutzen. Was zählt, ist was es ermöglicht:

  • Volle SQL-Syntax: GROUP BY, JOINs, Window-Functions, CTEs, alles
  • Direktes CSV-Querying: File laden und sofort abfragen
  • Columnar Analytics: Schnelle Aggregationen auch auf großen Files
  • Null Infrastruktur: Läuft in Memory, im Browser

Ergebnis: SQL schreiben, Ergebnisse bekommen. Kein DB-Setup nötig.

Optionen vergleichen: echte Zeit-Kosten

Ehrlicher Vergleich, wie lange verschiedene Ansätze für "diese CSV abfragen" dauern:

AnsatzSetup-ZeitQuery-ZeitSkill nötig
Excel Pivot-Tabellen0 min10–30 minMittel (Excel-spezifisch)
Google Sheets + QUERY5 min15–30 minMittel (QUERY-Syntax)
SQLite-Import20 min5 minSQL + CLI
Python + pandas30 min10–20 minPython
BigQuery45 min5 minSQL + GCP-Setup
Harbinger Explorer30 Sek1–3 minSQL oder Deutsch

Die Setup-Zeit-Differenz allein rechtfertigt den Wechsel für jede Analyse, die du öfter als einmal pro Woche machst.

Wie du eine CSV in Harbinger Explorer abfragst

Echter Workflow:

Schritt 1: Harbinger Explorer öffnen

Zu harbingerexplorer.com gehen. Keine Installation, kein Account für den Free-Trial nötig.

Schritt 2: CSV laden

CSV per Drag-and-Drop in die Oberfläche ziehen oder URL zu öffentlicher CSV einfügen. Harbinger liest Header automatisch und infert Spalten-Typen.

Schritt 3: SQL schreiben

Die Datei ist sofort als queryable Tabelle verfügbar. Standard-SQL:

SELECT 
  category,
  COUNT(*) as total_records,
  AVG(revenue) as avg_revenue,
  SUM(revenue) as total_revenue
FROM my_data
WHERE date >= '2024-01-01'
GROUP BY category
ORDER BY total_revenue DESC

Schritt 4: Auf Deutsch fragen (optional)

Kein SQL schreiben? AI-Agent nutzen:

"Was ist der durchschnittliche Umsatz pro Kategorie für Q1 2024, höchster zuerst?"

Der AI übersetzt in SQL und führt aus. Du siehst Ergebnisse in sauberer Tabelle.

Schritt 5: Ergebnisse exportieren

Query-Ergebnisse als CSV downloaden oder mit weiterer Analyse fortfahren.

Real-World Use-Cases

Use-Case 1: E-Commerce-Export analysieren

Du lädst 90.000-Zeilen-Order-Export aus Shopify. Du willst wissen:

  • Umsatz pro Produktkategorie pro Monat
  • Average Order Value nach Kunden-Land
  • Produkte mit >50% Retourenrate

In Excel: mehrere Pivot-Tabellen bauen, manuell filtern, mit Date-Formatting kämpfen. Mindestens 45 Minuten.

In Harbinger Explorer: drei SQL-Queries. In 8 Minuten fertig.

Use-Case 2: Kunden-Dataset profilen

Ein Kunde schickt dir CSV, die bereinigt und analysiert werden soll. Vor allem brauchst du Verständnis: Nulls, Outliers, Wert-Verteilungen, Duplikate.

In Harbinger Explorer:

  • "Wie viele Null-Werte sind in jeder Spalte?"
  • "Zeig mir die Verteilung der Werte in der 'status'-Spalte"
  • "Gibt es Duplikate bei Customer-IDs?"

Drei Fragen, drei Antworten, unter 5 Minuten. Du weißt jetzt genau, womit du arbeitest.

Use-Case 3: Zwei CSV-Files joinen

Du hast eine Orders-CSV und eine Customers-CSV. Du willst Orders mit Kunden-Details.

Mit SQLite: beide Files importieren, Tabellen erstellen, JOIN schreiben, exportieren. 25 Minuten.

Mit Harbinger Explorer: beide Files laden, JOIN-Query schreiben. 3 Minuten.

Was ist mit Excel? Wann reicht es, wann nicht

Excel ist ein gutes Tool. Klar zu sagen, wann es passt:

Excel ist fine für:

  • Einfache Summen, Averages, Basic-Filtering
  • < 50.000 Zeilen mit einfacher Struktur
  • Einmal-Reports, bei denen Formatierung wichtiger als Query ist

Excel schwächelt bei:

  • Multi-Level GROUP BY (z.B. nach Kategorie UND Monat UND Region)
  • Daten aus mehreren Files joinen
  • Window-Functions (Running Totals, Ranks, Moving Averages)
  • File >100.000 Zeilen und Performance zählt
  • Queries speichern und wiederverwenden, ohne sie neu zu bauen

Wenn du an diese Wände stößt, ist SQL das richtige Tool — und Harbinger Explorer der schnellste Weg, SQL auf CSV-Daten zu nutzen.

Pricing

  • 7-Tage Free-Trial: voller Zugang, keine Kreditkarte
  • Starter-Plan: 8 €/Monat — CSV-Querying, SQL, Source-Catalog
  • Pro-Plan: 24 €/Monat — AI-Agent-Chat, Advanced-Features

Für Analysten, die das regelmäßig machen, sind 8 €/Monat in den ersten 30 Minuten gespart.

FAQ

Bleiben meine Daten privat? Ja. DuckDB läuft im Browser-Tab. Deine CSV verlässt deinen Computer nicht, außer du teilst Ergebnisse aktiv.

Wie groß können CSVs sein? Praktisch testbar bis ~1 GB im Browser, je nach RAM. Darüber hinaus Spark oder DuckDB-CLI lokal nutzen.

Funktioniert es offline? Initial-Setup braucht Internet. Sobald geladen, funktioniert das Querying auch offline (DuckDB WASM ist clientseitig).

Kann ich Charts erstellen? Ja. Aus jeder Query-Result heraus lässt sich ein Chart konfigurieren (Bar, Line, Scatter, Pie).

Was ist mit Excel-Files (.xlsx)? Auch unterstützt. CSV ist Standard, aber XLSX-Sheets können auch hochgeladen werden.

DSGVO-Compliance? Ja. Datenverarbeitung in EU-Regionen, AVV verfügbar. Browser-side-Processing reduziert Datentransfer.

CSV-Dateien noch heute abfragen

Schluss mit Pivot-Tabellen neu bauen. Schluss mit Datenimport in DBs nur für eine Query. Schluss mit pandas-Kampf, wenn du SQL kannst.

Harbinger Explorer 7 Tage gratis →

CSV droppen. Query schreiben. Antwort bekommen. Das ist es.

Stand: 14. Mai 2026.

H

Geschrieben von

Harbinger Team

Cloud-, Data- und AI-Engineer in DACH. Schreibt seit 2018 über infrastruktur­kritische Tech-Entscheidungen — keine Marketing- Folien, sondern echte Trade-offs aus Production-Workloads.

Hat dir das geholfen?

Jede Woche ein neuer Artikel über DACH-Cloud, Data und AI — direkt in dein Postfach. Kein Spam, kein Marketing-Sprech.

Kein Spam. 1-Klick-Abmeldung. Datenschutz bei Loops.so.