Inhaltsverzeichnis18 Abschnitte
- TL;DR
- Das Problem: SQL-Skills, aber keine Datenbank
- Warum DuckDB alles geändert hat (und warum du nicht wissen musst, was DuckDB ist)
- Optionen vergleichen: echte Zeit-Kosten
- Wie du eine CSV in Harbinger Explorer abfragst
- Schritt 1: Harbinger Explorer öffnen
- Schritt 2: CSV laden
- Schritt 3: SQL schreiben
- Schritt 4: Auf Deutsch fragen (optional)
- Schritt 5: Ergebnisse exportieren
- Real-World Use-Cases
- Use-Case 1: E-Commerce-Export analysieren
- Use-Case 2: Kunden-Dataset profilen
- Use-Case 3: Zwei CSV-Files joinen
- Was ist mit Excel? Wann reicht es, wann nicht
- Pricing
- FAQ
- CSV-Dateien noch heute abfragen
SQL auf CSV-Dateien ausführen — ohne Datenbank
Wenn du SQL kannst, kennst du den Frust: du hast eine CSV voller Daten, du siehst die Fragen, die du beantworten willst — aber um die Queries zu schreiben, brauchst du eine Datenbank. Und eine DB für eine einmalige Analyse aufzusetzen, fühlt sich an, als würdest du eine Autobahn zum Bäcker bauen.
Stattdessen greifen die meisten zu Excel oder Google Sheets. Für 10.000 Zeilen und einfache Summen klappt das. Aber sobald du GROUP BY, JOIN zwischen zwei Files, Window-Function oder WHERE mit mehreren Bedingungen brauchst — kämpfst du mit dem Tool.
Es geht besser. Ohne Datenbank.
TL;DR
- DuckDB im Browser via Harbinger Explorer: SQL gegen CSV ohne Setup
- Volle SQL-Syntax: JOINs, Window-Functions, CTEs
- Natural-Language als Alternative zum SQL-Schreiben
- 30 Sekunden Setup, ab 8 €/Monat
Das Problem: SQL-Skills, aber keine Datenbank
Diese Situation passiert Analysten ständig:
- Du lädst CSV-Export aus einem SaaS-Tool (HubSpot, Shopify, Stripe) und willst echtes SQL drauf
- Du bekommst Dataset von einem Kunden und musst es schnell profilen
- Du hast zwei CSV-Files und willst sie joinen
- Du machst Quick-Analyse, die keine DB rechtfertigt
Optionen, die die meisten in Betracht ziehen:
-
Excel/Google Sheets: Pivot-Tabellen funktionieren für manches, aber versuch ein Multi-Level GROUP BY oder Self-Join in Excel. Da gehst du nicht raus.
-
SQLite: Gutes Tool, aber Installation nötig, DB erstellen, CSV importieren, dann Queries schreiben. 20–30 Minuten vor jeder Analyse.
-
Python + pandas: Wenn du Python kannst, klappt das. Aber wenn du Analyst bist und SQL kennst (nicht Python), ist das einen neuen Skill lernen, um den Job zu machen, den du schon kannst.
-
Upload zu BigQuery/Redshift: Massiver Overkill für 50.000-Zeilen-CSV. Auch Cloud-Zugang und Schema-Verständnis nötig.
Was fehlt: was, das dich eine CSV droppen und sofort SQL schreiben lässt. Genau das macht Harbinger Explorer.
Warum DuckDB alles geändert hat (und warum du nicht wissen musst, was DuckDB ist)
DuckDB ist eine analytische Datenbank-Engine, die in einem Browser-Tab läuft — kein Server, keine Installation, keine Konfiguration. Sie powert Harbinger Explorers Query-Engine.
Du musst DuckDB nicht verstehen, um es zu nutzen. Was zählt, ist was es ermöglicht:
- Volle SQL-Syntax: GROUP BY, JOINs, Window-Functions, CTEs, alles
- Direktes CSV-Querying: File laden und sofort abfragen
- Columnar Analytics: Schnelle Aggregationen auch auf großen Files
- Null Infrastruktur: Läuft in Memory, im Browser
Ergebnis: SQL schreiben, Ergebnisse bekommen. Kein DB-Setup nötig.
Optionen vergleichen: echte Zeit-Kosten
Ehrlicher Vergleich, wie lange verschiedene Ansätze für "diese CSV abfragen" dauern:
| Ansatz | Setup-Zeit | Query-Zeit | Skill nötig |
|---|---|---|---|
| Excel Pivot-Tabellen | 0 min | 10–30 min | Mittel (Excel-spezifisch) |
| Google Sheets + QUERY | 5 min | 15–30 min | Mittel (QUERY-Syntax) |
| SQLite-Import | 20 min | 5 min | SQL + CLI |
| Python + pandas | 30 min | 10–20 min | Python |
| BigQuery | 45 min | 5 min | SQL + GCP-Setup |
| Harbinger Explorer | 30 Sek | 1–3 min | SQL oder Deutsch |
Die Setup-Zeit-Differenz allein rechtfertigt den Wechsel für jede Analyse, die du öfter als einmal pro Woche machst.
Wie du eine CSV in Harbinger Explorer abfragst
Echter Workflow:
Schritt 1: Harbinger Explorer öffnen
Zu harbingerexplorer.com gehen. Keine Installation, kein Account für den Free-Trial nötig.
Schritt 2: CSV laden
CSV per Drag-and-Drop in die Oberfläche ziehen oder URL zu öffentlicher CSV einfügen. Harbinger liest Header automatisch und infert Spalten-Typen.
Schritt 3: SQL schreiben
Die Datei ist sofort als queryable Tabelle verfügbar. Standard-SQL:
SELECT
category,
COUNT(*) as total_records,
AVG(revenue) as avg_revenue,
SUM(revenue) as total_revenue
FROM my_data
WHERE date >= '2024-01-01'
GROUP BY category
ORDER BY total_revenue DESC
Schritt 4: Auf Deutsch fragen (optional)
Kein SQL schreiben? AI-Agent nutzen:
"Was ist der durchschnittliche Umsatz pro Kategorie für Q1 2024, höchster zuerst?"
Der AI übersetzt in SQL und führt aus. Du siehst Ergebnisse in sauberer Tabelle.
Schritt 5: Ergebnisse exportieren
Query-Ergebnisse als CSV downloaden oder mit weiterer Analyse fortfahren.
Real-World Use-Cases
Use-Case 1: E-Commerce-Export analysieren
Du lädst 90.000-Zeilen-Order-Export aus Shopify. Du willst wissen:
- Umsatz pro Produktkategorie pro Monat
- Average Order Value nach Kunden-Land
- Produkte mit >50% Retourenrate
In Excel: mehrere Pivot-Tabellen bauen, manuell filtern, mit Date-Formatting kämpfen. Mindestens 45 Minuten.
In Harbinger Explorer: drei SQL-Queries. In 8 Minuten fertig.
Use-Case 2: Kunden-Dataset profilen
Ein Kunde schickt dir CSV, die bereinigt und analysiert werden soll. Vor allem brauchst du Verständnis: Nulls, Outliers, Wert-Verteilungen, Duplikate.
In Harbinger Explorer:
- "Wie viele Null-Werte sind in jeder Spalte?"
- "Zeig mir die Verteilung der Werte in der 'status'-Spalte"
- "Gibt es Duplikate bei Customer-IDs?"
Drei Fragen, drei Antworten, unter 5 Minuten. Du weißt jetzt genau, womit du arbeitest.
Use-Case 3: Zwei CSV-Files joinen
Du hast eine Orders-CSV und eine Customers-CSV. Du willst Orders mit Kunden-Details.
Mit SQLite: beide Files importieren, Tabellen erstellen, JOIN schreiben, exportieren. 25 Minuten.
Mit Harbinger Explorer: beide Files laden, JOIN-Query schreiben. 3 Minuten.
Was ist mit Excel? Wann reicht es, wann nicht
Excel ist ein gutes Tool. Klar zu sagen, wann es passt:
Excel ist fine für:
- Einfache Summen, Averages, Basic-Filtering
- < 50.000 Zeilen mit einfacher Struktur
- Einmal-Reports, bei denen Formatierung wichtiger als Query ist
Excel schwächelt bei:
- Multi-Level GROUP BY (z.B. nach Kategorie UND Monat UND Region)
- Daten aus mehreren Files joinen
- Window-Functions (Running Totals, Ranks, Moving Averages)
- File >100.000 Zeilen und Performance zählt
- Queries speichern und wiederverwenden, ohne sie neu zu bauen
Wenn du an diese Wände stößt, ist SQL das richtige Tool — und Harbinger Explorer der schnellste Weg, SQL auf CSV-Daten zu nutzen.
Pricing
- 7-Tage Free-Trial: voller Zugang, keine Kreditkarte
- Starter-Plan: 8 €/Monat — CSV-Querying, SQL, Source-Catalog
- Pro-Plan: 24 €/Monat — AI-Agent-Chat, Advanced-Features
Für Analysten, die das regelmäßig machen, sind 8 €/Monat in den ersten 30 Minuten gespart.
FAQ
Bleiben meine Daten privat? Ja. DuckDB läuft im Browser-Tab. Deine CSV verlässt deinen Computer nicht, außer du teilst Ergebnisse aktiv.
Wie groß können CSVs sein? Praktisch testbar bis ~1 GB im Browser, je nach RAM. Darüber hinaus Spark oder DuckDB-CLI lokal nutzen.
Funktioniert es offline? Initial-Setup braucht Internet. Sobald geladen, funktioniert das Querying auch offline (DuckDB WASM ist clientseitig).
Kann ich Charts erstellen? Ja. Aus jeder Query-Result heraus lässt sich ein Chart konfigurieren (Bar, Line, Scatter, Pie).
Was ist mit Excel-Files (.xlsx)? Auch unterstützt. CSV ist Standard, aber XLSX-Sheets können auch hochgeladen werden.
DSGVO-Compliance? Ja. Datenverarbeitung in EU-Regionen, AVV verfügbar. Browser-side-Processing reduziert Datentransfer.
CSV-Dateien noch heute abfragen
Schluss mit Pivot-Tabellen neu bauen. Schluss mit Datenimport in DBs nur für eine Query. Schluss mit pandas-Kampf, wenn du SQL kannst.
Harbinger Explorer 7 Tage gratis →
CSV droppen. Query schreiben. Antwort bekommen. Das ist es.
Stand: 14. Mai 2026.
Geschrieben von
Harbinger Team
Cloud-, Data- und AI-Engineer in DACH. Schreibt seit 2018 über infrastrukturkritische Tech-Entscheidungen — keine Marketing- Folien, sondern echte Trade-offs aus Production-Workloads.
Hat dir das geholfen?
Jede Woche ein neuer Artikel über DACH-Cloud, Data und AI — direkt in dein Postfach. Kein Spam, kein Marketing-Sprech.
Kein Spam. 1-Klick-Abmeldung. Datenschutz bei Loops.so.