Cloud allgemein

Database-Query-Tool im Browser: Schluss mit pgAdmin, DBeaver und SSH-Tunneln

12 Minuten für einen 0,4-Sekunden-Query: pgAdmin starten, Passwort, VPN, JDBC-Driver. Wie DuckDB im Browser SQL gegen Webdaten ohne Installation ausführt.

Harbinger Team14. Mai 20265 Min. LesezeitAktualisiert 14.5.2026
  • database-query-tool
  • browser-sql
  • duckdb
  • no-install-sql
  • data-exploration
  • data-analytics
Inhaltsverzeichnis11 Abschnitte

Du brauchst schnell eine SQL-Query gegen eine Produktiv-Quelle. Keine volle Analyse, nur ein Sanity-Check. Was passiert wirklich? Du öffnest pgAdmin und wartest, dass es lädt. Es fragt nach dem Passwort. Du hast vergessen, welche der drei gespeicherten Verbindungen die richtige ist. Erste probiert — Connection Timeout. DBeaver, JDBC-Update, Schema-Tree öffnet sich, endlich läuft deine fünfzeilige Query. Antwort: "Daten sind da."

Das waren 12 Minuten für eine 0,4-Sekunden-Query.

Das Problem ist nicht, dass Desktop-Clients schlecht sind. pgAdmin, DBeaver und DataGrip sind reife Produkte. Das Problem ist, dass sie schwer sind — optimiert für Power-User mit komplexer, anhaltender Arbeit, nicht für die schnellen explorativen Queries, die den Großteil des Alltags ausmachen.

TL;DR

  • Desktop-Clients haben Friktion an jedem Step: Installation, Driver, VPN, Connection-Profile.
  • Cloud-Konsolen (Athena, BigQuery-UI) lösen Narrow-Scope-Probleme, aber sind siloiert.
  • DuckDB läuft via WebAssembly nativ im Browser — volles SQL, lokal, ohne Server.
  • Harbinger Explorer kombiniert AI Crawler (Schema-Discovery) mit DuckDB-WASM-SQL-Editor.
  • Für quick Exploratory Queries auf web-zugängliche Quellen: Time-to-First-Query unter 5 Minuten.

Wo Desktop-Clients Friktion erzeugen

Installation und Driver-Management. Jeder Client braucht Install, Konfiguration, Updates. JDBC-Driver, Native-Connectors, Extensions — die Dependency-Chain bricht bei jedem OS-Update.

Connection-Management über Umgebungen. Dev, Staging, Production. Jedes braucht ein separates Profil. Connection-Strings ändern sich, jemand speichert Prod-Passwort in Klartext.

SSH-Tunnel und VPN. Für DBs im Private Network musst du erst VPN oder SSH-Tunnel — richtig aus Security-Sicht, kostet aber 3–5 Min Friktion pro Query.

Keine Collaboration. Nützliche Query in DBeaver → kopieren in Slack. Kein Share-Button, keine geteilte History.

Onboarding-Overhead. Neue:r Analyst:in: Install, Driver, Profile, VPN, Schema-Wissen. Halber bis ganzer Tag.

Keiner ist fatal. Aber jeder Workaround kostet, und für quick exploratives Arbeiten übersteigt diese Kosten oft den Query-Wert.

Alternativen — gut in Theorie, kompliziert in Praxis

Cloud-Konsolen (Athena, BigQuery-UI, Synapse Studio): Exzellent für Native-Stores. Komplett siloiert.

Jupyter Notebooks: Best Friend für anhaltende Analyse, kein Query-Tool. Notebook für 5-Zeilen-Sanity-Check ist wie Truck für Kaffee.

Metabase, Redash, Superset: BI-Tools mit Query-Interface. Brauchen Server-Side-Infrastruktur.

Raw psql/mysql CLI: Browser-unabhängig, aber kein Browser. Selbe SSH/VPN-Infrastruktur nötig.

SQL-Fiddles (SQLFiddle, DB-Fiddle): Toy-Datasets. Nicht mit echten Daten verbunden.

Die Lücke ist real: Es gibt kein Mainstream-Tool, das gegen echte Quellen im Browser SQL ohne Server-Deployment oder VPN-Tunnel ausführt. Bisher.

Browser-SQL mit DuckDB: Der bessere Ansatz

DuckDB ist eine In-Process Analytics-SQL-Engine. Kompakt, schnell — und kann via WebAssembly vollständig im Browser laufen. Eine Web-App kann echte SQL-Queries gegen echte Daten ausführen, ohne die Daten je an einen Server zu senden.

  • Keine Installation — du öffnest URL, die Engine ist da
  • Keine Connection-Strings, kein VPN, kein SSH (für web-zugängliche Quellen)
  • Volles SQL: WHERE, GROUP BY, JOIN, Window Functions, CTEs
  • Daten bleiben lokal — Queries in deinem Browser, nicht auf Drittserver
  • Startup in Sekunden, nicht Minuten

Harbinger Explorer: SQL gegen Webdaten direkt im Browser

Harbinger Explorer kombiniert AI Crawler für Auto-Schema-Discovery mit DuckDB-SQL-Editor — alles im Browser.

Du öffnest HE, fügst eine Quelle hinzu (JSON-API, CSV-Endpoint, Public Dataset). Der AI Crawler mappt: Spaltennamen, Typen, Sample-Werte. In Sekunden Schema-Übersicht. Dann SQL-Editor öffnen, Query schreiben (Standard-SQL), Result kommt zurück. Export als CSV oder direkt kopieren.

Kein pgAdmin. Kein DBeaver. Kein SSH-Tunnel. Kein VPN. Nur Browser-Tab und URL.

Schritt für Schritt

  1. Account erstellen auf harbingerexplorer.com/register. Keine Kreditkarte, 8 Demo-Quellen vorgeladen.
  2. Quelle hinzufügen. URL eines web-zugänglichen Endpoints, Name vergeben, AI Crawler läuft automatisch.
  3. Schema reviewen. Spalten, inferierte Typen, geflaggte Felder (PII).
  4. SQL-Editor öffnen. Tabelle ist im Scope, keine Connection-Konfiguration.
  5. Query schreiben. SELECT * FROM source LIMIT 10 bis Multi-Step-Aggregation.
  6. Speichern und teilen. Queries im Catalog-Eintrag.

Power-Features

Cross-Source-JOINs. Mehrere Quellen im selben System katalogisiert — du JOINst in einer DuckDB-Query darüber.

Aggregations und Window Functions. Voller analytischer SQL-Dialekt: OVER(), PARTITION BY, RANK(), LAG().

PII-Detection. AI Crawler flaggt Spalten mit personenbezogenen Daten automatisch.

Column Mapping. Über mehrere Quellen hinweg gemeinsame Spalten und Strukturähnlichkeiten erkennen.

Recrawling (Pro). Quellen entwickeln sich. Recrawl picks neue Spalten, Deprecations, Schema-Changes.

Vergleich

FactorpgAdmin / DBeaverHarbinger Explorer
Installation nötigJaNein
VPN/SSH-TunnelMeistNicht für Web-zugängliche Quellen
Time-to-First-Query5–15 Min< 5 Min
PII-Auto-DetectionNeinJa
Cross-Source-SQL-JOINsVia mehrere ConnectionsNative, ein Query
Schema-Auto-DiscoveryManuell/Driver-abhängigAI Crawler
CollaborationFile-basiertCatalog-nativ
PricingFrei (Desktop-Clients)Ab 8 €/Monat
Im BrowserNeinJa

Warum DuckDB?

Built für Analytics. SQLite ist für Transactional-Workloads (Single-Row Insert/Update). DuckDB ist für analytische Workloads (Scan large Column-Sets, GROUP BY, Aggregate). Auf Columnar-Daten ist DuckDB oft eine Größenordnung schneller.

Native WebAssembly. WASM lässt C++-Code im Browser nahe Native-Speed laufen. Die WASM-Build ist dieselbe Engine, die in Production-Systemen läuft.

Multi-Format-Reads. JSON, CSV, Parquet direkt — kein Import.

Familiärer SQL-Dialekt. Postgres-, BigQuery-, Snowflake-Nutzer:innen sind sofort produktiv.

Wann HE, wann Desktop?

HE gewinnt:

  • Quick Exploratory Queries auf Web-Quellen
  • Schema-Discovery auf unbekannten Datasets
  • Cross-Source-Analyse
  • Onboarding ohne 2-Tage-Setup
  • Governance-Reviews

Desktop bleibt richtig:

  • Private DB-Administration mit persistenten VPN/SSH-Sessions
  • DB-Admin-Tasks (Index, User, DDL)
  • Extrem große Result-Sets (Streaming-Capabilities)

Die meisten Teams nutzen beides.

FAQ

Unterstützt HE private DBs wie Postgres oder MySQL? Aktuell optimiert für web-zugängliche Quellen via URL. Private-DB-Konnektivität auf Roadmap.

Werden Daten an HE-Server gesendet? Nein. Queries laufen client-side via DuckDB-WASM. HE speichert Schema-Metadata und Query-History, keine Source-Daten.

Wie unterscheidet sich DuckDB-SQL von Standard-SQL? ANSI-SQL mit Analytics-Extensions. Postgres-/BigQuery-/Snowflake-Syntax meist vertraut.

Catalog mit Teammitgliedern teilen? Catalog-Sharing und Team-Workspaces in Entwicklung. Aktuell per Account.

Welche Formate unterstützt der Crawler? JSON, CSV nativ. REST-APIs mit strukturierten Responses. Parquet, XML in Erweiterung.

Pricing: Starter 8 €/Monat (25 Chats/Tag, 10 Crawls/Monat). Pro 24 €/Monat (200 Chats/Tag, 100 Crawls/Monat). 7 Tage Trial ohne Kreditkarte.

Stand: 14. Mai 2026.

H

Geschrieben von

Harbinger Team

Cloud-, Data- und AI-Engineer in DACH. Schreibt seit 2018 über infrastruktur­kritische Tech-Entscheidungen — keine Marketing- Folien, sondern echte Trade-offs aus Production-Workloads.

Hat dir das geholfen?

Jede Woche ein neuer Artikel über DACH-Cloud, Data und AI — direkt in dein Postfach. Kein Spam, kein Marketing-Sprech.

Kein Spam. 1-Klick-Abmeldung. Datenschutz bei Loops.so.