Cloud allgemein

REST API Dashboard: Live-Charts ohne Backend bauen

Live-Dashboards aus jeder REST-API ohne Backend, Datenbank oder Code — direkt im Browser mit Harbinger Explorer und DuckDB.

Harbinger Team14. Mai 20269 Min. LesezeitAktualisiert 14.5.2026
  • rest api dashboard
  • api visualization
  • no-code dashboard
  • duckdb
  • api analytics
  • data dashboard
  • browser analytics
  • dach
Inhaltsverzeichnis20 Abschnitte

REST API Dashboard: Live-Charts aus jeder API — kein Backend nötig

Ein Dashboard aus einer REST-API zu bauen, bedeutete früher ein Projekt. Ein echtes Projekt, mit Backend, Datenbank, geplantem Job zum Ziehen und Speichern der Daten, BI-Tool drauf und jemand, der den Stack pflegt, wenn die API nächstes Quartal das Schema ändert. Für ein Team mit Data-Engineer und BI-Developer ist das Routine. Für alle anderen ein Blocker.

Die Ironie: die Daten, die du brauchst, existieren schon — in der API, für die du schon zahlst. Du kannst sie nur nicht als Dashboard sehen, ohne Infrastruktur zu bauen.

Was, wenn du in unter fünf Minuten, im Browser, ohne Backend und Datenbank von REST-API zum Dashboard kommst? Genau dafür ist Harbinger Explorer gebaut.

TL;DR

  • AI-Crawler crawlt API-Doku, mapt Endpoints und Schema in 30–60 Sekunden
  • DuckDB im Browser: SQL gegen API-Daten, sofortige Charts
  • Multi-API JOINs in einer Query
  • Live-Link teilen mit Stakeholdern, kein BI-Tool-Account nötig
  • Ab 8 €/Monat

Das klassische Problem: REST-APIs kommen ohne Dashboards

Die Daten sind da. Die Pipeline nicht.

Jedes SaaS-Tool deines Teams hat eine REST-API. Dein CRM hat Kundendaten. Dein Payment-Processor hat Transaktionsdaten. Deine Analytics-Plattform hat Behavior-Daten. Dein Logistik-Provider hat Versanddaten. APIs sind gut dokumentiert, gut gepflegt und voll mit genau der Information, die du für Entscheidungen brauchst.

Aber eine API ist kein Dashboard. Eine REST-API ist ein Request-Response-Interface. Sie gibt JSON zurück, wenn du fragst. Sie aggregiert nicht. Sie visualisiert nicht. Sie persistiert nicht. Um API-Daten in ein Dashboard zu wandeln, brauchtest du klassischerweise:

  1. Skript schreiben, das Daten aus der API zieht
  2. Auth, Pagination und Rate Limits handhaben
  3. Daten transformieren und in konsistentes Schema bringen
  4. In Datenbank oder Warehouse laden
  5. BI-Tool an die DB anschließen
  6. Dashboard im BI-Tool bauen
  7. Skript schedulen, damit Dashboard frisch bleibt
  8. Die ganze Kette monitoren und pflegen

Das ist eine Daten-Pipeline. Daten-Pipelines sind Engineering-Arbeit. Eine pro API zu bauen, ist für die meisten Teams nicht skalierbar.

Was es kostet, es richtig zu machen

Eine ordentlich gebaute REST-API-Dashboard-Pipeline mit klassischen Tools kostet echt Geld und Zeit. Cloud-Infra für Storage, ETL-Tool oder Custom-Scheduler, BI-Plattform-Lizenz und Engineering-Zeit. Für ein einziges internes Dashboard zahlst du 20–40 Engineer-Stunden Build und laufenden Pflege-Aufwand bei jedem API-Change.

Viele Teams entscheiden, dass es das nicht wert ist, und nehmen die eingebauten Reports der Plattform — die zeigen, was der Vendor entschied, dass du sehen sollst, nicht was du wirklich wissen musst.

Die "schnellen" Lösungen haben versteckte Kosten

Zapier oder Make können API-Daten in ein Google Sheet pushen, das du manuell chartet. Funktioniert, bricht aber bei Scale: Google Sheets wird ab 100k Zeilen langsam, Daten sind immer leicht stale (Zapier läuft auf Schedule), und du machst manuelle Chart-Pflege bei jeder Schema-Änderung.

Tools wie Retool oder AppSmith sind für interne Apps aus APIs gebaut, brauchen aber Development — JavaScript schreiben, Widgets konfigurieren, Data-Binding verstehen. Exzellent für Developer. Keine Self-Service-Lösung für Analysten.

Warum bestehende Dashboard-Tools für REST-APIs versagen

BI-Tools sind für Datenbanken gebaut, nicht für APIs

Tableau, Power BI und Looker verbinden sich mit Datenbanken. Sie erwarten Daten in einer Tabelle, mit konsistentem Schema, erreichbar via SQL-kompatible Connection. REST-APIs funktionieren nicht so — sie sind stateless, paginiert und geben nested JSON zurück, keine flachen Zeilen.

REST-API-Daten in Tableau zu bringen heißt, dazwischen eine Datenbank aufzubauen und zu pflegen. Das Dashboard ist nicht der harte Teil — die Plumbing ist es.

"API-Connectoren" decken nur populäre Services

Die meisten BI-Plattformen haben native Connectoren für Salesforce, HubSpot, Stripe, Google Analytics — die Top 20. Wenn du eine Nischen-Branchen-API, einen proprietären Daten-Provider oder eine eigene interne API nutzt, baust du einen Custom-Connector. Das braucht Dev-Expertise und Pflege.

Deine Daten liegen in einer API, für die Tableau keinen Connector hat. Du kannst nicht sechs Monate warten, bis sie einen bauen.

Real-Time-Updates brauchen Infrastruktur

Ein BI-Dashboard ist so frisch wie sein letzter Daten-Sync. Wenn der nachts läuft, ist dein Dashboard immer mindestens 12 Stunden alt. Für Near-Real-Time-Daten — Live-Transaktionen monitoren, operative Metriken tracken, Kampagnen-Performance stündlich beobachten — brauchst du Streaming-Infrastruktur oder sehr schnellen Sync. Beides kostet Geld und Engineering.

Selbst ausprobierenKostenlos starten. Keine Kreditkarte. 8 Demo-Datenquellen ready to query.

Der bessere Ansatz: API zu Dashboard im Browser

Harbinger Explorer eliminiert die Pipeline. Keine Datenbank. Kein ETL. Kein geplanter Job. Kein BI-Server. Dein Browser verbindet sich direkt mit der API, läuft Queries gegen Live-Daten und rendert Charts — alles an einem Ort.

Möglich durch zwei Kern-Technologien: den AI-Crawler (der API-Setup-Reibung eliminiert) und DuckDB (eine volle SQL-Query-Engine, die nativ im Browser läuft).

So funktioniert es: von API zu Dashboard

Schritt 1: API crawlen Doku-URL deiner API in HE einfügen. Der AI-Crawler liest Docs, entdeckt Endpoints, mapt Response-Schemas und erstellt ein queryable Modell. Dauert 30–60 Sekunden für die meisten APIs. Du konfigurierst nichts manuell.

Schritt 2: Einmal authentifizieren API-Credentials hinzufügen — API-Key, Bearer-Token oder Basic-Auth. Verschlüsselt in deinem Account gespeichert, automatisch für jeden Request genutzt. Du fasst sie nie wieder an.

Schritt 3: Mit SQL oder Natural Language abfragen SQL-Query gegen das gecrawlte Schema schreiben. Oder auf Deutsch fragen: "Zeig mir tägliches Transaktionsvolumen der letzten 30 Tage, gruppiert nach Zahlmethode." Der AI generiert SQL, führt die API-Calls mit automatischer Pagination aus und lädt das Ergebnis in DuckDB.

Schritt 4: Sofort visualisieren Auf "Chart" bei jedem Query-Ergebnis klicken. Bar, Line, Scatter oder Pie wählen. Achsen mit Klick konfigurieren. Chart rendert sofort aus dem In-Memory-DuckDB-Ergebnis — kein Roundtrip, kein Server, kein Warten.

Schritt 5: Als Dashboard-View speichern Query und Chart-Config als benannte View speichern. Mehrere Views auf einer Dashboard-Seite. Jede View ist unabhängig queryable und refreshed on-demand oder auf Schedule (Pro).

Schritt 6: Mit Stakeholdern teilen Teilbaren Link generieren. Empfänger öffnen ihn im Browser — kein Account nötig für Read-Only. Dashboard aktualisiert sich, wenn du Queries neu ausführst. Deine Stakeholder sehen immer aktuelle Daten, keinen Snapshot von letzter Woche.

Schritt-für-Schritt: Payment-Analytics-Dashboard in 10 Minuten

Konkretes Beispiel: ein Dashboard mit täglichem Umsatz, Refund-Rates nach Produktkategorie und Top 10 Kunden nach Lifetime Value — direkt aus der API deines Payment-Processors.

Schritt 1: HE einloggen. "New Source" → Doku-URL des Payment-Processors einfügen.

Schritt 2: Crawler liefert entdeckte Endpoints: /v1/charges, /v1/refunds, /v1/customers. API-Key hinzufügen.

Schritt 3: Query 1 — Täglicher Umsatz: "Zeig mir Gesamtumsatz pro Tag der letzten 30 Tage." HE generiert den Request, handhabt Pagination (vielleicht hunderte Seiten Charges), lädt das Ergebnis in DuckDB, rendert Line-Chart. Diese View in unter 2 Minuten fertig.

Schritt 4: Query 2 — Refund-Rate nach Kategorie: SQL direkt: SELECT p.category, COUNT(r.id) as refunds, COUNT(c.id) as charges, COUNT(r.id)*100.0/COUNT(c.id) as refund_rate FROM charges c LEFT JOIN refunds r ON c.id = r.charge_id JOIN products p ON c.product_id = p.id GROUP BY p.category ORDER BY refund_rate DESC. HE führt das über zwei API-Endpoints aus und rendert Bar-Chart.

Schritt 5: Query 3 — Top 10 Kunden: "Top 10 Kunden nach Gesamt-Spend der letzten 90 Tage." Natural Language → SQL → Ergebnis → Chart. 60 Sekunden.

Schritt 6: Die drei Charts auf einer Dashboard-Seite anordnen. Link mit deinem Head of Growth teilen. Live-Payment-Daten ohne Login ins Processor-Portal, ohne BI-Tool, ohne Data-Engineer.

Advanced: Was HE-Dashboards anders macht

Multi-API-Dashboards

Der mächtigste Use-Case ist, Daten aus mehreren APIs in einem Dashboard zu kombinieren. Umsatz aus Payment-API neben Acquisition-Cost aus Werbe-API neben Churn aus Subscription-API. Auf Kunden-ID und Datum joinen. Unit-Economics-Dashboard bauen, das keine native Plattform-Analytics zeigen kann.

In klassischem BI: ein Multi-Source-Data-Warehouse-Projekt. In HE: drei API-Quellen und ein SQL-JOIN.

Column Mapping für konsistente Metriken

Wenn du Daten aus mehreren APIs kombinierst, sind Field-Namen inkonsistent. Eine API nennt es created_at, eine andere transaction_date, eine dritte timestamp. Column Mapping lässt dich einen kanonischen Namen pro Konzept über alle Quellen definieren. Dashboard-Queries gegen kanonische Namen — HE übernimmt die Übersetzung.

Der Unterschied zwischen einem Dashboard, das bei jedem API-Update bricht, und einem, das resilient by Design ist.

PII-sichere Dashboards

Kunden-zentrierte API-Daten enthalten oft PII. HEs PII-Detection scannt API-Responses automatisch und markiert E-Mails, Telefonnummern, Account-Nummern und andere sensitive Identifier. Bevor ein Chart Einzelkunden einer breiten Zielgruppe zeigt, konfigurierst du Column Mapping zum Maskieren oder Aggregieren. Stakeholder sehen Cohort-Insights, keine Einzelkunden-Records.

Scheduled Refresh (Pro)

Pro-User (24 €/Monat) können Dashboard-Views auf Schedule refreshen — stündlich, täglich, wöchentlich. Die zugrunde liegende API wird automatisch neu abgefragt, das Dashboard aktualisiert sich ohne Eingreifen. Die "Live-Dashboard"-Experience, die traditionell Teams mit Pipeline-Infrastruktur vorbehalten war.

Vergleich: klassische Pipeline vs. Harbinger Explorer

DimensionKlassische PipelineHarbinger Explorer
Setup-ZeitTage bis Wochen (Engineering)Minuten (Self-Service)
Infrastruktur nötigDB, ETL, BI-ServerNur Browser
API-KonfigurationManuell (Code oder Config-Files)AI-Crawler (30–60 Sekunden)
Multi-API JOINData-Warehouse + Custom-ETLSQL JOIN im Browser
Dashboard-RefreshGeplanter Job + MonitoringOn-Demand oder Scheduled (Pro)
Pflege-AufwandHoch (API-Changes brechen Pipelines)Recrawl updated Schema (Pro)
Mit Nicht-Technikern teilenBI-Tool-Account nötigPublic-Link, browserbasiert
Monatliche KostenHunderte bis tausende (Infra + Tools)Ab 8 €/Monat

Pricing: Starter ab 8 €/Monat (25 Chats/Tag, 10 Crawls/Monat) oder Pro 24 €/Monat (200 Chats/Tag, 100 Crawls/Monat, Recrawling, Priority-Support). Preise →

7-Tage-Trial gratis, keine Kreditkarte. Kostenlos starten →

FAQ

Zeigt das Dashboard Live-Daten oder Cache? Standardmäßig zieht jede Query Live-Daten beim Ausführen. Ergebnisse werden im Browser für die Session gecacht, damit Verfeinerungen schnell sind. Im Pro-Plan konfigurierst du geplante Refreshes, sodass Dashboard-Views sich automatisch aktualisieren — stündlich, täglich oder Custom-Schedule.

Kann ich das Dashboard in ein anderes Tool oder Website embedden? Teilbare Links erzeugen Read-Only-Views in jedem Browser. Embeddable iframes sind auf der Roadmap. Heute ist der primäre Sharing-Mechanismus der Live-Link.

Was, wenn meine API keine Doku hat? Der AI-Crawler funktioniert am besten mit strukturierter Doku (OpenAPI/Swagger, Readme.io). Für APIs ohne Docs kannst du Endpoints manuell beschreiben — eine Sample-Response einfügen, und HE infert das Schema. Wir fügen auch HAR-File-Import (aus Browser-Network-Tools) hinzu, sodass du ein Schema aus beobachtetem Traffic bootstrappen kannst.

Wie unterscheidet sich das von Google Sheets? Google Sheets zieht API-Daten via Apps Script (Coding nötig) oder Zapier (eingeschränkte Felder, delayed Sync). Hat keine SQL-Schicht und wird ab paar tausend Zeilen langsam. HE handhabt große API-Datasets via DuckDB, unterstützt komplexe SQL-Aggregation, refreshed live und generiert teilbare Links ohne Anhänge.

Was kostet der Start? Der 7-Tage-Trial gibt vollen Pro-Zugang — keine Kreditkarte. Nach dem Trial: Starter 8 €/Monat (25 Queries/Tag, 10 API-Quellen). Pro 24 €/Monat für höhere Limits, geplanten Refresh und Priority-Support.

DSGVO und DACH-Hosting? EU-Region-Verarbeitung, AVV verfügbar. PII-Detection automatisch.

Fazit

Ein REST-API-Dashboard zu bauen, hieß früher, eine Daten-Pipeline zu bauen. Datenbank, ETL-Job, BI-Tool — jedes ein eigenes Projekt, eigene Kosten, eigene Fehlerquelle. Für Teams ohne dediziertes Engineering schlicht unerreichbar.

Harbinger Explorer macht die Pipeline optional. Der AI-Crawler macht API-Discovery. DuckDB macht die Query-Schicht. Der Browser rendert. Du gehst von "Ich will ein Dashboard aus dieser API" zu "Ich habe ein Dashboard aus dieser API" in Minuten, nicht Wochen.

Die Daten, die du brauchst, sind schon in deinen APIs. Du solltest keinen Data-Engineer brauchen, um sie als Chart zu sehen.

Setup überspringen und explorieren? Harbinger Explorer kostenlos testen →

Stand: 14. Mai 2026.

H

Geschrieben von

Harbinger Team

Cloud-, Data- und AI-Engineer in DACH. Schreibt seit 2018 über infrastruktur­kritische Tech-Entscheidungen — keine Marketing- Folien, sondern echte Trade-offs aus Production-Workloads.

Hat dir das geholfen?

Jede Woche ein neuer Artikel über DACH-Cloud, Data und AI — direkt in dein Postfach. Kein Spam, kein Marketing-Sprech.

Kein Spam. 1-Klick-Abmeldung. Datenschutz bei Loops.so.