Zum Erstellen von hübschen Graphen zu den Knoten schicken ja viele Communities ihre Daten in diverse Datenbanken.
Ich möchte gerne vergleichbares in Richtung postgres machen.
Ich würde mir gerne die Arbeit zum Erstellen von Skripten zum einlesen der nodes.json ersparen, daher die Frage in die Runde ob mir jemand etwas derartiges zur Verfügung stellen kann.
Yanic von Bremen erlaubt es um ein Backend zu erweitern. Aktuell ist influxdb und vermutlich wenn man mal dazu kommt Graphite. da sollte auch Whisper gehen. Weg über nodes.json finde ich eher schlecht, da dort Infos eventuell fehlen.
respondd liefert mehr Daten als eine nodes.json braucht bzw. sinnvoll sind. Ein gu5tes Beispiel sind tx werte. Ein einzelner Wert ist wenig aussagekräftig und nur eine kleine Momentaufnahme, aber als Graph sehr praktisch. Den Overhead beispielsweise ins Frontend zu liefern ist Overhead. Auch könnten auf Dauer Berechnungen am Server laufen (muss nicht jeder Client machen) und in Grafana magst du lieber die Originaldaten um eventuell später eine neue Abfrage/Statistik zu bauen.
Auch diese stehen doch dem respondd nur einmal pro Minute zur Verfügung, da die Knoten nicht häufiger abgefragt werden.
Sofern wir nun minütlich im Anschluss an die Generierung der nodes.json den relevanten Inhalt ins Postgres drücken geht uns doch hier nichts verloren oder übersehe ich etwas?
Naja du hast ein Backend das nodes.json generiert, warum nicht dieses Backend das eventuell auch Informationen wie airtime hat gleich in postgres oder anderes Backend von Grafana schieben. Was ich mit TX meine - der wert sollte aus der nodes.json raus. Für mich ist diese ein Tarnsportmedium fürs Frontend und alles was der Client nicht benötigt kann fliegen. Klar kannst du auch die json parsen, aber dann bist an ein Format gebunden, das eventuell neue Infos nicht vorsieht oder einfach nicht hat.
EDIT: Du hast ja irgend ein Backend das respondd Info sammelt und nodes.json schreibt. Das kann genauso gut noch in eine DB schreiben.