Insider Preview 3 veröffentlicht

Bild

Wir haben seben die Insider Preview 3 zur Version 4.8 veröffentlicht
Komplett überarbeiteter Logik Katalog mit verbesserter Übersicht und Suche für einfachere Auswahl der Lgik Module
Sechs neue Logiken für Farbraum-Umrechnungen (siehe Bild)
Fünfzehn neue Logiken aus der Community
Damit sind es nun 99 Logiken
Einundzwanzig neue winterliche Hintergründe für die VISU
Verbesserte Mouse-Over im VISU Editor für klarere Information
Das HTTP-API Subsystem liefert nun im Header stets Header Access-Control-Allow-Origin = * aus
Der Modbus Register Auswahlassistent erlaubt nun verschiedene Sortierungen beim Anlegen einer Transaktion
Viele Bugfixes


Release Notes: https://elabnet.atlassian.net/wiki/x/AYDD0

AKTION: Wir haben noch viele tolle Updates und 150 Videos (und 800 Wiki Seiten) geplant. Bitte unterstütze uns mit einem Software-Wartungsvertrag, damit wir dieses alles erreichen können. Und damit Dein Server weiterhin Updates, Upgrades und Support erhält. Jetzt in der Aktion schenken wir Dir den Insider Club mit derselben Laufzeit wie der am längsten laufende aktive Wartungsvertrag dazu - bei sofortigem Laufzeitbeginn. Damit profitierst Du auch von einer vorzeitigen Verlängerung. Alle Infos: https://elabnet.atlassian.net/wiki/x/GQB8z

[Frage] [V4.5] Überforderung der InfluxDB bei gleichzeitigen Werten?

Diskussionen über Zeitserien, Logging und Auswertung mit Grafana
Forumsregeln
  • Denke bitte an aussagekräftige Titel und gebe dort auch die [Firmware] an. Wenn ETS, CometVisu, Grafana, Edomi oder eine andere Software beteiligt ist, dann auch immer deren Version
  • Bitte mache vollständige Angaben zu Deinem Server, dessen ID und dem Online-Status in Deiner Signatur. Hilfreich ist oft auch die Beschreibung der angeschlossener Hardware sowie die verwendeten Protokolle
  • Beschreibe Dein Projekt und Dein Problem bitte vollständig. Achte bitte darauf, dass auf Screenshots die Statusleiste sichtbar ist
  • Bitte sei stets freundlich und wohlwollend, bleibe beim Thema und unterschreibe mit deinem Vornamen. Bitte lese alle Regeln, die Du hier findest: https://wiki.timberwolf.io/Forenregeln
Antworten
Benutzeravatar

Ersteller
speckenbuettel
Beiträge: 444
Registriert: Mo Jun 27, 2022 9:30 am
Hat sich bedankt: 338 Mal
Danksagung erhalten: 281 Mal

[V4.5] Überforderung der InfluxDB bei gleichzeitigen Werten?

#1

Beitrag von speckenbuettel »

Hallo,

mir ist an zwei Stellen aufgefallen, dass die interne InfluxDB des Timberwolf Servers Probleme damit hat, wenn Werte gleichzeitig (oder fast gleichzeitig) ankommen.

Ich beschäftigte mich gerade damit, NINA-Warnungen per REST-API abzufragen und auszuwerten. Um herauszufinden, ob die HTTP-Auswertungen der einzelnen JSON-Selektoren bei jeder Serverabfrage in der gleichen Reihenfolge (in der Reihenfolge der Abfragen in der UI) über den Dispatcher verschickt werden, habe ich alle Abfragen mit einer Zeitreihe namens NINA-Protokoll verknüpft:

Bild

Selbst wenn eine NINA-Warnung vorliegt und alle Auswertungen mit Werten versehen werden, werden diese nicht immer in die Zeitreihe geschrieben.
Ich vermute daher, dass das damit zusammenhängt, dass die Werte - wenn nicht exakt gleichzeitig - aber doch mit so geringem Zeitabstand eintreffen, dass die InfluxDB damit überfordert ist. Es wurden nämlich auch nicht immer die gleichen Werte gespeichert, das geschieht mehr oder weniger zufällig.

An anderer Stelle hatte ich das gleiche Phänomen mit MQTT-Werten. Im Rahmen meiner Heizungssteuerung Viessmann über MQTT (viewtopic.php?p=63486&hilit=viessmann#p63486) habe ich eine Logik, die mehrere Befehle für die Heizung erstellt und diese über mehrere Ausgänge an das entsprechende MQTT-Objekt schickt. Die Ausgänge der Logik werden beim Ausführen natürlich nicht exakt gleichzeitig beschrieben, aber in nicht messbaren Zeitabständen. Über MQTT wurden alle Befehle der Reihe nach verschickt und vom Optolink-Splitter verarbeitet. Aber (vor allem zu Testzwecken) schreibe ich alle Aktivitäten auf diesem MQTT-Topic in eine Zeitreihe, und dort fehlten auch immer wieder Einträge (im MQTT-Explorer waren diese in der Historie sichtbar).

Liegt das an einer "Überforderung" der InfluxDB bei zu schnell hintereinander eintreffenden Werten? Der TWS-Dispatcher ist offensichtlich zu schnell für die InfluxDB?

Vielen Dank und viele Grüße
Falk
Vielen Dank und viele Grüße
Falk

TWS 3500M ID:810 - VPN aktiv - Reboot nach Absprache
1-Wire, KNX (MDT u. a.), EnOcean (Eltako u. a.), Gira TKS, ekey multi
Antworten

Zurück zu „Zeitserien, Logging & Grafana“