Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Visualisierung
  4. 2x Influx, für Live und History?

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    4.0k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.2k

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.5k

2x Influx, für Live und History?

Geplant Angeheftet Gesperrt Verschoben Visualisierung
2 Beiträge 1 Kommentatoren 240 Aufrufe 1 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • B Offline
    B Offline
    berndsolar13
    schrieb am zuletzt editiert von berndsolar13
    #1

    Hi ich überlege gerade, wie ich das speichern meiner Daten verbessern kann.
    Aktueller Stand.

    Die Produktion des Balkonkraftwerks wird über den Deye Adapter von @Rene55 ausgelesen.
    Ebenso der Zähler über den Hichi Sensor.

    Die Werte vom Deys Wechselrichter kommen alle 5 Minuten.
    Beim Zähler alle 60 sek. In hoffentlich spätestens in 30 Tagen ist meine PV Anlage aktiv, mit dann noch einem PV Wert.

    Aktuell landet alles in der Influx db. Neben den Stromwerten auch noch die Temperatur + Luftfeuchte Werte meiner Sensoren. Die komme auch alle 60 Sekunden, weil man dann besser in Grafana die Änderungen sieht. Gerade nach dem Lüften. Die Datenbank wird so aber sehr stark mit Werten zugemüllt, die ich eigentlich nach 3 Tagen nicht mehr benötige.

    Die Idee war nun ein 2. Influx Adapter einzubauen, für History Werte. Blockly soll 1x pro Tag sagen wir um 23:59 die Werte von den Original Datenpunkten in die 0_userdata schreiben. Und dort speichere ich dann in der 2. Datenbank die Werte die ich will, 1x pro Tag.

    Wie macht ihr das ? gibt es eine Bessere Lösung ? Live Werte können alle 7 Tage gelöscht werden, dann bleibt die Datenbank aufgeräumt, und History Werte nur 1x pro Tag in eine 2. Influx db.

    B 1 Antwort Letzte Antwort
    0
    • B berndsolar13

      Hi ich überlege gerade, wie ich das speichern meiner Daten verbessern kann.
      Aktueller Stand.

      Die Produktion des Balkonkraftwerks wird über den Deye Adapter von @Rene55 ausgelesen.
      Ebenso der Zähler über den Hichi Sensor.

      Die Werte vom Deys Wechselrichter kommen alle 5 Minuten.
      Beim Zähler alle 60 sek. In hoffentlich spätestens in 30 Tagen ist meine PV Anlage aktiv, mit dann noch einem PV Wert.

      Aktuell landet alles in der Influx db. Neben den Stromwerten auch noch die Temperatur + Luftfeuchte Werte meiner Sensoren. Die komme auch alle 60 Sekunden, weil man dann besser in Grafana die Änderungen sieht. Gerade nach dem Lüften. Die Datenbank wird so aber sehr stark mit Werten zugemüllt, die ich eigentlich nach 3 Tagen nicht mehr benötige.

      Die Idee war nun ein 2. Influx Adapter einzubauen, für History Werte. Blockly soll 1x pro Tag sagen wir um 23:59 die Werte von den Original Datenpunkten in die 0_userdata schreiben. Und dort speichere ich dann in der 2. Datenbank die Werte die ich will, 1x pro Tag.

      Wie macht ihr das ? gibt es eine Bessere Lösung ? Live Werte können alle 7 Tage gelöscht werden, dann bleibt die Datenbank aufgeräumt, und History Werte nur 1x pro Tag in eine 2. Influx db.

      B Offline
      B Offline
      berndsolar13
      schrieb am zuletzt editiert von berndsolar13
      #2

      @berndsolar13

      hab es selbst hinbekommen :)

      Falls es wen interessiert.
      Zuerst eine 2. Datenbank in influx angelegt.

      Dann in Blocky per CURL einfach die Daten in die Datenbank geschrieben.

      curl -i -XPOST 'http://192.168.178.50:8086/write?db=history' --data-binary 'energie.bezug value=9103.9 1708877919663000000'
      

      IP Adresse von Influx,
      name der Datenbank = history
      name des Datenpunkts also Measurement = energie.bezug
      value ist der Wert
      und 1708877919663000000 ist der aktuelle Timestamp

      Das alles in Blockly ausgeführt um 23:59
      So isses perfekt, muss keine 2. Instanz installieren, und es müssen auch keine Datenpunkte überwacht werden :)

      1 Antwort Letzte Antwort
      1
      Antworten
      • In einem neuen Thema antworten
      Anmelden zum Antworten
      • Älteste zuerst
      • Neuste zuerst
      • Meiste Stimmen


      Support us

      ioBroker
      Community Adapters
      Donate

      547

      Online

      32.7k

      Benutzer

      82.4k

      Themen

      1.3m

      Beiträge
      Community
      Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
      ioBroker Community 2014-2025
      logo
      • Anmelden

      • Du hast noch kein Konto? Registrieren

      • Anmelden oder registrieren, um zu suchen
      • Erster Beitrag
        Letzter Beitrag
      0
      • Home
      • Aktuell
      • Tags
      • Ungelesen 0
      • Kategorien
      • Unreplied
      • Beliebt
      • GitHub
      • Docu
      • Hilfe