Skip to content
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
Logo
  1. ioBroker Community Home
  2. Deutsch
  3. Visualisierung
  4. 2x Influx, für Live und History?

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.1k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    1.8k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    15
    1
    2.1k

2x Influx, für Live und History?

Scheduled Pinned Locked Moved Visualisierung
2 Posts 1 Posters 223 Views 1 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • B Offline
    B Offline
    berndsolar13
    wrote on last edited by berndsolar13
    #1

    Hi ich überlege gerade, wie ich das speichern meiner Daten verbessern kann.
    Aktueller Stand.

    Die Produktion des Balkonkraftwerks wird über den Deye Adapter von @Rene55 ausgelesen.
    Ebenso der Zähler über den Hichi Sensor.

    Die Werte vom Deys Wechselrichter kommen alle 5 Minuten.
    Beim Zähler alle 60 sek. In hoffentlich spätestens in 30 Tagen ist meine PV Anlage aktiv, mit dann noch einem PV Wert.

    Aktuell landet alles in der Influx db. Neben den Stromwerten auch noch die Temperatur + Luftfeuchte Werte meiner Sensoren. Die komme auch alle 60 Sekunden, weil man dann besser in Grafana die Änderungen sieht. Gerade nach dem Lüften. Die Datenbank wird so aber sehr stark mit Werten zugemüllt, die ich eigentlich nach 3 Tagen nicht mehr benötige.

    Die Idee war nun ein 2. Influx Adapter einzubauen, für History Werte. Blockly soll 1x pro Tag sagen wir um 23:59 die Werte von den Original Datenpunkten in die 0_userdata schreiben. Und dort speichere ich dann in der 2. Datenbank die Werte die ich will, 1x pro Tag.

    Wie macht ihr das ? gibt es eine Bessere Lösung ? Live Werte können alle 7 Tage gelöscht werden, dann bleibt die Datenbank aufgeräumt, und History Werte nur 1x pro Tag in eine 2. Influx db.

    B 1 Reply Last reply
    0
    • B berndsolar13

      Hi ich überlege gerade, wie ich das speichern meiner Daten verbessern kann.
      Aktueller Stand.

      Die Produktion des Balkonkraftwerks wird über den Deye Adapter von @Rene55 ausgelesen.
      Ebenso der Zähler über den Hichi Sensor.

      Die Werte vom Deys Wechselrichter kommen alle 5 Minuten.
      Beim Zähler alle 60 sek. In hoffentlich spätestens in 30 Tagen ist meine PV Anlage aktiv, mit dann noch einem PV Wert.

      Aktuell landet alles in der Influx db. Neben den Stromwerten auch noch die Temperatur + Luftfeuchte Werte meiner Sensoren. Die komme auch alle 60 Sekunden, weil man dann besser in Grafana die Änderungen sieht. Gerade nach dem Lüften. Die Datenbank wird so aber sehr stark mit Werten zugemüllt, die ich eigentlich nach 3 Tagen nicht mehr benötige.

      Die Idee war nun ein 2. Influx Adapter einzubauen, für History Werte. Blockly soll 1x pro Tag sagen wir um 23:59 die Werte von den Original Datenpunkten in die 0_userdata schreiben. Und dort speichere ich dann in der 2. Datenbank die Werte die ich will, 1x pro Tag.

      Wie macht ihr das ? gibt es eine Bessere Lösung ? Live Werte können alle 7 Tage gelöscht werden, dann bleibt die Datenbank aufgeräumt, und History Werte nur 1x pro Tag in eine 2. Influx db.

      B Offline
      B Offline
      berndsolar13
      wrote on last edited by berndsolar13
      #2

      @berndsolar13

      hab es selbst hinbekommen 🙂

      Falls es wen interessiert.
      Zuerst eine 2. Datenbank in influx angelegt.

      Dann in Blocky per CURL einfach die Daten in die Datenbank geschrieben.

      curl -i -XPOST 'http://192.168.178.50:8086/write?db=history' --data-binary 'energie.bezug value=9103.9 1708877919663000000'
      

      IP Adresse von Influx,
      name der Datenbank = history
      name des Datenpunkts also Measurement = energie.bezug
      value ist der Wert
      und 1708877919663000000 ist der aktuelle Timestamp

      Das alles in Blockly ausgeführt um 23:59
      So isses perfekt, muss keine 2. Instanz installieren, und es müssen auch keine Datenpunkte überwacht werden 🙂

      1 Reply Last reply
      1
      Reply
      • Reply as topic
      Log in to reply
      • Oldest to Newest
      • Newest to Oldest
      • Most Votes


      Support us

      ioBroker
      Community Adapters
      Donate

      412

      Online

      32.4k

      Users

      81.4k

      Topics

      1.3m

      Posts
      Community
      Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
      ioBroker Community 2014-2025
      logo
      • Login

      • Don't have an account? Register

      • Login or register to search.
      • First post
        Last post
      0
      • Recent
      • Tags
      • Unread 0
      • Categories
      • Unreplied
      • Popular
      • GitHub
      • Docu
      • Hilfe