Skip to content
  • Home
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Visualisierung
  4. 2x Influx, für Live und History?

NEWS

  • Monatsrückblick Januar/Februar 2026 ist online!
    BluefoxB
    Bluefox
    18
    1
    717

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    18
    1
    5.9k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.5k

2x Influx, für Live und History?

Scheduled Pinned Locked Moved Visualisierung
2 Posts 1 Posters 242 Views 1 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • B Offline
    B Offline
    berndsolar13
    wrote on last edited by berndsolar13
    #1

    Hi ich überlege gerade, wie ich das speichern meiner Daten verbessern kann.
    Aktueller Stand.

    Die Produktion des Balkonkraftwerks wird über den Deye Adapter von @Rene55 ausgelesen.
    Ebenso der Zähler über den Hichi Sensor.

    Die Werte vom Deys Wechselrichter kommen alle 5 Minuten.
    Beim Zähler alle 60 sek. In hoffentlich spätestens in 30 Tagen ist meine PV Anlage aktiv, mit dann noch einem PV Wert.

    Aktuell landet alles in der Influx db. Neben den Stromwerten auch noch die Temperatur + Luftfeuchte Werte meiner Sensoren. Die komme auch alle 60 Sekunden, weil man dann besser in Grafana die Änderungen sieht. Gerade nach dem Lüften. Die Datenbank wird so aber sehr stark mit Werten zugemüllt, die ich eigentlich nach 3 Tagen nicht mehr benötige.

    Die Idee war nun ein 2. Influx Adapter einzubauen, für History Werte. Blockly soll 1x pro Tag sagen wir um 23:59 die Werte von den Original Datenpunkten in die 0_userdata schreiben. Und dort speichere ich dann in der 2. Datenbank die Werte die ich will, 1x pro Tag.

    Wie macht ihr das ? gibt es eine Bessere Lösung ? Live Werte können alle 7 Tage gelöscht werden, dann bleibt die Datenbank aufgeräumt, und History Werte nur 1x pro Tag in eine 2. Influx db.

    B 1 Reply Last reply
    0
    • B berndsolar13

      Hi ich überlege gerade, wie ich das speichern meiner Daten verbessern kann.
      Aktueller Stand.

      Die Produktion des Balkonkraftwerks wird über den Deye Adapter von @Rene55 ausgelesen.
      Ebenso der Zähler über den Hichi Sensor.

      Die Werte vom Deys Wechselrichter kommen alle 5 Minuten.
      Beim Zähler alle 60 sek. In hoffentlich spätestens in 30 Tagen ist meine PV Anlage aktiv, mit dann noch einem PV Wert.

      Aktuell landet alles in der Influx db. Neben den Stromwerten auch noch die Temperatur + Luftfeuchte Werte meiner Sensoren. Die komme auch alle 60 Sekunden, weil man dann besser in Grafana die Änderungen sieht. Gerade nach dem Lüften. Die Datenbank wird so aber sehr stark mit Werten zugemüllt, die ich eigentlich nach 3 Tagen nicht mehr benötige.

      Die Idee war nun ein 2. Influx Adapter einzubauen, für History Werte. Blockly soll 1x pro Tag sagen wir um 23:59 die Werte von den Original Datenpunkten in die 0_userdata schreiben. Und dort speichere ich dann in der 2. Datenbank die Werte die ich will, 1x pro Tag.

      Wie macht ihr das ? gibt es eine Bessere Lösung ? Live Werte können alle 7 Tage gelöscht werden, dann bleibt die Datenbank aufgeräumt, und History Werte nur 1x pro Tag in eine 2. Influx db.

      B Offline
      B Offline
      berndsolar13
      wrote on last edited by berndsolar13
      #2

      @berndsolar13

      hab es selbst hinbekommen :)

      Falls es wen interessiert.
      Zuerst eine 2. Datenbank in influx angelegt.

      Dann in Blocky per CURL einfach die Daten in die Datenbank geschrieben.

      curl -i -XPOST 'http://192.168.178.50:8086/write?db=history' --data-binary 'energie.bezug value=9103.9 1708877919663000000'
      

      IP Adresse von Influx,
      name der Datenbank = history
      name des Datenpunkts also Measurement = energie.bezug
      value ist der Wert
      und 1708877919663000000 ist der aktuelle Timestamp

      Das alles in Blockly ausgeführt um 23:59
      So isses perfekt, muss keine 2. Instanz installieren, und es müssen auch keine Datenpunkte überwacht werden :)

      1 Reply Last reply
      1

      Hello! It looks like you're interested in this conversation, but you don't have an account yet.

      Getting fed up of having to scroll through the same posts each visit? When you register for an account, you'll always come back to exactly where you were before, and choose to be notified of new replies (either via email, or push notification). You'll also be able to save bookmarks and upvote posts to show your appreciation to other community members.

      With your input, this post could be even better 💗

      Register Login
      Reply
      • Reply as topic
      Log in to reply
      • Oldest to Newest
      • Newest to Oldest
      • Most Votes


      Support us

      ioBroker
      Community Adapters
      Donate

      396

      Online

      32.7k

      Users

      82.6k

      Topics

      1.3m

      Posts
      Community
      Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
      ioBroker Community 2014-2025
      logo
      • Login

      • Don't have an account? Register

      • Login or register to search.
      • First post
        Last post
      0
      • Home
      • Recent
      • Tags
      • Unread 0
      • Categories
      • Unreplied
      • Popular
      • GitHub
      • Docu
      • Hilfe