Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. influxdb2 - Downsampling per Tasks

NEWS

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    24
    1
    1.3k

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    9.3k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    14
    1
    2.5k

influxdb2 - Downsampling per Tasks

Geplant Angeheftet Gesperrt Verschoben Off Topic
18 Beiträge 5 Kommentatoren 1.1k Aufrufe 6 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • Marc BergM Marc Berg

    @agrippinenser
    Dann ist mir irgendwie unklar, was du erreichen willst. Willst du die Zählerstände im Ergebnis haben oder die Verbräuche?

    AgrippinenserA Offline
    AgrippinenserA Offline
    Agrippinenser
    schrieb am zuletzt editiert von Agrippinenser
    #8

    @marc-berg

    vielleicht noch .. es geht mir weniger um das richte Ergebnis sodern das überhaupt etwas geschrieben wird.

    @marc-berg sagte in influxdb2 - Downsampling per Tasks:

    ergibt leider gar keinen Sinn.

    könntest du eine Abfrage zum errechnen der Differenz zwischen min und max innerhalb des Zeitraumes vorschlagen?

    Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

    1 Antwort Letzte Antwort
    0
    • AgrippinenserA Agrippinenser

      @marc-berg sagte in influxdb2 - Downsampling per Tasks:

      dann ist mir irgendwie unklar, was du erreichen willst.

      hätte ich auch vorher sagen sollen. Ich wollte downsampling üben.

      Zu Testzwecken werden alle paar Sekunden Zählerstände des Stromzählers in Bucket "zaehlerstand.strom" geschrieben.
      Nun sollte das Range zwischen(Anfang und Ende) der letzten 5 Minuten ermittelt werden und ins Bucket "test5m" wegeschieben werden.

      Marc BergM Offline
      Marc BergM Offline
      Marc Berg
      Most Active
      schrieb am zuletzt editiert von Marc Berg
      #9

      @agrippinenser sagte in influxdb2 - Downsampling per Tasks:

      Nun sollte das Range zwischen(Anfang und Ende) der letzten 5 Minuten ermittelt werden und ins Bucket "test5m" wegeschieben werden.

      okay, das ginge z.B. so:

      from(bucket: "iobroker")
        |> range(start:-5m)
        |> filter(fn: (r) => r["_measurement"] == "zaehlerstand.strom")
        |> filter(fn: (r) => r["_field"] == "value")
        |> difference()
        |> aggregateWindow(every:5m,fn:sum,createEmpty:false)
      

      Damit ermitteltst du im ersten Schritt alle Differenzen zwischen allen Einzelwerten im Zeitraum und bildest danach die Summe aller Differenzen. Damit ist eigentlich dein Ziel erreicht, trotzdem würde ich es so nicht machen, da dir ggf. die Differenzen zwischen den Zeitfenstern verloren gehen können.

      Stattdessen würde ich nicht die Verbräuche "downsamplen", sondern z.B. den jeweils letzten Zählerstand des Tages wegschreiben. Aus diesen Tageswerten kannst du dann dynamisch Verbräuche errechnen. Das(?) Ziel, Speicherplatz zu sparen ist aber erreicht. Das Beispiel von Bernd macht glaube ich, genau das.

      NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+RabbitMQ+Grafana

      Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

      Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

      AgrippinenserA 1 Antwort Letzte Antwort
      1
      • AgrippinenserA Offline
        AgrippinenserA Offline
        Agrippinenser
        schrieb am zuletzt editiert von
        #10

        @marc-berg @dp20eic

        Vielen Dank euch ... dass muss ich erst mal verarbeiten ..

        Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

        S 1 Antwort Letzte Antwort
        0
        • AgrippinenserA Agrippinenser

          @marc-berg @dp20eic

          Vielen Dank euch ... dass muss ich erst mal verarbeiten ..

          S Offline
          S Offline
          SpacerX
          schrieb am zuletzt editiert von
          #11

          @agrippinenser ich hab da auch noch ein Beispiel, wie ich von den Tagestemperaturen Min und Max pro Tag in ein anderes Bucket schreibe.

          import "timezone"
          
          option location = timezone.location(name: "Europe/Berlin")
          option task = {name: "Downsampling Temperatur_Ost", cron: "10 0 * * *"}
          
          data =
              from(bucket: "ioBroker")
                  // Für Cron: "10 0 * * *" = 0:10 Uhr
                  |> range(start: date.truncate(t: -2d, unit: 1d), stop: today())
                  |> filter(fn: (r) => r["_measurement"] == "Ost_Temperatur")
                  |> filter(fn: (r) => r["from"] == "system.adapter.hm-rpc.0")
                  // Spalten "ack", "from", "q", ausschliessen
                  |> drop(columns: ["ack", "q", "from"])
          
          min_temp =
              data
                  |> aggregateWindow(every: 1d, fn: min, createEmpty: false, timeSrc: "_start")
                  |> set(key: "_field", value: "min")
          
          max_temp =
              data
                  |> aggregateWindow(every: 1d, fn: max, createEmpty: false, timeSrc: "_start")
                  |> set(key: "_field", value: "max")
          
          data
          union(tables: [min_temp, max_temp])
              |> set(key: "_measurement", value: "Ost_Balkon")
              |> to(bucket: "Temperaturen", org: "RBE")
          

          Anzeigen aus dem anderen Bucket mit:

          import "timezone" // import wegen der Berechnung um 02:00:00
          option location = timezone.location(name: "Europe/Berlin")
          
          from(bucket: "Temperaturen")
            |> range(start: -1y, stop: now())
            |> filter(fn: (r) => r["_measurement"] == "Ost_Balkon")
            |> filter(fn: (r) => r["_field"] == "max" or r["_field"] == "min")
            |> yield(name: "Ost")
          

          Viel Spaß beim durchforsten.

          DS720|Nuc8i3BEH|Proxmox|RaspberryMatic|ioBroker|influxDB2|Grafana

          AgrippinenserA 1 Antwort Letzte Antwort
          1
          • Marc BergM Marc Berg

            @agrippinenser sagte in influxdb2 - Downsampling per Tasks:

            Nun sollte das Range zwischen(Anfang und Ende) der letzten 5 Minuten ermittelt werden und ins Bucket "test5m" wegeschieben werden.

            okay, das ginge z.B. so:

            from(bucket: "iobroker")
              |> range(start:-5m)
              |> filter(fn: (r) => r["_measurement"] == "zaehlerstand.strom")
              |> filter(fn: (r) => r["_field"] == "value")
              |> difference()
              |> aggregateWindow(every:5m,fn:sum,createEmpty:false)
            

            Damit ermitteltst du im ersten Schritt alle Differenzen zwischen allen Einzelwerten im Zeitraum und bildest danach die Summe aller Differenzen. Damit ist eigentlich dein Ziel erreicht, trotzdem würde ich es so nicht machen, da dir ggf. die Differenzen zwischen den Zeitfenstern verloren gehen können.

            Stattdessen würde ich nicht die Verbräuche "downsamplen", sondern z.B. den jeweils letzten Zählerstand des Tages wegschreiben. Aus diesen Tageswerten kannst du dann dynamisch Verbräuche errechnen. Das(?) Ziel, Speicherplatz zu sparen ist aber erreicht. Das Beispiel von Bernd macht glaube ich, genau das.

            AgrippinenserA Offline
            AgrippinenserA Offline
            Agrippinenser
            schrieb am zuletzt editiert von Agrippinenser
            #12

            @marc-berg

            @marc-berg sagte in influxdb2 - Downsampling per Tasks:

            Stattdessen würde ich nicht die Verbräuche "downsamplen", sondern z.B. den jeweils letzten Zählerstand des Tages wegschreiben.

            Dank eurer Hilfe bin ich einen riesen Schritt weiter gekommen. Daten werden richtig aggregiert per Task geschrieben und ich finde sie auch wieder. :+1:
            Den letzten Zählerstand niederschreiben macht Sinn! Das bringt mich allerdings zu grundlegender selbstkritischer Idee:
            "Warum protokolliere ich den Zählerstand vor Tageswechsel nicht mittels Skript in einen Datenpunkt und mache stattdessen solche Umwege?"

            .. wo wir gerade dabei sind, habe dieses gestern im Netz gefunden, weis leider nicht mehr wo.
            Hier wird min / max / range ausgegeben. Vielleicht kann es jemand brauchen.

            from(bucket: "iobroker")
            //  |> range(start: 1970-01-01T00:00:00Z, stop: now())
            //  |> range(start: v.timeRangeStart, stop: v.timeRangeStop)
              |> range(start:-24d)
              |> filter(fn: (r) => r["_measurement"] == "zaehlerstand.strom")
              |> filter(fn: (r) => r["_field"] == "value")
              |> reduce(fn: (r,
                accumulator) => ({
                  min: if r._value < accumulator.min then r._value else accumulator.min,
                  max: if r._value > accumulator.max then r._value else accumulator.max
                }),
                identity: {min: 10000000000.0, max: -10000000000.0})
              |> map(fn: (r) => ({ r with range: (r.max - r.min)*1.0 }))
              |> yield(name: "Range/[kWh]")
            

            vielen Dank !
            LG

            Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

            1 Antwort Letzte Antwort
            0
            • S SpacerX

              @agrippinenser ich hab da auch noch ein Beispiel, wie ich von den Tagestemperaturen Min und Max pro Tag in ein anderes Bucket schreibe.

              import "timezone"
              
              option location = timezone.location(name: "Europe/Berlin")
              option task = {name: "Downsampling Temperatur_Ost", cron: "10 0 * * *"}
              
              data =
                  from(bucket: "ioBroker")
                      // Für Cron: "10 0 * * *" = 0:10 Uhr
                      |> range(start: date.truncate(t: -2d, unit: 1d), stop: today())
                      |> filter(fn: (r) => r["_measurement"] == "Ost_Temperatur")
                      |> filter(fn: (r) => r["from"] == "system.adapter.hm-rpc.0")
                      // Spalten "ack", "from", "q", ausschliessen
                      |> drop(columns: ["ack", "q", "from"])
              
              min_temp =
                  data
                      |> aggregateWindow(every: 1d, fn: min, createEmpty: false, timeSrc: "_start")
                      |> set(key: "_field", value: "min")
              
              max_temp =
                  data
                      |> aggregateWindow(every: 1d, fn: max, createEmpty: false, timeSrc: "_start")
                      |> set(key: "_field", value: "max")
              
              data
              union(tables: [min_temp, max_temp])
                  |> set(key: "_measurement", value: "Ost_Balkon")
                  |> to(bucket: "Temperaturen", org: "RBE")
              

              Anzeigen aus dem anderen Bucket mit:

              import "timezone" // import wegen der Berechnung um 02:00:00
              option location = timezone.location(name: "Europe/Berlin")
              
              from(bucket: "Temperaturen")
                |> range(start: -1y, stop: now())
                |> filter(fn: (r) => r["_measurement"] == "Ost_Balkon")
                |> filter(fn: (r) => r["_field"] == "max" or r["_field"] == "min")
                |> yield(name: "Ost")
              

              Viel Spaß beim durchforsten.

              AgrippinenserA Offline
              AgrippinenserA Offline
              Agrippinenser
              schrieb am zuletzt editiert von
              #13

              @spacerx

              vielen Dank dafür. Ich nutze das nun etwas abgeändert für abfragen von min max Aktienkurse.

              ich muss zugeben das ich den Umstieg von V1.8 auf 2.x unterschätz habe. Aber so langsam geht's voran :v:

              import "date"
              import "timezone"
              option location = timezone.location(name: "Europe/Berlin")
              
              data =
                  from(bucket: "iobroker")
                      |> range(start: date.truncate(t: -1d, unit: 1d), stop: today())
                      |> filter(fn: (r) => r["_measurement"] == "Aktien_WKN_XXXXXX")
                      |> filter(fn: (r) => r["_field"] == "value")
                      |> drop(columns: ["ack", "q", "from"])
              
              minkurs =
                  data
                      |> aggregateWindow(every: 1d, fn: min, createEmpty: false, timeSrc: "_start")
                      |> set(key: "_field", value: "min")
              
              maxkurs =
                  data
                      |> aggregateWindow(every: 1d, fn: max, createEmpty: false, timeSrc: "_start")
                      |> set(key: "_field", value: "max")
              
              data
                  union(tables: [minkurs, maxkurs])
                  |> set(key: "_measurement", value: "min_max_Kurse")
                  |> to(bucket: "Tageskurse", org: "home")
              

              Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

              B 1 Antwort Letzte Antwort
              0
              • AgrippinenserA Agrippinenser

                @spacerx

                vielen Dank dafür. Ich nutze das nun etwas abgeändert für abfragen von min max Aktienkurse.

                ich muss zugeben das ich den Umstieg von V1.8 auf 2.x unterschätz habe. Aber so langsam geht's voran :v:

                import "date"
                import "timezone"
                option location = timezone.location(name: "Europe/Berlin")
                
                data =
                    from(bucket: "iobroker")
                        |> range(start: date.truncate(t: -1d, unit: 1d), stop: today())
                        |> filter(fn: (r) => r["_measurement"] == "Aktien_WKN_XXXXXX")
                        |> filter(fn: (r) => r["_field"] == "value")
                        |> drop(columns: ["ack", "q", "from"])
                
                minkurs =
                    data
                        |> aggregateWindow(every: 1d, fn: min, createEmpty: false, timeSrc: "_start")
                        |> set(key: "_field", value: "min")
                
                maxkurs =
                    data
                        |> aggregateWindow(every: 1d, fn: max, createEmpty: false, timeSrc: "_start")
                        |> set(key: "_field", value: "max")
                
                data
                    union(tables: [minkurs, maxkurs])
                    |> set(key: "_measurement", value: "min_max_Kurse")
                    |> to(bucket: "Tageskurse", org: "home")
                
                B Offline
                B Offline
                babl
                schrieb am zuletzt editiert von
                #14

                @agrippinenser
                @SpacerX
                kann mir mal bitte jemand erklären warum ich keinen task speichern kann der button ist ausgegraut.

                Danke

                ? Marc BergM 2 Antworten Letzte Antwort
                0
                • B babl

                  @agrippinenser
                  @SpacerX
                  kann mir mal bitte jemand erklären warum ich keinen task speichern kann der button ist ausgegraut.

                  Danke

                  ? Offline
                  ? Offline
                  Ein ehemaliger Benutzer
                  schrieb am zuletzt editiert von
                  #15

                  @babl sagte in influxdb2 - Downsampling per Tasks:

                  @agrippinenser
                  @SpacerX
                  kann mir mal bitte jemand erklären warum ich keinen task speichern kann der button ist ausgegraut.

                  Danke

                  Moin,

                  kannst Du zeigen, was Du gemacht hast, denn meine Glaskugel ist zur Politur.

                  VG
                  Bernd

                  B 1 Antwort Letzte Antwort
                  0
                  • ? Ein ehemaliger Benutzer

                    @babl sagte in influxdb2 - Downsampling per Tasks:

                    @agrippinenser
                    @SpacerX
                    kann mir mal bitte jemand erklären warum ich keinen task speichern kann der button ist ausgegraut.

                    Danke

                    Moin,

                    kannst Du zeigen, was Du gemacht hast, denn meine Glaskugel ist zur Politur.

                    VG
                    Bernd

                    B Offline
                    B Offline
                    babl
                    schrieb am zuletzt editiert von
                    #16

                    @dp20eic ich habe das task script von oben genommen, habe es in einen task eingegeben und nach meinen datenpunkten angepasst und dann wollte ich das speichern um es zu testen, wenn ich auf den button save klicke ändert sich der mauszeiger in ein durchfahrtsverbot und das wars.

                    Habe es jetzt aber anders gelöst, im data explorer die datenpunkte ausgewählt die ich aggregieren will und dann save as "task" angeklickt, hier wird der task gespeichert, so nun bin ich mal am testen daß ich hier vernünftige lösungen hinbekomme um auch die datenbank nicht zu groß werden zu lassen und doch vernünftig daten auf längere sicht zu haben.

                    1 Antwort Letzte Antwort
                    0
                    • B babl

                      @agrippinenser
                      @SpacerX
                      kann mir mal bitte jemand erklären warum ich keinen task speichern kann der button ist ausgegraut.

                      Danke

                      Marc BergM Offline
                      Marc BergM Offline
                      Marc Berg
                      Most Active
                      schrieb am zuletzt editiert von Marc Berg
                      #17

                      @babl sagte in influxdb2 - Downsampling per Tasks:

                      kann mir mal bitte jemand erklären warum ich keinen task speichern kann der button ist ausgegraut.

                      "Save" wird nur aktiv, wenn mindestens "Name" und "Every/Cron" ausgefüllt wurde.

                      7c6464ac-7594-4553-8809-30f7b7d621d8-grafik.png

                      NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+RabbitMQ+Grafana

                      Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                      Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                      AgrippinenserA 1 Antwort Letzte Antwort
                      0
                      • Marc BergM Marc Berg

                        @babl sagte in influxdb2 - Downsampling per Tasks:

                        kann mir mal bitte jemand erklären warum ich keinen task speichern kann der button ist ausgegraut.

                        "Save" wird nur aktiv, wenn mindestens "Name" und "Every/Cron" ausgefüllt wurde.

                        7c6464ac-7594-4553-8809-30f7b7d621d8-grafik.png

                        AgrippinenserA Offline
                        AgrippinenserA Offline
                        Agrippinenser
                        schrieb am zuletzt editiert von
                        #18

                        @marc-berg hei!

                        ..und falls es ein CRON Job werden soll dann konfiguriere ich dort UTC, also für 23:59 Uhr 59 21 * * *
                        Zumindest habe ich das nach gefühlt 73 Versuchen für mich festgestellt.

                        Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

                        1 Antwort Letzte Antwort
                        0
                        Antworten
                        • In einem neuen Thema antworten
                        Anmelden zum Antworten
                        • Älteste zuerst
                        • Neuste zuerst
                        • Meiste Stimmen


                        Support us

                        ioBroker
                        Community Adapters
                        Donate

                        747

                        Online

                        32.5k

                        Benutzer

                        81.7k

                        Themen

                        1.3m

                        Beiträge
                        Community
                        Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                        ioBroker Community 2014-2025
                        logo
                        • Anmelden

                        • Du hast noch kein Konto? Registrieren

                        • Anmelden oder registrieren, um zu suchen
                        • Erster Beitrag
                          Letzter Beitrag
                        0
                        • Home
                        • Aktuell
                        • Tags
                        • Ungelesen 0
                        • Kategorien
                        • Unreplied
                        • Beliebt
                        • GitHub
                        • Docu
                        • Hilfe