Navigation

    Logo
    • Register
    • Login
    • Search
    • Recent
    • Tags
    • Unread
    • Categories
    • Unreplied
    • Popular
    • GitHub
    • Docu
    • Hilfe
    1. Home
    2. Deutsch
    3. Off Topic
    4. InfluxDB - alte Werte automatisch löschen

    NEWS

    • ioBroker@Smart Living Forum Solingen, 14.06. - Agenda added

    • ioBroker goes Matter ... Matter Adapter in Stable

    • Monatsrückblick - April 2025

    InfluxDB - alte Werte automatisch löschen

    This topic has been deleted. Only users with topic management privileges can see it.
    • W
      WolfgangFB @WolfgangFB last edited by

      @wolfgangfb
      Das letzte Bild ist noch aus der 2.x von Influx, jetzt habe ich auf 3.2.0 aktualisiert, es gibt zwar jetzt mehr Einstellungen, aer das automatisches Löschen ist immer noch nicht da.

      influx.jpg

      Homoran 1 Reply Last reply Reply Quote 0
      • mickym
        mickym Most Active last edited by mickym

        Du legst ein zusätzliches Bucket an mit einer anderen Retention Time.

        Dann eine zustätzlich Instanz deines influx DB Adapters. In den Objekten kannst Du dann auswählen in welches Bucket geschrieben wird, in dem Du die entsprechende Instanz auswählst.

        e3f3d519-f2f2-4165-84f7-bb8d491fb4d0-image.png

        Eigentlich super easy

        Man kann natürlich auch alles programmieren. Aber influx ist eigentlich eine zeitbasierende Datenbank die gerade zeitliche Infos entsprechend selbst veraltet. Für Konsilidierungstasks, solltest Du in Influx selbst anlegen. Da gibts im Tutorial Beispiele, wie man Sekunden- oder Minutenwerte in Tageswerte konsolidiert etc.

        Dies Konsolidierungstasks werden als Downsampling Tasks bezeichnet:

        https://docs.influxdata.com/influxdb/v2.4/process-data/common-tasks/downsample-data/

        Auch hier werden die Daten dann von einem Bucket (Datenbank) in die nächste geschrieben, die unterschiedliche Retention Times haben. Das sind aber Aufgaben für die InfluxDB und keine Tasks des iobrokers.

        Wie gesagt für einfache Lösungen, kannst du mehrere Instanzen nehmen. Also einen Monat und unendlich. Für weitere Konsolidierungen solltest Du Dich näher mit InfluxDB beschäftigen.

        W 1 Reply Last reply Reply Quote 0
        • W
          WolfgangFB @mickym last edited by

          @mickym

          Ist das dann die "Storage Vorhaltezeit"?
          Bei der Lösung mit mehreren Instanzen muss ich aber von vorne herein wissen, ob ich ein Objekt unendlich lange behalten will oder nur eine gewisse Zeit, richtig?
          Kann ich dann in Grafana auch Daten aus beiden Instanzen gleichzeitig anzeigen lassen?

          Gruß Wolfgang

          mickym 1 Reply Last reply Reply Quote 0
          • Homoran
            Homoran Global Moderator Administrators @WolfgangFB last edited by

            @wolfgangfb sagte in InfluxDB - alte Werte automatisch löschen:

            aer das automatisches Löschen ist immer noch nicht da.

            dann bleib ich doch lieber bei history
            Screenshot_20221112-174719_Firefox.jpg

            mickym 1 Reply Last reply Reply Quote 0
            • mickym
              mickym Most Active @WolfgangFB last edited by mickym

              @wolfgangfb Die Vorhaltezeit stellt nur retention Time im Bucket der Influx DB ein. Sprich das gilt für die gesamte Db. Ja und das mit den Objekten musst Du im Vorfeld wissen.

              Wie gesagt die Downsizing Tasks solltest Du innerhalb der InfluxDB definieren.

              In Grafana kenn ich mich weniger aus, aber ich denke in den Datenquellen musst Du ja auch immer die Datenquellen angeben. Sprich da steht ja von welchem bucket die Daten geholt werden.

              from(bucket: "iobroker")
                |> range(start: v.timeRangeStart, stop: v.timeRangeStop)
                |> filter(fn: (r) => r["_measurement"] == "mqtt.1.shellies.shellyplug-s-999.relay.0.power")
              

              Wenn Du über Abfragen Daten aus der DB löschen willst: s. hier: https://docs.influxdata.com/influxdb/v2.4/write-data/delete-data/

              über predicate nur bestimmte Werte, sonst kann man auch die ganze Datenbank von Daten befreien.

              Man kann auch Eine Range dynamisch bestimmen:

              from(bucket: "iobroker")
                |> range("start": 0,"stop": -1mo)
              

              Wenn man so was macht kommen alle Daten älter als 1 Monat und die kannst dann löschen.

              1 Reply Last reply Reply Quote 0
              • mickym
                mickym Most Active @Homoran last edited by

                @homoran Das ist auch im SQL Adapter so, dass man es dort per DP festlegt. Die InfluxDB geht aber davon aus, dass man diese ganzen Zeitberechnungen und Konsolidierungen etc. innerhalb der Influx DB macht, weil sie dafür ja gebaut ist.

                Homoran 1 Reply Last reply Reply Quote 0
                • Homoran
                  Homoran Global Moderator Administrators @mickym last edited by

                  @mickym sagte in InfluxDB - alte Werte automatisch löschen:

                  innerhalb der Influx DB macht, weil sie dafür ja gebaut ist.

                  dann sollte aber der Adapter bestenfalls diese Konfiguration bereitstellen.

                  mickym 1 Reply Last reply Reply Quote 0
                  • mickym
                    mickym Most Active @Homoran last edited by

                    @homoran Wie gesagt - der Adapter stellt das ja um. Gibt einige Beiträge, die sich wundern warum sie ein bucket in der InfluxDB auf unendlich gestellt haben und dann im Adapter auf einen Monat und sich dann wundern, wenn sie wieder in die Influx DB schauen, warum da wieder auf 1 Monat umgestellt ist.

                    Homoran 1 Reply Last reply Reply Quote 0
                    • Homoran
                      Homoran Global Moderator Administrators @mickym last edited by

                      @mickym sagte in InfluxDB - alte Werte automatisch löschen:

                      der Adapter stellt das ja um.

                      aber doch nur global wenn ich das richtig verstanden habe.
                      will man unterschiedliche Aufbewahrungszeiten haben muss man "tricksen" und wie dann?
                      braucht es für jede unterschiedliche Rückhaltezeit eine Instanz?

                      mickym 1 Reply Last reply Reply Quote 0
                      • mickym
                        mickym Most Active @Homoran last edited by mickym

                        @homoran Ja. Wie gesagt Konsolidieren oder Daten löschen - sollte man dann in der influxDB. Wenn der Adapter solche Aufgaben über nehmen sollte, dann müsste er solche Abfragen, die ich unten gepostet habe, zyklisch an die Influx Db schicken.

                        Also entweder man macht es grob über die Instanz. Ansonsten MUSS man es zwingend innerhalb der influxDB machen.

                        Man kann auch selbst solche Queries machen und dann über den Adapter schicken, aber so komfortabel wie mit dem History oder SQL Adapter geht es nicht, wo der Adapter das pro Datenpunkt ausführt. Es ging technisch schon, aber dazu müsste der Adapterentwickler des influxDB Adapters das entsprechend einbauen und diesen "Löschtask" genauso einmal pro Tag ausführen, wie beim History- oder SQL Adapter.

                        @homoran sagte in InfluxDB - alte Werte automatisch löschen:

                        will man unterschiedliche Aufbewahrungszeiten haben muss man "tricksen" und wie dann?

                        Wie gesagt tasks in der Influx DB erstellen.

                        Ob man die gleiche relative Schreibweise verwenden kann weiß ich nicht. Dazu stecke ich nicht tief genug drin.

                        Homoran 1 Reply Last reply Reply Quote 0
                        • Homoran
                          Homoran Global Moderator Administrators @mickym last edited by

                          @mickym sagte in InfluxDB - alte Werte automatisch löschen:

                          Wie gesagt tasks in der Influx DB erstellen.

                          dann habe ich es entweder nicht verstanden oder nicht richtig rübergebracht.

                          Men Verständnis war, dass ich für verschiedene Rückhaltezeiten auch verschiedene buckets (was immer das sein mag) erstelken muss.

                          Mein Gedanke für eine "relativ" einfache Anwendung wären dann mehrere Instanzen des influxDB-Adapters, bei dem jede Instanz auf ein bucket zugreift

                          mickym 1 Reply Last reply Reply Quote 0
                          • mickym
                            mickym Most Active @Homoran last edited by

                            @homoran Ja ist ja richtig - wenn Du keine Tasks in der influx DB definieren willst und keine Abfragen aus dem iobroker machen willst, kannst Du das nur über verschiedene Instanzen die auf verschiedene Datenbanken mit unterschiedlicher Retention Time zugreifen.

                            1 Reply Last reply Reply Quote 0
                            • First post
                              Last post

                            Support us

                            ioBroker
                            Community Adapters
                            Donate

                            570
                            Online

                            31.6k
                            Users

                            79.6k
                            Topics

                            1.3m
                            Posts

                            4
                            18
                            1377
                            Loading More Posts
                            • Oldest to Newest
                            • Newest to Oldest
                            • Most Votes
                            Reply
                            • Reply as topic
                            Log in to reply
                            Community
                            Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                            The ioBroker Community 2014-2023
                            logo