Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. InfluxDB
  5. [gelöst]Speicherbelegung influxdb2 (nach Containerisierung?)

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.8k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    2.2k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    16
    1
    3.2k

[gelöst]Speicherbelegung influxdb2 (nach Containerisierung?)

Geplant Angeheftet Gesperrt Verschoben InfluxDB
10 Beiträge 2 Kommentatoren 865 Aufrufe 2 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • S Offline
    S Offline
    Sleepwalker
    schrieb am zuletzt editiert von Sleepwalker
    #1

    Moin,

    ich weiß, dass ich vermutlich an anderen Stellen mit influx-Problemen "richtiger" wäre, aber ich habe mit dieser Community einfach super Erfahrungen :-) Wer also nicht weiterlesen möchte, den möchte ich nicht aufhalten.

    Hard- & Software:
    Ich habe einen Pi4 mit 8GB RAM.
    Es läuft noch bullseye, da ich über bookworm gelesen habe, dass es mit ioBroker im Docker wohl noch irgendwo Probleme gab. Aber das ist hier nicht das Thema.

    Container werden über Portainer verwaltet. ioBroker & Influx2. Configuration kann ich im Zweifel nachreichen.
    Backups mache ich via BackItUp in die Cloud, und zwar von ioBroker, Node-Red und InfluxDB.

    Das Problem:
    Nach der erfolgreichen Containerisierung lief anfangs alles perfekt, ich habe Influx auch neu aufgesetzt, deswegen fing ich wieder bei 0 an - die Daten sind glücklicherweise nicht super wichtig für mich. Nun war ich leider für 3 Wochen nicht zu Hause und der Cloud-Speicherplatz quillt auf einmal über. Der Grund: Die Backups von Influx2.

    Jetzt muss ich kurz ausholen:
    In Influx speichere ich von ~15 Temperatursensoren alle fünf Minuten die Werte. Vorhaltezeit war auf zwei Jahre gesetzt, was für mich angesichts der Datenmenge völlig ok gewesen ist. Nach Adam Ries sind das 4.320 Datenpunkte pro Tag und 30.240 pro Woche. In zwei Jahren sind das rund 3 Mio. Datenpunkte, bevor die Vorhaltezeit abläuft. Also nichts, mit dem man Speicherplatz vollmüllen würde. So dachte ich...

    Bisherige Analyse:
    Vor der Containerisierung lief die gleiche Software, aber eben "roh", auf dem Pi. Zu der Zeit wuchsen die Influx-Sicherungen ca. um 100kb pro Woche. In meinen Augen ein gesunder Wert, um den ich mir nie Gedanken gemacht habe.

    Und jetzt traf mich der Schlag, als ich den Grund der Speicherplatzwarnung gefunden hatte. Die Influx-Sicherung wuchs alle zwei Tage im viele mb an, siehe Screenshot.
    influx_backitup.PNG
    Am 17.2. habe ich ioBroker und Influx in Container verschoben. Davor war alles super. Die ersten 2-3 Tage nach der Containerisierung habe ich zwar auch geschaut, aber da war es noch nicht so auffällig. Während meiner Abwesenheit wurden die Backups dann allerdings bis 1gb groß.
    Nachdem ich vorgestern wieder zu Hause war, war meine erste Reißleine die Vorhaltezeit. Ich habe ohne groß nachzudenken die Vorhaltezeit auf zwei Wochen gesetzt. Jetzt sind die Backups wieder bei rund 770mb. Auffällig war, dass so ein großer Speicherplatz-Sprung nur alle zwei Tage auftritt. Die anderen Tage waren die Sprünge nicht so groß, aber immer noch beachtlich für die relativ geringe Menge der Daten.

    Ab jetzt wurde die Analyse sehr zäh. Ich verstehe weder, wie genau Influx funktioniert (anders als relationale Datenbanken, wenn ich das richtig gelesen habe), noch weiß ich, was genau in der Datenbank steht und soviel Speicherplatz belegt. Ich habe auch keine Ahnung, ob es Logs sind, oder ob da was komprimiert oder entrümpelt werden kann.
    Ich konnte nur herausfinden, dass es riesige .tsm-Dateien gibt, die sich in den Ordnern befinden. Hier mal ein Screenshot von der Influx-Ordner-Speicherplatzbelegung:
    influx_du.PNG

    An dieser Stelle schon einmal vielen Dank für's Lesen!

    Jetzt kommt die alles entscheidende Frage: Hat jemand eine Idee, was hier im Argen liegen könnte?

    Wenn ich die Datenmenge vor der Containerisierung anschaue, dann kann ich mir das überhaupt nicht erklären. Liegt's gar am Container? Ich habe gestern einmal die Container neu heruntergeladen, aber noch keine auswertbaren Daten, die ich hier jetzt nennen könnte. Ich habe nach meinen Änderungen drei Backups im Abstand von 4h gemacht. Jedes Mal wuchs die Sicherung um 100kb. Das erscheint gegenüber vorher besser zu sein, aber immer noch wesentlich mehr als vor der Containerisierung. Und vor allem sind da immer noch über 700mb, deren Vorhandensein ich nicht verstehe.

    Ich bin für jeden Hinweis dankbar.

    VG
    Tobias

    Marc BergM 1 Antwort Letzte Antwort
    0
    • S Sleepwalker

      Moin,

      ich weiß, dass ich vermutlich an anderen Stellen mit influx-Problemen "richtiger" wäre, aber ich habe mit dieser Community einfach super Erfahrungen :-) Wer also nicht weiterlesen möchte, den möchte ich nicht aufhalten.

      Hard- & Software:
      Ich habe einen Pi4 mit 8GB RAM.
      Es läuft noch bullseye, da ich über bookworm gelesen habe, dass es mit ioBroker im Docker wohl noch irgendwo Probleme gab. Aber das ist hier nicht das Thema.

      Container werden über Portainer verwaltet. ioBroker & Influx2. Configuration kann ich im Zweifel nachreichen.
      Backups mache ich via BackItUp in die Cloud, und zwar von ioBroker, Node-Red und InfluxDB.

      Das Problem:
      Nach der erfolgreichen Containerisierung lief anfangs alles perfekt, ich habe Influx auch neu aufgesetzt, deswegen fing ich wieder bei 0 an - die Daten sind glücklicherweise nicht super wichtig für mich. Nun war ich leider für 3 Wochen nicht zu Hause und der Cloud-Speicherplatz quillt auf einmal über. Der Grund: Die Backups von Influx2.

      Jetzt muss ich kurz ausholen:
      In Influx speichere ich von ~15 Temperatursensoren alle fünf Minuten die Werte. Vorhaltezeit war auf zwei Jahre gesetzt, was für mich angesichts der Datenmenge völlig ok gewesen ist. Nach Adam Ries sind das 4.320 Datenpunkte pro Tag und 30.240 pro Woche. In zwei Jahren sind das rund 3 Mio. Datenpunkte, bevor die Vorhaltezeit abläuft. Also nichts, mit dem man Speicherplatz vollmüllen würde. So dachte ich...

      Bisherige Analyse:
      Vor der Containerisierung lief die gleiche Software, aber eben "roh", auf dem Pi. Zu der Zeit wuchsen die Influx-Sicherungen ca. um 100kb pro Woche. In meinen Augen ein gesunder Wert, um den ich mir nie Gedanken gemacht habe.

      Und jetzt traf mich der Schlag, als ich den Grund der Speicherplatzwarnung gefunden hatte. Die Influx-Sicherung wuchs alle zwei Tage im viele mb an, siehe Screenshot.
      influx_backitup.PNG
      Am 17.2. habe ich ioBroker und Influx in Container verschoben. Davor war alles super. Die ersten 2-3 Tage nach der Containerisierung habe ich zwar auch geschaut, aber da war es noch nicht so auffällig. Während meiner Abwesenheit wurden die Backups dann allerdings bis 1gb groß.
      Nachdem ich vorgestern wieder zu Hause war, war meine erste Reißleine die Vorhaltezeit. Ich habe ohne groß nachzudenken die Vorhaltezeit auf zwei Wochen gesetzt. Jetzt sind die Backups wieder bei rund 770mb. Auffällig war, dass so ein großer Speicherplatz-Sprung nur alle zwei Tage auftritt. Die anderen Tage waren die Sprünge nicht so groß, aber immer noch beachtlich für die relativ geringe Menge der Daten.

      Ab jetzt wurde die Analyse sehr zäh. Ich verstehe weder, wie genau Influx funktioniert (anders als relationale Datenbanken, wenn ich das richtig gelesen habe), noch weiß ich, was genau in der Datenbank steht und soviel Speicherplatz belegt. Ich habe auch keine Ahnung, ob es Logs sind, oder ob da was komprimiert oder entrümpelt werden kann.
      Ich konnte nur herausfinden, dass es riesige .tsm-Dateien gibt, die sich in den Ordnern befinden. Hier mal ein Screenshot von der Influx-Ordner-Speicherplatzbelegung:
      influx_du.PNG

      An dieser Stelle schon einmal vielen Dank für's Lesen!

      Jetzt kommt die alles entscheidende Frage: Hat jemand eine Idee, was hier im Argen liegen könnte?

      Wenn ich die Datenmenge vor der Containerisierung anschaue, dann kann ich mir das überhaupt nicht erklären. Liegt's gar am Container? Ich habe gestern einmal die Container neu heruntergeladen, aber noch keine auswertbaren Daten, die ich hier jetzt nennen könnte. Ich habe nach meinen Änderungen drei Backups im Abstand von 4h gemacht. Jedes Mal wuchs die Sicherung um 100kb. Das erscheint gegenüber vorher besser zu sein, aber immer noch wesentlich mehr als vor der Containerisierung. Und vor allem sind da immer noch über 700mb, deren Vorhandensein ich nicht verstehe.

      Ich bin für jeden Hinweis dankbar.

      VG
      Tobias

      Marc BergM Offline
      Marc BergM Offline
      Marc Berg
      Most Active
      schrieb am zuletzt editiert von
      #2

      @sleepwalker

      Du kannst grob prüfen, woher die Menge an Daten kommt, wenn du diese Abfrage in den Data Explorer wirfst (ggf. den Bucketnamen anpassen):

      from(bucket: "iobroker")
      |> range(start: -10y)
      |> filter(fn: (r) => r["_field"] == "value")
      |> count()
      |> group()
      |> keep(columns: ["_measurement", "_value"])
      |> sort(columns: ["_value"], desc: true)
      |> rename(columns: {_value: "Anzahl"})
      

      982550d7-cce3-4a09-b4fd-8b47f06d21aa-grafik.png

      NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+RabbitMQ+Grafana

      Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

      Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

      S 1 Antwort Letzte Antwort
      2
      • Marc BergM Marc Berg

        @sleepwalker

        Du kannst grob prüfen, woher die Menge an Daten kommt, wenn du diese Abfrage in den Data Explorer wirfst (ggf. den Bucketnamen anpassen):

        from(bucket: "iobroker")
        |> range(start: -10y)
        |> filter(fn: (r) => r["_field"] == "value")
        |> count()
        |> group()
        |> keep(columns: ["_measurement", "_value"])
        |> sort(columns: ["_value"], desc: true)
        |> rename(columns: {_value: "Anzahl"})
        

        982550d7-cce3-4a09-b4fd-8b47f06d21aa-grafik.png

        S Offline
        S Offline
        Sleepwalker
        schrieb am zuletzt editiert von Sleepwalker
        #3

        @marc-berg said in Speicherplatzbelegung influxdb2 (nach Containerisierung?):

                                                                                                                                    from(bucket: "iobroker")                                                                                                                                                                            |> range(start: -10y)                                                                                                                                                                            |> filter(fn: (r) => r["_field"] == "value")                                                                                                                                                                            |> count()                                                                                                                                                                            |> group()                                                                                                                                                                            |> keep(columns: ["_measurement", "_value"])                                                                                                                                                                            |> sort(columns: ["_value"], desc: true)                                                                                                                                                                            |> rename(columns: {_value: "Anzahl"})                                            
        

        Hey, danke dir, Marc.

        Wenn ich das ausführe, kommt das dabei raus:
        influx_usage.PNG

        Sieht jetzt nicht nach über 700mb (gepackt!) aus....

        Marc BergM 1 Antwort Letzte Antwort
        0
        • S Sleepwalker

          @marc-berg said in Speicherplatzbelegung influxdb2 (nach Containerisierung?):

                                                                                                                                      from(bucket: "iobroker")                                                                                                                                                                            |> range(start: -10y)                                                                                                                                                                            |> filter(fn: (r) => r["_field"] == "value")                                                                                                                                                                            |> count()                                                                                                                                                                            |> group()                                                                                                                                                                            |> keep(columns: ["_measurement", "_value"])                                                                                                                                                                            |> sort(columns: ["_value"], desc: true)                                                                                                                                                                            |> rename(columns: {_value: "Anzahl"})                                            
          

          Hey, danke dir, Marc.

          Wenn ich das ausführe, kommt das dabei raus:
          influx_usage.PNG

          Sieht jetzt nicht nach über 700mb (gepackt!) aus....

          Marc BergM Offline
          Marc BergM Offline
          Marc Berg
          Most Active
          schrieb am zuletzt editiert von Marc Berg
          #4

          @sleepwalker sagte in Speicherplatzbelegung influxdb2 (nach Containerisierung?):

          Sieht jetzt nicht nach über 700mb (gepackt!) aus....

          Nein, wirklich nicht. Und weitere Buckets gibt es nicht?

          15dac54b-ff24-45a0-9260-d32385f69236-grafik.png

          EDIT: um gaaanz sicher zu gehen, dass nicht außer ioBroker noch andere Quellen mit untypischen Zeiten/Inhalten in die DB schreiben, kannst du nochmal diese angepasste Abfrage benutzen:

          from(bucket: "iobroker")
          |> range(start: 0,stop: 100y)
          |> count()
          |> group()
          |> keep(columns: ["_measurement", "_value"])
          |> sort(columns: ["_value"], desc: true)
          |> rename(columns: {_value: "Anzahl"})
          

          NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+RabbitMQ+Grafana

          Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

          Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

          S 1 Antwort Letzte Antwort
          2
          • Marc BergM Marc Berg

            @sleepwalker sagte in Speicherplatzbelegung influxdb2 (nach Containerisierung?):

            Sieht jetzt nicht nach über 700mb (gepackt!) aus....

            Nein, wirklich nicht. Und weitere Buckets gibt es nicht?

            15dac54b-ff24-45a0-9260-d32385f69236-grafik.png

            EDIT: um gaaanz sicher zu gehen, dass nicht außer ioBroker noch andere Quellen mit untypischen Zeiten/Inhalten in die DB schreiben, kannst du nochmal diese angepasste Abfrage benutzen:

            from(bucket: "iobroker")
            |> range(start: 0,stop: 100y)
            |> count()
            |> group()
            |> keep(columns: ["_measurement", "_value"])
            |> sort(columns: ["_value"], desc: true)
            |> rename(columns: {_value: "Anzahl"})
            
            S Offline
            S Offline
            Sleepwalker
            schrieb am zuletzt editiert von Sleepwalker
            #5

            @marc-berg said in Speicherplatzbelegung influxdb2 (nach Containerisierung?):

                                                                                                                                        from(bucket: "iobroker")                                                                                                                                                                            |> range(start: 0,stop: 100y)                                                                                                                                                                            |> count()                                                                                                                                                                            |> group()                                                                                                                                                                            |> keep(columns: ["_measurement", "_value"])                                                                                                                                                                            |> sort(columns: ["_value"], desc: true)                                                                                                                                                                            |> rename(columns: {_value: "Anzahl"})                                            
            

            Das sieht schon verdächtiger aus. Ab Seite 48 wird es erst 5-stellig. Habe aber nicht alles einzeln nachgeschaut, sind auch andere influx-Sachen dabei.

            influx_data_all.PNG

            Auch failed Einträge...
            influx_data_all2.PNG

            PS: Nein, ich habe nur iobroker als Bucket angelegt.

            Marc BergM 1 Antwort Letzte Antwort
            0
            • S Sleepwalker

              @marc-berg said in Speicherplatzbelegung influxdb2 (nach Containerisierung?):

                                                                                                                                          from(bucket: "iobroker")                                                                                                                                                                            |> range(start: 0,stop: 100y)                                                                                                                                                                            |> count()                                                                                                                                                                            |> group()                                                                                                                                                                            |> keep(columns: ["_measurement", "_value"])                                                                                                                                                                            |> sort(columns: ["_value"], desc: true)                                                                                                                                                                            |> rename(columns: {_value: "Anzahl"})                                            
              

              Das sieht schon verdächtiger aus. Ab Seite 48 wird es erst 5-stellig. Habe aber nicht alles einzeln nachgeschaut, sind auch andere influx-Sachen dabei.

              influx_data_all.PNG

              Auch failed Einträge...
              influx_data_all2.PNG

              PS: Nein, ich habe nur iobroker als Bucket angelegt.

              Marc BergM Offline
              Marc BergM Offline
              Marc Berg
              Most Active
              schrieb am zuletzt editiert von
              #6

              @sleepwalker
              Jo, dann hast du wohl einen Scraper aktiviert, der dir die Monitoring-Daten ins Bucket schreibt

              74e76681-195b-4d87-af4f-74f975e7def2-grafik.png

              NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+RabbitMQ+Grafana

              Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

              Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

              S 1 Antwort Letzte Antwort
              2
              • Marc BergM Marc Berg

                @sleepwalker
                Jo, dann hast du wohl einen Scraper aktiviert, der dir die Monitoring-Daten ins Bucket schreibt

                74e76681-195b-4d87-af4f-74f975e7def2-grafik.png

                S Offline
                S Offline
                Sleepwalker
                schrieb am zuletzt editiert von
                #7

                @marc-berg
                Ja, da ist irgendwas. Aber was und wofür genau ist das, und kann das weg?
                influx_scraper.PNG

                Marc BergM 1 Antwort Letzte Antwort
                0
                • S Sleepwalker

                  @marc-berg
                  Ja, da ist irgendwas. Aber was und wofür genau ist das, und kann das weg?
                  influx_scraper.PNG

                  Marc BergM Offline
                  Marc BergM Offline
                  Marc Berg
                  Most Active
                  schrieb am zuletzt editiert von Marc Berg
                  #8

                  @sleepwalker sagte in Speicherplatzbelegung influxdb2 (nach Containerisierung?):

                  Aber was und wofür genau ist das, und kann das weg?

                  Das legt sich nicht von selbst an, und ja, das kann weg. Damit verschwinden aber die schon geschriebenen Daten nicht. Wenn die restlichen Daten nicht so wichtig sind, das ganze Bucket löschen und neu anlegen (lassen).

                  NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+RabbitMQ+Grafana

                  Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                  Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                  S 2 Antworten Letzte Antwort
                  2
                  • Marc BergM Marc Berg

                    @sleepwalker sagte in Speicherplatzbelegung influxdb2 (nach Containerisierung?):

                    Aber was und wofür genau ist das, und kann das weg?

                    Das legt sich nicht von selbst an, und ja, das kann weg. Damit verschwinden aber die schon geschriebenen Daten nicht. Wenn die restlichen Daten nicht so wichtig sind, das ganze Bucket löschen und neu anlegen (lassen).

                    S Offline
                    S Offline
                    Sleepwalker
                    schrieb am zuletzt editiert von Sleepwalker
                    #9

                    @marc-berg Cool, danke dir. Ich weiß nicht, woher der/die/das Scraper kam. Wenn die sich nicht selbst erstellen, war ich es wohl aus Versehen. Kann mich jedenfalls nicht mehr dran erinnern.

                    Ich erstelle den Bucket neu, danke nochmal!

                    PS: Dankeschöns nachgetragen!

                    1 Antwort Letzte Antwort
                    0
                    • Marc BergM Marc Berg

                      @sleepwalker sagte in Speicherplatzbelegung influxdb2 (nach Containerisierung?):

                      Aber was und wofür genau ist das, und kann das weg?

                      Das legt sich nicht von selbst an, und ja, das kann weg. Damit verschwinden aber die schon geschriebenen Daten nicht. Wenn die restlichen Daten nicht so wichtig sind, das ganze Bucket löschen und neu anlegen (lassen).

                      S Offline
                      S Offline
                      Sleepwalker
                      schrieb am zuletzt editiert von
                      #10

                      @marc-berg
                      Moin, als kurzer Nachtrag: Jetzt läuft alles wieder ohne Probleme. Herzlichen Dank nochmal.
                      iobrokerbackup.PNG

                      1 Antwort Letzte Antwort
                      0
                      Antworten
                      • In einem neuen Thema antworten
                      Anmelden zum Antworten
                      • Älteste zuerst
                      • Neuste zuerst
                      • Meiste Stimmen


                      Support us

                      ioBroker
                      Community Adapters
                      Donate

                      894

                      Online

                      32.4k

                      Benutzer

                      81.5k

                      Themen

                      1.3m

                      Beiträge
                      Community
                      Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                      ioBroker Community 2014-2025
                      logo
                      • Anmelden

                      • Du hast noch kein Konto? Registrieren

                      • Anmelden oder registrieren, um zu suchen
                      • Erster Beitrag
                        Letzter Beitrag
                      0
                      • Home
                      • Aktuell
                      • Tags
                      • Ungelesen 0
                      • Kategorien
                      • Unreplied
                      • Beliebt
                      • GitHub
                      • Docu
                      • Hilfe