Skip to content
  • Home
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Einsteigerfragen
  4. InfluxDB - Daten weg / Wiederherstellung [gelöst]

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    3.4k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.1k

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.4k

InfluxDB - Daten weg / Wiederherstellung [gelöst]

Scheduled Pinned Locked Moved Einsteigerfragen
142 Posts 7 Posters 20.5k Views 4 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • N Offline
    N Offline
    Naturfreund
    wrote on last edited by Naturfreund
    #130

    Hatte heute doch noch ein Netzwerkproblem gefunden. Ein Powerline Adapter machte ungewöhnlich starke Probleme (Heute ab 18 Uhr). Hatte ich so vorher noch nie gehabt.

    Mein Log ist voll davon (Der ESP8266 ist über WLAN mit genau diesem Adapter verbunden... oder auch nicht ;-) )

    2023-01-23 18:19:20.163 - info: mqtt.0 (959) Client [ESP8266Client-790e] connected with secret *
    2023-01-23 18:19:21.158 - info: shelly.0 (1057) [MQTT] Device 192.168.1.130 (shelly1 / shelly1-68C63AFAFEAB / SHSW-1#68C63AFAFEAB#1) connected! Polltime set to 5 sec.
    2023-01-23 18:19:57.677 - info: mqtt.0 (959) Client [ESP8266Client-790e] connection closed: timeout
    2023-01-23 18:21:26.190 - info: influxdb.0 (141035) Store 1001 buffered influxDB history points
    2023-01-23 18:21:27.964 - info: shelly.0 (1057) [MQTT] Device 192.168.1.110 (shellyht / shellyht-F4483E / SHHT-1#F4483E#1) connected! Polltime set to 5 sec.
    2023-01-23 18:22:01.574 - info: mqtt.0 (959) Client [ESP8266Client-85f6] connected with secret *
    2023-01-23 18:22:24.100 - info: mqtt.0 (959) Client [ESP8266Client-85f6] connection closed: timeout
    2023-01-23 18:23:31.491 - info: mqtt.0 (959) Client [ESP8266Client-b49f] connected with secret *
    2023-01-23 18:23:53.994 - info: mqtt.0 (959) Client [ESP8266Client-b49f] connection closed: timeout
    2023-01-23 18:24:24.048 - info: influxdb.0 (141035) Store 1001 buffered influxDB history points
    2023-01-23 18:24:36.669 - info: shelly.0 (1057) [MQTT] Device 192.168.1.112 (shellyht / shellyht-A4CF12F44435 / SHHT-1#A4CF12F44435#1) connected! Polltime set to 5 sec.
    2023-01-23 18:25:49.622 - info: mqtt.0 (959) Client [ESP8266Client-589] connected with secret *
    2023-01-23 18:26:12.128 - info: mqtt.0 (959) Client [ESP8266Client-589] connection closed: timeout
    2023-01-23 18:26:19.188 - info: mqtt.0 (959) Client [ESP8266Client-ec93] connected with secret *
    

    Ich hab jetzt alle Adapter auf die gleiche Phase geklemmt (Stromkreise im Hausanschlusskasten getauscht). Das hat immer schon mal die ständigen Netzwerkabbrüche verhindert. Die Datenrate zu dem Adapter ist trotzdem "nicht gut" bzw. nicht wie erwartet gestiegen. Support ist bereits kontaktiert.

    1 Reply Last reply
    0
    • N Offline
      N Offline
      Naturfreund
      wrote on last edited by Naturfreund
      #131

      @crunchip @Glasfaser

      Habe heute 2 alte Backups wieder gestellt. In dem Zeitraum in dem in der "Live" Datenbank die Daten fehlen, sind in beiden jeweils Abschnitte mit Daten enthalten die ich gerne zurückholen würde. Zum besseren Verständnis hab ich in Grafana eine Gegenüberstellung am Beispiel einer Temperatur (Vorlauftemperatur meiner Heizung) gemacht:

      fe7190a5-eea2-483a-87fb-e4cd95ae3286-image.png

      Geht das mit der Methode von marc-berg nur wenn ich die Datenbank auf 2.0 migriert habe? Oder gibt es auch eine Möglichkeit das in der Version 1.8 zu machen?

      @marc-berg said in InfluxDB - Daten weg / Wiederherstellung:

      @naturfreund

      Für eine InfluxDB 2.x habe ich mal zwei Zeiträume zusammengeführt. Das geht aber nur manuell, nicht mit dem Backitup Adapter.

      Dazu machst Du zunächst ein Restore in ein neues Bucket (das *tar.gz muss vorher entpackt werden):

      influx restore --new-bucket <NAMENEW> --bucket  <NAMEOLD> <PFAD/ZUM/BACKUP> -t <TOKEN>
      

      Danach kopierst Du die Daten (Dabei entstehen keine doppelten Daten, falls sich die Zeiträume überlappen, der "range" kann also großzügig gewählt werden)

      influx query 'from(bucket:"<NAMENEW>") |> range(start:-10y) |> filter(fn: (r) => r._measurement == "<NAME_MEASUREMENT>") |> set(key: "_measurement", value: "<NAME_MEASUREMENT>") |> to(bucket: "<NAMEOLD>")'
      

      Bezeichner in spitzen Klammern sind natürlich alle anzupassen.

      Mit dem zweiten Befehl kann man so innerhalb eines Buckets auch relativ einfach Daten zwischen Measurements kopieren, hilfreich, wenn man mal Objekte umbenennt.

      Danach natürlich noch das "ZWISCHENBUCKET" löschen. Fertig.

      Marc BergM 1 Reply Last reply
      0
      • N Naturfreund

        @crunchip @Glasfaser

        Habe heute 2 alte Backups wieder gestellt. In dem Zeitraum in dem in der "Live" Datenbank die Daten fehlen, sind in beiden jeweils Abschnitte mit Daten enthalten die ich gerne zurückholen würde. Zum besseren Verständnis hab ich in Grafana eine Gegenüberstellung am Beispiel einer Temperatur (Vorlauftemperatur meiner Heizung) gemacht:

        fe7190a5-eea2-483a-87fb-e4cd95ae3286-image.png

        Geht das mit der Methode von marc-berg nur wenn ich die Datenbank auf 2.0 migriert habe? Oder gibt es auch eine Möglichkeit das in der Version 1.8 zu machen?

        @marc-berg said in InfluxDB - Daten weg / Wiederherstellung:

        @naturfreund

        Für eine InfluxDB 2.x habe ich mal zwei Zeiträume zusammengeführt. Das geht aber nur manuell, nicht mit dem Backitup Adapter.

        Dazu machst Du zunächst ein Restore in ein neues Bucket (das *tar.gz muss vorher entpackt werden):

        influx restore --new-bucket <NAMENEW> --bucket  <NAMEOLD> <PFAD/ZUM/BACKUP> -t <TOKEN>
        

        Danach kopierst Du die Daten (Dabei entstehen keine doppelten Daten, falls sich die Zeiträume überlappen, der "range" kann also großzügig gewählt werden)

        influx query 'from(bucket:"<NAMENEW>") |> range(start:-10y) |> filter(fn: (r) => r._measurement == "<NAME_MEASUREMENT>") |> set(key: "_measurement", value: "<NAME_MEASUREMENT>") |> to(bucket: "<NAMEOLD>")'
        

        Bezeichner in spitzen Klammern sind natürlich alle anzupassen.

        Mit dem zweiten Befehl kann man so innerhalb eines Buckets auch relativ einfach Daten zwischen Measurements kopieren, hilfreich, wenn man mal Objekte umbenennt.

        Danach natürlich noch das "ZWISCHENBUCKET" löschen. Fertig.

        Marc BergM Online
        Marc BergM Online
        Marc Berg
        Most Active
        wrote on last edited by
        #132

        @naturfreund sagte in InfluxDB - Daten weg / Wiederherstellung:

        Geht das mit der Methode von marc-berg nur wenn ich die Datenbank auf 2.0 migriert habe? Oder gibt es auch eine Möglichkeit das in der Version 1.8 zu machen?

        Diese Methode basiert auf der Skriptsprache "Flux" und läuft nur unter influxdb 2.x. Sicher gibt es auch eine entsprechende Methode für die 1.x, die kenne ich aber nicht.

        NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

        Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

        Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

        N 1 Reply Last reply
        0
        • Marc BergM Marc Berg

          @naturfreund sagte in InfluxDB - Daten weg / Wiederherstellung:

          Geht das mit der Methode von marc-berg nur wenn ich die Datenbank auf 2.0 migriert habe? Oder gibt es auch eine Möglichkeit das in der Version 1.8 zu machen?

          Diese Methode basiert auf der Skriptsprache "Flux" und läuft nur unter influxdb 2.x. Sicher gibt es auch eine entsprechende Methode für die 1.x, die kenne ich aber nicht.

          N Offline
          N Offline
          Naturfreund
          wrote on last edited by
          #133

          @marc-berg

          Ich bin gerade darüber gestolpert, werde mir das mal genauer ansehen:

          https://github.com/toni-moreno/syncflux#run-as-a-database-replication-tool

          Marc BergM 1 Reply Last reply
          0
          • N Naturfreund

            @marc-berg

            Ich bin gerade darüber gestolpert, werde mir das mal genauer ansehen:

            https://github.com/toni-moreno/syncflux#run-as-a-database-replication-tool

            Marc BergM Online
            Marc BergM Online
            Marc Berg
            Most Active
            wrote on last edited by Marc Berg
            #134

            @naturfreund sagte in InfluxDB - Daten weg / Wiederherstellung:

            @marc-berg

            Ich bin gerade darüber gestolpert, werde mir das mal genauer ansehen:

            https://github.com/toni-moreno/syncflux#run-as-a-database-replication-tool

            Hm, interessant. Es sieht für mich aber so aus, als ob du dafür zwei Datenbanken (Server) benötigst. Ich dachte, du hättest einen Server und x Backup-Files.

            Meinst du nicht, dass das hier besser ist:

            https://docs.influxdata.com/influxdb/v1.8/administration/backup_and_restore/#restore-data-to-an-existing-database

            Das entspricht etwa "meiner" Methode.

            NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

            Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

            Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

            1 Reply Last reply
            0
            • N Offline
              N Offline
              Naturfreund
              wrote on last edited by
              #135

              @marc-berg said in InfluxDB - Daten weg / Wiederherstellung:

              @naturfreund sagte in InfluxDB - Daten weg / Wiederherstellung:

              @marc-berg

              Ich bin gerade darüber gestolpert, werde mir das mal genauer ansehen:

              https://github.com/toni-moreno/syncflux#run-as-a-database-replication-tool

              Hm, interessant. Es sieht für mich aber so aus, als ob du dafür zwei Datenbanken (Server) benötigst. Ich dachte, du hättest einen Server und x Backup-Files.

              Meinst du nicht, dass das hier besser ist:

              https://docs.influxdata.com/influxdb/v1.8/administration/backup_and_restore/#restore-data-to-an-existing-database

              Das entspricht etwa "meiner" Methode.

              Stimmt, ich habe 1 Server.

              Bei den Begriffen gerate ich ins Straucheln.

              show databases
              

              Zeigt mir die Datenbanken an. Deshalb spreche ich von einer Datenbank. Die Backups die ich wieder gestellt habe, habe ich als neue Datenbank anlegen lassen. Ich will die aktuelle Datenbank ja nicht überschreiben.

              pi@raspberrypi:~ $ influx
              Connected to http://localhost:8086 version 1.8.10
              InfluxDB shell version: 1.8.10
              > > show databases
              name: databases
              name
              ----
              _internal
              iobroker
              iobroker080123
              iobroker010123
              iobroker130123
              > 
              

              Und jetzt möchte ich die Zeitabschnitte in denen die Backups Daten enthalten in mein "iobroker" Datenbank migrieren.
              Wenn ich deinen Link verstehe, dann müsste das jetzt funktionieren. Alte Datenpunkte mit identischen Daten werden einfach überschrieben.

              Punkt 1 hab ich bereits erledigt:

              1. Restore a backup to a temporary database.

              Fehlt noch:
              2. Use InfluxQL or Flux to query data from the temporary database and write it back to the existing database.

              -- Repeat for each retention policy in the temporary database
              SELECT *
              INTO "example-db".autogen.:MEASUREMENT
              FROM "example-tmp-db".autogen./.*/ GROUP BY *
              
              Marc BergM 1 Reply Last reply
              0
              • N Naturfreund

                @marc-berg said in InfluxDB - Daten weg / Wiederherstellung:

                @naturfreund sagte in InfluxDB - Daten weg / Wiederherstellung:

                @marc-berg

                Ich bin gerade darüber gestolpert, werde mir das mal genauer ansehen:

                https://github.com/toni-moreno/syncflux#run-as-a-database-replication-tool

                Hm, interessant. Es sieht für mich aber so aus, als ob du dafür zwei Datenbanken (Server) benötigst. Ich dachte, du hättest einen Server und x Backup-Files.

                Meinst du nicht, dass das hier besser ist:

                https://docs.influxdata.com/influxdb/v1.8/administration/backup_and_restore/#restore-data-to-an-existing-database

                Das entspricht etwa "meiner" Methode.

                Stimmt, ich habe 1 Server.

                Bei den Begriffen gerate ich ins Straucheln.

                show databases
                

                Zeigt mir die Datenbanken an. Deshalb spreche ich von einer Datenbank. Die Backups die ich wieder gestellt habe, habe ich als neue Datenbank anlegen lassen. Ich will die aktuelle Datenbank ja nicht überschreiben.

                pi@raspberrypi:~ $ influx
                Connected to http://localhost:8086 version 1.8.10
                InfluxDB shell version: 1.8.10
                > > show databases
                name: databases
                name
                ----
                _internal
                iobroker
                iobroker080123
                iobroker010123
                iobroker130123
                > 
                

                Und jetzt möchte ich die Zeitabschnitte in denen die Backups Daten enthalten in mein "iobroker" Datenbank migrieren.
                Wenn ich deinen Link verstehe, dann müsste das jetzt funktionieren. Alte Datenpunkte mit identischen Daten werden einfach überschrieben.

                Punkt 1 hab ich bereits erledigt:

                1. Restore a backup to a temporary database.

                Fehlt noch:
                2. Use InfluxQL or Flux to query data from the temporary database and write it back to the existing database.

                -- Repeat for each retention policy in the temporary database
                SELECT *
                INTO "example-db".autogen.:MEASUREMENT
                FROM "example-tmp-db".autogen./.*/ GROUP BY *
                
                Marc BergM Online
                Marc BergM Online
                Marc Berg
                Most Active
                wrote on last edited by
                #136

                @naturfreund

                Das Statement müsste in deinem Fall

                SELECT *
                INTO iobroker.autogen.<measurement_name>:MEASUREMENT
                FROM iobroker080123.autogen.<measurement_name>
                GROUP BY *
                

                lauten. Ich würd's aber erstmal in einer weiteren DB testen.

                NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                N 2 Replies Last reply
                0
                • Marc BergM Marc Berg

                  @naturfreund

                  Das Statement müsste in deinem Fall

                  SELECT *
                  INTO iobroker.autogen.<measurement_name>:MEASUREMENT
                  FROM iobroker080123.autogen.<measurement_name>
                  GROUP BY *
                  

                  lauten. Ich würd's aber erstmal in einer weiteren DB testen.

                  N Offline
                  N Offline
                  Naturfreund
                  wrote on last edited by
                  #137

                  @marc-berg

                  Ich merge zum Test erst zwei Backups.

                  1 Reply Last reply
                  0
                  • Marc BergM Marc Berg

                    @naturfreund

                    Das Statement müsste in deinem Fall

                    SELECT *
                    INTO iobroker.autogen.<measurement_name>:MEASUREMENT
                    FROM iobroker080123.autogen.<measurement_name>
                    GROUP BY *
                    

                    lauten. Ich würd's aber erstmal in einer weiteren DB testen.

                    N Offline
                    N Offline
                    Naturfreund
                    wrote on last edited by Naturfreund
                    #138

                    @marc-berg

                    Ich hab jetzt kein einzelnes Measurement gewählt:

                    > SELECT * INTO iobroker130123.autogen.:MEASUREMENT FROM iobroker080123.autogen./.*/ GROUP BY *
                    ERR: timeout
                    
                    

                    Für ein einzelnes Measurement hat es so geklappt:

                    > SELECT * INTO iobroker130123.autogen."shelly.0.SHSW-PM#A4CF12F3CBAB#1.ext.temperatureC1" FROM iobroker080123.autogen."shelly.0.SHSW-PM#A4CF12F3CBAB#1.ext.temperatureC1" GROUP BY *
                    name: result
                    time written
                    ---- -------
                    0    640288
                    

                    Ergebnis:
                    88adc4a2-1200-4b99-ab15-921de5ff0c0d-image.png

                    :smiley:
                    Wir aber ein ganz schöner Aufwand, dass für alle 147 Measurements händisch zu machen...

                    1 Reply Last reply
                    0
                    • N Offline
                      N Offline
                      Naturfreund
                      wrote on last edited by Naturfreund
                      #139

                      Nochmal ein Vorher / Nachher Vergleich:

                      455da917-d6d0-4b38-9a41-ce7a343552a7-image.png

                      Influx starten:

                      pi@raspberrypi:~ $ influx
                      

                      Measurement auswählen:

                      > SELECT * INTO iobroker130123.autogen."shelly.0.SHSW-PM#A4CF12F3CBAB#1.ext.temperatureC1" FROM iobroker010123.autogen."shelly.0.SHSW-PM#A4CF12F3CBAB#1.ext.temperatureC1" GROUP BY *
                      name: result
                      time written
                      ---- -------
                      0    635668
                      

                      Ergebnis:

                      497a93cf-cf40-4fb6-af79-d8ce1b7d24fc-image.png

                      Danke dir in jedem Fall @Marc-Berg und auch @Thomas-Braun, @crunchip und @Glasfaser. Ich setze das Topic dann auf gelöst.

                      I 1 Reply Last reply
                      0
                      • N Naturfreund

                        Nochmal ein Vorher / Nachher Vergleich:

                        455da917-d6d0-4b38-9a41-ce7a343552a7-image.png

                        Influx starten:

                        pi@raspberrypi:~ $ influx
                        

                        Measurement auswählen:

                        > SELECT * INTO iobroker130123.autogen."shelly.0.SHSW-PM#A4CF12F3CBAB#1.ext.temperatureC1" FROM iobroker010123.autogen."shelly.0.SHSW-PM#A4CF12F3CBAB#1.ext.temperatureC1" GROUP BY *
                        name: result
                        time written
                        ---- -------
                        0    635668
                        

                        Ergebnis:

                        497a93cf-cf40-4fb6-af79-d8ce1b7d24fc-image.png

                        Danke dir in jedem Fall @Marc-Berg und auch @Thomas-Braun, @crunchip und @Glasfaser. Ich setze das Topic dann auf gelöst.

                        I Offline
                        I Offline
                        IOJoker
                        wrote on last edited by
                        #140

                        @naturfreund said in InfluxDB - Daten weg / Wiederherstellung [gelöst]:

                        Ich setze das Topic dann auf gelöst.

                        Hallo Naturfreund,

                        bei mir kommt es in letzter Zeit leider ebenfalls zu Datenverlust in der InfluxDB Datenbank. Du hast das Topic auf gelöst gesetzt, einen tatsächlichen Grund habt ihr aber nicht gefunden, richtig? Die Lücken in den Daten konntest du nur wieder schließen, weil du noch Backups hattest.

                        Läuft denn jetzt mit dem neuen System alles wieder ohne Probleme?

                        N 1 Reply Last reply
                        0
                        • I IOJoker

                          @naturfreund said in InfluxDB - Daten weg / Wiederherstellung [gelöst]:

                          Ich setze das Topic dann auf gelöst.

                          Hallo Naturfreund,

                          bei mir kommt es in letzter Zeit leider ebenfalls zu Datenverlust in der InfluxDB Datenbank. Du hast das Topic auf gelöst gesetzt, einen tatsächlichen Grund habt ihr aber nicht gefunden, richtig? Die Lücken in den Daten konntest du nur wieder schließen, weil du noch Backups hattest.

                          Läuft denn jetzt mit dem neuen System alles wieder ohne Probleme?

                          N Offline
                          N Offline
                          Naturfreund
                          wrote on last edited by
                          #141

                          @iojoker
                          Oh, sorry, hab deine Frage übersehen. Ja, es läuft seit dem super stabil. Ich hab die SD Karte im Verdacht, beweisen kann ich es aber nicht. Mit SSD bisher keine Probleme mehr gehabt.
                          Würde auch jedem raten direkt mit einer SSD zu starten.

                          I 1 Reply Last reply
                          0
                          • N Naturfreund

                            @iojoker
                            Oh, sorry, hab deine Frage übersehen. Ja, es läuft seit dem super stabil. Ich hab die SD Karte im Verdacht, beweisen kann ich es aber nicht. Mit SSD bisher keine Probleme mehr gehabt.
                            Würde auch jedem raten direkt mit einer SSD zu starten.

                            I Offline
                            I Offline
                            IOJoker
                            wrote on last edited by
                            #142

                            @naturfreund

                            Haha, besser spät als gar nicht. :)
                            Ich vermute, es lag am 32bit Betriebssystem. Ich hatte ja direkt mit SSD begonnen, jedoch mit 32bit. Seitdem ich auf 64bit umgestiegen bin, sind zum Glück keine Lücken mehr in den Daten aufgetreten.

                            1 Reply Last reply
                            0
                            Reply
                            • Reply as topic
                            Log in to reply
                            • Oldest to Newest
                            • Newest to Oldest
                            • Most Votes


                            Support us

                            ioBroker
                            Community Adapters
                            Donate

                            627

                            Online

                            32.7k

                            Users

                            82.4k

                            Topics

                            1.3m

                            Posts
                            Community
                            Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                            ioBroker Community 2014-2025
                            logo
                            • Login

                            • Don't have an account? Register

                            • Login or register to search.
                            • First post
                              Last post
                            0
                            • Home
                            • Recent
                            • Tags
                            • Unread 0
                            • Categories
                            • Unreplied
                            • Popular
                            • GitHub
                            • Docu
                            • Hilfe