Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Einsteigerfragen
  4. Influxdb: Wie altes backup in neuere DB einspielen

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    14
    1
    195

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    12
    1
    572

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    24
    1
    1.8k

Influxdb: Wie altes backup in neuere DB einspielen

Geplant Angeheftet Gesperrt Verschoben Einsteigerfragen
25 Beiträge 3 Kommentatoren 2.5k Aufrufe 3 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • ? Ein ehemaliger Benutzer

    @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

    Für eine Anleitung wäre ich dankbar.

    Moin,

    ein guter Anlaufpunkt ist oft der Hersteller ;)
    https://docs.influxdata.com/influxdb/v1.8/administration/backup_and_restore/?t=Legacy+format#Copyright

    Solltest Du mit den Beispielen nicht zurechtkommen, dann musst Du noch mal gezielt nachfragen.

    Wenn ich das noch korrekt im Kopf habe, kannst Du das letzte Backup auch direkt in die aktuelle Datenbank einspielen, sollten im Backup Daten sein, die es auch schon in der Datenbank gibt, dann werden die Daten der Datenbank nicht überschrieben.

    Hast Du den Adapter BackitUp am Laufen, denn dann könntest Du auch darüber das Backup wieder zurückspielen, so meine Vermutung, habe da nur Halbwissen, da ich das alles nicht nutze.

    VG
    Bernd

    H Offline
    H Offline
    hukio
    schrieb am zuletzt editiert von
    #3

    @dp20eic
    Ich benutze den Backitup adapter. Das einfachste wäre, wenn ich das backup via dem Adapter in die jetzige Datenbank einspielen könnte. Ich weiß aber nicht, ob und wie dies geht. Normalerweise wird vor dem restore die existierende Datenbank gelöscht (das habe ich schon gemacht).
    Wer weiß, was ich machen soll?
    Danke
    HUK

    Marc BergM 1 Antwort Letzte Antwort
    0
    • H hukio

      @dp20eic
      Ich benutze den Backitup adapter. Das einfachste wäre, wenn ich das backup via dem Adapter in die jetzige Datenbank einspielen könnte. Ich weiß aber nicht, ob und wie dies geht. Normalerweise wird vor dem restore die existierende Datenbank gelöscht (das habe ich schon gemacht).
      Wer weiß, was ich machen soll?
      Danke
      HUK

      Marc BergM Offline
      Marc BergM Offline
      Marc Berg
      Most Active
      schrieb am zuletzt editiert von Marc Berg
      #4

      @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

      Wer weiß, was ich machen soll?

      1. den Backitup-Adapter korrekt konfigurieren (hängt davon ab, wie/wo deine DB installiert ist


      cd4cb72c-5b66-4d3c-a06b-2ff47587c106-grafik.png

      1. Deine Backup-Dateien unter /opt/iobroker/backups ablegen

      2. "Backup" starten


      62a65618-2284-443b-aa84-bcfb827fe021-grafik.png

      1. Sicherungen abrufen


      a31e7045-5cc4-4d45-b8ec-37d5f04857d0-grafik.png

      1. Datei auswählen und auf "wiederherstellen" klicken


      0415f58c-3658-486b-9cb3-b61deb739fb8-grafik.png

      NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

      Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

      Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

      Marc BergM 1 Antwort Letzte Antwort
      0
      • Marc BergM Marc Berg

        @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

        Wer weiß, was ich machen soll?

        1. den Backitup-Adapter korrekt konfigurieren (hängt davon ab, wie/wo deine DB installiert ist


        cd4cb72c-5b66-4d3c-a06b-2ff47587c106-grafik.png

        1. Deine Backup-Dateien unter /opt/iobroker/backups ablegen

        2. "Backup" starten


        62a65618-2284-443b-aa84-bcfb827fe021-grafik.png

        1. Sicherungen abrufen


        a31e7045-5cc4-4d45-b8ec-37d5f04857d0-grafik.png

        1. Datei auswählen und auf "wiederherstellen" klicken


        0415f58c-3658-486b-9cb3-b61deb739fb8-grafik.png

        Marc BergM Offline
        Marc BergM Offline
        Marc Berg
        Most Active
        schrieb am zuletzt editiert von Marc Berg
        #5

        @hukio

        Ob das Ganze sinnvoll ist, solange du nicht weißt, warum Daten einfach so "verschwinden", steht auf einem anderen Blatt ...

        NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

        Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

        Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

        H 1 Antwort Letzte Antwort
        0
        • Marc BergM Marc Berg

          @hukio

          Ob das Ganze sinnvoll ist, solange du nicht weißt, warum Daten einfach so "verschwinden", steht auf einem anderen Blatt ...

          H Offline
          H Offline
          hukio
          schrieb am zuletzt editiert von
          #6

          @marc-berg
          Wie gesagt, ich weiß, wie ich ein normales restore der Influxdb mache (habe ich schon mehrfach gemacht). Aber dies war immer die gesamte Datenbank. Jetzt geht es darum, wie ich die alten Werte in eine existierende einfügen kann. Was passiert, wenn ich ein restore mit Backitup in eine existierende Datenbank mit gleichem Aufbau und Namen mache? Geht das überhaupt?
          HUK

          Marc BergM 1 Antwort Letzte Antwort
          0
          • H hukio

            @marc-berg
            Wie gesagt, ich weiß, wie ich ein normales restore der Influxdb mache (habe ich schon mehrfach gemacht). Aber dies war immer die gesamte Datenbank. Jetzt geht es darum, wie ich die alten Werte in eine existierende einfügen kann. Was passiert, wenn ich ein restore mit Backitup in eine existierende Datenbank mit gleichem Aufbau und Namen mache? Geht das überhaupt?
            HUK

            Marc BergM Offline
            Marc BergM Offline
            Marc Berg
            Most Active
            schrieb am zuletzt editiert von Marc Berg
            #7

            @hukio

            Stimmt, da habe ich nicht richtig gelesen.

            Du kannst das Backup in eine neue Datenbank (auf dem gleichen Server) zurückspielen:

            influxd restore -portable -db <AKTUELLERDBNAME> -newdb <TEMPORÄRER_DB_NAME> path-to-backup
            

            Und dann die Daten in die bestehende DB kopieren:

            SELECT *
                INTO "<AKTUELLERDBNAME>".autogen.:MEASUREMENT
                FROM "<TEMPORÄRER_DB_NAME>".autogen./.*/ GROUP BY *
            

            Zum Schluss die temporäre DB löschen:

            DROP DATABASE "<TEMPORÄRER_DB_NAME>"
            

            NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

            Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

            Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

            H 1 Antwort Letzte Antwort
            0
            • Marc BergM Marc Berg

              @hukio

              Stimmt, da habe ich nicht richtig gelesen.

              Du kannst das Backup in eine neue Datenbank (auf dem gleichen Server) zurückspielen:

              influxd restore -portable -db <AKTUELLERDBNAME> -newdb <TEMPORÄRER_DB_NAME> path-to-backup
              

              Und dann die Daten in die bestehende DB kopieren:

              SELECT *
                  INTO "<AKTUELLERDBNAME>".autogen.:MEASUREMENT
                  FROM "<TEMPORÄRER_DB_NAME>".autogen./.*/ GROUP BY *
              

              Zum Schluss die temporäre DB löschen:

              DROP DATABASE "<TEMPORÄRER_DB_NAME>"
              
              H Offline
              H Offline
              hukio
              schrieb am zuletzt editiert von
              #8

              @marc-berg
              OK, wie komme ich an das influxd verständliche backup der alten Datenbank? Ich habe ja nur die vom Backitup produzierte Datei (z.B. influxDB_2023_08_25-02_05_32_backupiobroker.tar.gz). Oder kann influxd diese Datei von Backitup direkt restaurieren? Kann ich diese Datei in den influxd restore ... Befehl für <AKTUELLERDBNAME> einsetzen?
              Danke für Deine Hilfe
              HUK

              Marc BergM 1 Antwort Letzte Antwort
              0
              • H hukio

                @marc-berg
                OK, wie komme ich an das influxd verständliche backup der alten Datenbank? Ich habe ja nur die vom Backitup produzierte Datei (z.B. influxDB_2023_08_25-02_05_32_backupiobroker.tar.gz). Oder kann influxd diese Datei von Backitup direkt restaurieren? Kann ich diese Datei in den influxd restore ... Befehl für <AKTUELLERDBNAME> einsetzen?
                Danke für Deine Hilfe
                HUK

                Marc BergM Offline
                Marc BergM Offline
                Marc Berg
                Most Active
                schrieb am zuletzt editiert von Marc Berg
                #9

                @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                OK, wie komme ich an das influxd verständliche backup der alten Datenbank? Ich habe ja nur die vom Backitup produzierte Datei (z.B. influxDB_2023_08_25-02_05_32_backupiobroker.tar.gz). Oder kann influxd diese Datei von Backitup direkt restaurieren?

                Ich habe das mal durchgespielt, bei mir heißt die Datenbank "iobroker1".

                Du musst die Backup-Datei zunächst auspacken. Zum Beispiel direkt auf der Kommandozeile:

                influxdb1:/var/lib/influxdb/backup# tar -xvzf influxDB_2023_09_01-18_17_13_backupiobroker.tar.gz
                

                In diesem Beispiel werden die Daten direkt in .../backup entpackt.

                Weiter geht's mit dem Restore-Befehl in die temporäre DB:

                influxdb1:~# influxd restore -portable -db iobroker1 -newdb iobroker1_tmp /var/lib/influxdb/backup
                2023/09/02 07:29:52 Restoring shard 128 live from backup 20230901T161713Z.s128.tar.gz
                2023/09/02 07:29:52 Restoring shard 132 live from backup 20230901T161713Z.s132.tar.gz
                2023/09/02 07:29:52 Restoring shard 134 live from backup 20230901T161713Z.s134.tar.gz
                2023/09/02 07:29:52 Restoring shard 136 live from backup 20230901T161713Z.s136.tar.gz
                2023/09/02 07:29:52 Restoring shard 143 live from backup 20230901T161713Z.s143.tar.gz
                2023/09/02 07:29:52 Restoring shard 151 live from backup 20230901T161713Z.s151.tar.gz
                

                Dann die Daten kopieren:

                influxdb1:~# influx
                Connected to http://localhost:8086 version 1.8.10
                InfluxDB shell version: 1.8.10
                > select * INTO "iobroker1".autogen.:MEASUREMENT FROM "iobroker1_tmp".autogen./.*/ GROUP BY *
                name: result
                time written
                ---- -------
                0    41265
                

                und temporäre DB löschen:

                > DROP DATABASE "iobroker1_tmp"
                

                Kann ich diese Datei in den influxd restore ... Befehl für <AKTUELLERDBNAME> einsetzen?

                nein

                NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                H 1 Antwort Letzte Antwort
                0
                • Marc BergM Marc Berg

                  @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                  OK, wie komme ich an das influxd verständliche backup der alten Datenbank? Ich habe ja nur die vom Backitup produzierte Datei (z.B. influxDB_2023_08_25-02_05_32_backupiobroker.tar.gz). Oder kann influxd diese Datei von Backitup direkt restaurieren?

                  Ich habe das mal durchgespielt, bei mir heißt die Datenbank "iobroker1".

                  Du musst die Backup-Datei zunächst auspacken. Zum Beispiel direkt auf der Kommandozeile:

                  influxdb1:/var/lib/influxdb/backup# tar -xvzf influxDB_2023_09_01-18_17_13_backupiobroker.tar.gz
                  

                  In diesem Beispiel werden die Daten direkt in .../backup entpackt.

                  Weiter geht's mit dem Restore-Befehl in die temporäre DB:

                  influxdb1:~# influxd restore -portable -db iobroker1 -newdb iobroker1_tmp /var/lib/influxdb/backup
                  2023/09/02 07:29:52 Restoring shard 128 live from backup 20230901T161713Z.s128.tar.gz
                  2023/09/02 07:29:52 Restoring shard 132 live from backup 20230901T161713Z.s132.tar.gz
                  2023/09/02 07:29:52 Restoring shard 134 live from backup 20230901T161713Z.s134.tar.gz
                  2023/09/02 07:29:52 Restoring shard 136 live from backup 20230901T161713Z.s136.tar.gz
                  2023/09/02 07:29:52 Restoring shard 143 live from backup 20230901T161713Z.s143.tar.gz
                  2023/09/02 07:29:52 Restoring shard 151 live from backup 20230901T161713Z.s151.tar.gz
                  

                  Dann die Daten kopieren:

                  influxdb1:~# influx
                  Connected to http://localhost:8086 version 1.8.10
                  InfluxDB shell version: 1.8.10
                  > select * INTO "iobroker1".autogen.:MEASUREMENT FROM "iobroker1_tmp".autogen./.*/ GROUP BY *
                  name: result
                  time written
                  ---- -------
                  0    41265
                  

                  und temporäre DB löschen:

                  > DROP DATABASE "iobroker1_tmp"
                  

                  Kann ich diese Datei in den influxd restore ... Befehl für <AKTUELLERDBNAME> einsetzen?

                  nein

                  H Offline
                  H Offline
                  hukio
                  schrieb am zuletzt editiert von
                  #10

                  @marc-berg
                  Hat teilweise geklappt.
                  Nach dem select Befehl kam nach einiger Zeit:
                  ERR: timeout
                  Warning: It is possible this error is due to not setting a database.
                  Please set a database with the command "use <database>".

                  Daraufhin habe use iobroker (Name meiner Datei) eingegeben und den select Befehl wiederholt. Es kam wieder der ERR: timeout

                  Wenn ich mit Grafana die Datenbank ansehe gibt es Diagramme, die die älteren Daten zeigen. Die meisten aber nicht.

                  Wie kann ich dem timeout Fehler begegnen?
                  Hab vielen Dank für Deine explizite Anleitung, die ich offensichtlich brauche.
                  HUK

                  Marc BergM ? 2 Antworten Letzte Antwort
                  0
                  • H hukio

                    @marc-berg
                    Hat teilweise geklappt.
                    Nach dem select Befehl kam nach einiger Zeit:
                    ERR: timeout
                    Warning: It is possible this error is due to not setting a database.
                    Please set a database with the command "use <database>".

                    Daraufhin habe use iobroker (Name meiner Datei) eingegeben und den select Befehl wiederholt. Es kam wieder der ERR: timeout

                    Wenn ich mit Grafana die Datenbank ansehe gibt es Diagramme, die die älteren Daten zeigen. Die meisten aber nicht.

                    Wie kann ich dem timeout Fehler begegnen?
                    Hab vielen Dank für Deine explizite Anleitung, die ich offensichtlich brauche.
                    HUK

                    Marc BergM Offline
                    Marc BergM Offline
                    Marc Berg
                    Most Active
                    schrieb am zuletzt editiert von
                    #11

                    @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                    Nach dem select Befehl kam nach einiger Zeit:
                    ERR: timeout

                    Da wird deine Datenbank zu groß sein, bzw. die Hardware zu langsam, sodass das Timeout erreicht wird. Wahrscheinlich wirst du die "SELECT" Query in kleinere zeitliche Häppchen aufteilen müssen. Also die Query ergänzen z.B. um

                    where time >= '2021-01-01 00:00:00' and time < '2022-01-01 00:00:00'
                    

                    oder noch kleinere zeitliche Intervalle, wenn der Timeout immer noch auftritt.

                    NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                    Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                    Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                    Marc BergM 1 Antwort Letzte Antwort
                    0
                    • H hukio

                      @marc-berg
                      Hat teilweise geklappt.
                      Nach dem select Befehl kam nach einiger Zeit:
                      ERR: timeout
                      Warning: It is possible this error is due to not setting a database.
                      Please set a database with the command "use <database>".

                      Daraufhin habe use iobroker (Name meiner Datei) eingegeben und den select Befehl wiederholt. Es kam wieder der ERR: timeout

                      Wenn ich mit Grafana die Datenbank ansehe gibt es Diagramme, die die älteren Daten zeigen. Die meisten aber nicht.

                      Wie kann ich dem timeout Fehler begegnen?
                      Hab vielen Dank für Deine explizite Anleitung, die ich offensichtlich brauche.
                      HUK

                      ? Offline
                      ? Offline
                      Ein ehemaliger Benutzer
                      schrieb am zuletzt editiert von
                      #12

                      @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                      Nach dem select Befehl kam nach einiger Zeit:

                      Moin,

                      bitte nicht aus dem Kopf, irgendwelche Fehler zitieren, immer alles zeigen, von der Eingabezeile, bis hin zum neuen Prompt. Nätürlich als Text in Code Tags </>

                      VG
                      Bernd

                      1 Antwort Letzte Antwort
                      0
                      • Marc BergM Marc Berg

                        @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                        Nach dem select Befehl kam nach einiger Zeit:
                        ERR: timeout

                        Da wird deine Datenbank zu groß sein, bzw. die Hardware zu langsam, sodass das Timeout erreicht wird. Wahrscheinlich wirst du die "SELECT" Query in kleinere zeitliche Häppchen aufteilen müssen. Also die Query ergänzen z.B. um

                        where time >= '2021-01-01 00:00:00' and time < '2022-01-01 00:00:00'
                        

                        oder noch kleinere zeitliche Intervalle, wenn der Timeout immer noch auftritt.

                        Marc BergM Offline
                        Marc BergM Offline
                        Marc Berg
                        Most Active
                        schrieb am zuletzt editiert von
                        #13

                        @marc-berg sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                        oder noch kleinere zeitliche Intervalle, wenn der Timeout immer noch auftritt.

                        Ein anderer Ansatz wäre, die Datenbank komplett zu löschen und dein "großes" Backup per normalen Backitup-Restore zurückzuspielen. Danach nur noch den kleinen Teil (der nach dem Crash entstanden ist) per o.g. Methode einfügen. Das würde ich machen, wenn das Timeout auch bei kleinen Häppchen auftritt und der Aufwand zu hoch wäre, tausend "Mini-Häppchen" zurückzuspielen.

                        NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                        Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                        Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                        H 1 Antwort Letzte Antwort
                        0
                        • Marc BergM Marc Berg

                          @marc-berg sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                          oder noch kleinere zeitliche Intervalle, wenn der Timeout immer noch auftritt.

                          Ein anderer Ansatz wäre, die Datenbank komplett zu löschen und dein "großes" Backup per normalen Backitup-Restore zurückzuspielen. Danach nur noch den kleinen Teil (der nach dem Crash entstanden ist) per o.g. Methode einfügen. Das würde ich machen, wenn das Timeout auch bei kleinen Häppchen auftritt und der Aufwand zu hoch wäre, tausend "Mini-Häppchen" zurückzuspielen.

                          H Offline
                          H Offline
                          hukio
                          schrieb am zuletzt editiert von
                          #14

                          @marc-berg
                          Das ist eine gute Idee.
                          Mit dem where stehe ich noch auf Kriegsfuß:

                          > select * INTO "iobroker".autogen.:MEASUREMENT FROM "iobroker_tmp".autogen./.*/ GROUP BY * where time >= '2023-06-01 00:00:00' and time < '2023-06-30 00:00:00'
                          
                          ERR: error parsing query: found WHERE, expected ; at line 1, char 91
                          

                          HUK

                          Marc BergM 1 Antwort Letzte Antwort
                          0
                          • H hukio

                            @marc-berg
                            Das ist eine gute Idee.
                            Mit dem where stehe ich noch auf Kriegsfuß:

                            > select * INTO "iobroker".autogen.:MEASUREMENT FROM "iobroker_tmp".autogen./.*/ GROUP BY * where time >= '2023-06-01 00:00:00' and time < '2023-06-30 00:00:00'
                            
                            ERR: error parsing query: found WHERE, expected ; at line 1, char 91
                            

                            HUK

                            Marc BergM Offline
                            Marc BergM Offline
                            Marc Berg
                            Most Active
                            schrieb am zuletzt editiert von
                            #15

                            @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                            Mit dem where stehe ich noch auf Kriegsfuß:

                            Bin jetzt nicht wirklich fit in InfluxQL, aber ich glaube die "where" Clause muss vor "group".

                            NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                            Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                            Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                            H 1 Antwort Letzte Antwort
                            0
                            • Marc BergM Marc Berg

                              @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                              Mit dem where stehe ich noch auf Kriegsfuß:

                              Bin jetzt nicht wirklich fit in InfluxQL, aber ich glaube die "where" Clause muss vor "group".

                              H Offline
                              H Offline
                              hukio
                              schrieb am zuletzt editiert von
                              #16

                              @marc-berg
                              Habe dies so versucht mit delta t = 1 Monat

                              > select * INTO "iobroker".autogen.:MEASUREMENT FROM "iobroker_tmp".autogen./.*/  where time >= '2023-06-01 00:00:00' and time < '2023-06-30 00:00:00' GROUP BY *
                              ERR: timeout
                              > select * INTO "iobroker".autogen.:MEASUREMENT FROM "iobroker_tmp".autogen./.*/  where time >= '2023-06-01 00:00:00' and time < '2023-06-30 00:00:00' GROUP BY *
                              ERR: partial write: points beyond retention policy dropped=155
                              
                              

                              Dann noch einmal, mit neuem Fehler. Die alte Datenbank ist nur 18.905 KB groß als GZ Datei (für ca. 9 Monate). Die jetzige ist 422 KB für ca. 7 Tage. Beide wirklich nicht groß würde ich denken. Werde die Umkehrung versuchen.
                              HUK

                              Marc BergM ? 2 Antworten Letzte Antwort
                              0
                              • H hukio

                                @marc-berg
                                Habe dies so versucht mit delta t = 1 Monat

                                > select * INTO "iobroker".autogen.:MEASUREMENT FROM "iobroker_tmp".autogen./.*/  where time >= '2023-06-01 00:00:00' and time < '2023-06-30 00:00:00' GROUP BY *
                                ERR: timeout
                                > select * INTO "iobroker".autogen.:MEASUREMENT FROM "iobroker_tmp".autogen./.*/  where time >= '2023-06-01 00:00:00' and time < '2023-06-30 00:00:00' GROUP BY *
                                ERR: partial write: points beyond retention policy dropped=155
                                
                                

                                Dann noch einmal, mit neuem Fehler. Die alte Datenbank ist nur 18.905 KB groß als GZ Datei (für ca. 9 Monate). Die jetzige ist 422 KB für ca. 7 Tage. Beide wirklich nicht groß würde ich denken. Werde die Umkehrung versuchen.
                                HUK

                                Marc BergM Offline
                                Marc BergM Offline
                                Marc Berg
                                Most Active
                                schrieb am zuletzt editiert von
                                #17

                                @hukio Wenn du mit unterschiedlichen Retention policies arbeitest, musst du natürlich "autogen" durch den Namen der policy ersetzen.

                                NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                                Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                                Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                                H 1 Antwort Letzte Antwort
                                0
                                • Marc BergM Marc Berg

                                  @hukio Wenn du mit unterschiedlichen Retention policies arbeitest, musst du natürlich "autogen" durch den Namen der policy ersetzen.

                                  H Offline
                                  H Offline
                                  hukio
                                  schrieb am zuletzt editiert von
                                  #18

                                  @marc-berg
                                  Bei mir ist alles default, wüßte nicht, wie ich die retention policy beeinflussen kann.
                                  HUK

                                  ? 1 Antwort Letzte Antwort
                                  0
                                  • H hukio

                                    @marc-berg
                                    Habe dies so versucht mit delta t = 1 Monat

                                    > select * INTO "iobroker".autogen.:MEASUREMENT FROM "iobroker_tmp".autogen./.*/  where time >= '2023-06-01 00:00:00' and time < '2023-06-30 00:00:00' GROUP BY *
                                    ERR: timeout
                                    > select * INTO "iobroker".autogen.:MEASUREMENT FROM "iobroker_tmp".autogen./.*/  where time >= '2023-06-01 00:00:00' and time < '2023-06-30 00:00:00' GROUP BY *
                                    ERR: partial write: points beyond retention policy dropped=155
                                    
                                    

                                    Dann noch einmal, mit neuem Fehler. Die alte Datenbank ist nur 18.905 KB groß als GZ Datei (für ca. 9 Monate). Die jetzige ist 422 KB für ca. 7 Tage. Beide wirklich nicht groß würde ich denken. Werde die Umkehrung versuchen.
                                    HUK

                                    ? Offline
                                    ? Offline
                                    Ein ehemaliger Benutzer
                                    schrieb am zuletzt editiert von Ein ehemaliger Benutzer
                                    #19

                                    @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                                    Habe dies so versucht mit delta t = 1 Monat

                                    Moin,

                                    lese nur noch am Rande mit, aber wie ist denn die Retention der Datenbank, sagen wir mal, die steht auf 30 Tage, dann kannst Du keine Daten einfügen, die älter als 30 Tage sind.
                                    Wie gesagt, lese hier nur noch sporadisch mit, falls das schon beantwortet wurde, sorry.

                                    VG
                                    Bernd

                                    P.S.: @Marc-Berg war schneller :)

                                    Marc BergM 1 Antwort Letzte Antwort
                                    0
                                    • H hukio

                                      @marc-berg
                                      Bei mir ist alles default, wüßte nicht, wie ich die retention policy beeinflussen kann.
                                      HUK

                                      ? Offline
                                      ? Offline
                                      Ein ehemaliger Benutzer
                                      schrieb am zuletzt editiert von Ein ehemaliger Benutzer
                                      #20

                                      @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                                      Bei mir ist alles default, wüßte nicht, wie ich die retention policy beeinflussen kann.

                                      Moin,

                                      und wieder mal die schöne Dokumentation vom Hersteller https://docs.influxdata.com/influxdb/v1.8/query_language/explore-schema/#show-retention-policies

                                      VG
                                      Bernd

                                      P.S.: und wenn Du das ändern möchtest https://docs.influxdata.com/influxdb/v1.8/query_language/manage-database/#modify-retention-policies-with-alter-retention-policy

                                      1 Antwort Letzte Antwort
                                      0
                                      • ? Ein ehemaliger Benutzer

                                        @hukio sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                                        Habe dies so versucht mit delta t = 1 Monat

                                        Moin,

                                        lese nur noch am Rande mit, aber wie ist denn die Retention der Datenbank, sagen wir mal, die steht auf 30 Tage, dann kannst Du keine Daten einfügen, die älter als 30 Tage sind.
                                        Wie gesagt, lese hier nur noch sporadisch mit, falls das schon beantwortet wurde, sorry.

                                        VG
                                        Bernd

                                        P.S.: @Marc-Berg war schneller :)

                                        Marc BergM Offline
                                        Marc BergM Offline
                                        Marc Berg
                                        Most Active
                                        schrieb am zuletzt editiert von Marc Berg
                                        #21

                                        @dp20eic sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                                        lese nur noch am Rande mit, aber wie ist denn die Retention der Datenbank, sagen wir mal, die steht auf 30 Tage, dann kannst Du keine Daten einfügen, die älter als 30 Tage sind.

                                        Ja, das sieht für mich auch so aus, dass nach dem Crash eine Retention policy ungleich "unendlich" angelegt wurde. Aber dann ist der umgekehrte Weg der Wiederherstellung wahrscheinlich sowieso der bessere.

                                        Edit:

                                        Aber die Überlegung wirft nochmal ein anderes Licht auf das "Verschwinden" der Daten. Vielleicht wurden durch das Verstellen der Retention policy Daten gelöscht.

                                        NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                                        Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                                        Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                                        H ? 3 Antworten Letzte Antwort
                                        0
                                        • Marc BergM Marc Berg

                                          @dp20eic sagte in Influxdb: Wie altes backup in neuere DB einspielen:

                                          lese nur noch am Rande mit, aber wie ist denn die Retention der Datenbank, sagen wir mal, die steht auf 30 Tage, dann kannst Du keine Daten einfügen, die älter als 30 Tage sind.

                                          Ja, das sieht für mich auch so aus, dass nach dem Crash eine Retention policy ungleich "unendlich" angelegt wurde. Aber dann ist der umgekehrte Weg der Wiederherstellung wahrscheinlich sowieso der bessere.

                                          Edit:

                                          Aber die Überlegung wirft nochmal ein anderes Licht auf das "Verschwinden" der Daten. Vielleicht wurden durch das Verstellen der Retention policy Daten gelöscht.

                                          H Offline
                                          H Offline
                                          hukio
                                          schrieb am zuletzt editiert von hukio
                                          #22

                                          @marc-berg

                                           SHOW RETENTION POLICIES
                                          name    duration   shardGroupDuration replicaN default
                                          ----    --------   ------------------ -------- -------
                                          autogen 17520h0m0s 168h0m0s           1        true
                                          
                                          

                                          Ist offensichtlich nicht unendlich, wäre 0 h für duration denke ich.
                                          HUK

                                          1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          953

                                          Online

                                          32.5k

                                          Benutzer

                                          81.8k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe