Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. ioBroker Docker - InfluxDB Error bei hoher Disk I/O

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    14
    1
    202

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    575

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    1.8k

ioBroker Docker - InfluxDB Error bei hoher Disk I/O

Geplant Angeheftet Gesperrt Verschoben Off Topic
61 Beiträge 9 Kommentatoren 9.3k Aufrufe 8 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • ? Ein ehemaliger Benutzer

    @hennerich sagte in ioBroker Docker - InfluxDB Error bei hoher Disk I/O:

    Wo genau muss ich nachschauen und worauf soll ich achten?

    Moin,

    nur als Beispiel, da ich keine influxDB auf meiner Syno als Docker habe, aber wenn Du auf der Syno Standard-Docker ohne Portainer nutzt, dann sollten die Logs hier einsehbar sein.

    Beispiel:
    5bbc25e3-2e84-4e5a-9e87-82600dc9d526-grafik.png

    Du kannst auch mal im Ressourcenmonitor der Syno schauen, ob da etwas auffälliges zu sehen ist
    ad4e872d-c56e-4fce-a5b3-8fcc14dbe1da-grafik.png

    VG
    Bernd

    H Offline
    H Offline
    hennerich
    schrieb am zuletzt editiert von
    #51

    Hey, danke für eure Ideen.
    Ich hab auch Portainer und kann in die Logs schauen.
    Nur hab ich davon keine Ahnung. Sowas steht da drin:

    ts=2023-05-27T10:00:50.482078Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:01:00.399919Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:01:03.580933Z lvl=info msg="Error exhausting result iterator" log_id=0i2QNuH0000 service=task-executor error="runtime error @25:8-25:71: check: failed to evaluate map function: 20:40-20:49: interpolated expression produced a null value" name=wide-to12
    
    ts=2023-05-27T10:01:10.398528Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:01:16.183890Z lvl=error msg="Failed to finish run" log_id=0i2QNuH0000 service=task-executor taskID=0ab8955a404fa000 runID=0b432937d8689000 error=timeout
    
    ts=2023-05-27T10:01:20.401253Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:01:30.422068Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:01:40.394011Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:01:50.449177Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:02:00.398830Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:02:02.966146Z lvl=info msg="Error exhausting result iterator" log_id=0i2QNuH0000 service=task-executor error="runtime error @25:8-25:71: check: failed to evaluate map function: 20:40-20:49: interpolated expression produced a null value" name=wide-to12
    
    ts=2023-05-27T10:02:10.429115Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:02:16.016547Z lvl=error msg="Failed to finish run" log_id=0i2QNuH0000 service=task-executor taskID=0ab8955a404fa000 runID=0b43297270a89000 error=timeout
    
    ts=2023-05-27T10:02:20.443523Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:02:30.408063Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:02:40.403524Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:02:50.394245Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:03:00.463353Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:03:03.611349Z lvl=info msg="Error exhausting result iterator" log_id=0i2QNuH0000 service=task-executor error="runtime error @25:8-25:71: check: failed to evaluate map function: 20:40-20:49: interpolated expression produced a null value" name=wide-to12
    
    ts=2023-05-27T10:03:10.524662Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:03:16.126425Z lvl=error msg="Failed to finish run" log_id=0i2QNuH0000 service=task-executor taskID=0ab8955a404fa000 runID=0b4329ad08689000 error=timeout
    
    ts=2023-05-27T10:03:20.424070Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:03:28.204102Z lvl=info msg="Retention policy deletion check (start)" log_id=0i2QNuH0000 service=retention op_name=retention_delete_check op_event=start
    
    ts=2023-05-27T10:03:28.204975Z lvl=info msg="Retention policy deletion check (end)" log_id=0i2QNuH0000 service=retention op_name=retention_delete_check op_event=end op_elapsed=0.896ms
    
    ts=2023-05-27T10:03:30.422651Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:03:40.401910Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:03:50.465587Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    
    ts=2023-05-27T10:04:00.415541Z lvl=error msg="Unable to write gathered points" log_id=0i2QNuH0000 service=scraper scraper-name="OSS Monitoring" error=timeout
    

    Seit gestern ist das ioBroker Log auf knapp 1GB angewachsen. Ich restarte jetzt den Adapter und lösche das Log.
    Dann schauen wir mal, ob die 120s etwas gebracht haben.

    Tutorial UVR1611 C.M.I. Integration
    Tutorial SolarEdge Integration via ModBus

    1 Antwort Letzte Antwort
    0
    • H Offline
      H Offline
      hennerich
      schrieb am zuletzt editiert von
      #52

      Update: als ich den Adapter neu gestartet habe, sind die Meldungen direkt wieder aufgetreten.
      Ich kann nur vermuten, dass das an den 120s gelegen hat, denn nachdem ich den Wert zurück auf 0s (default) gestellt hatte, waren die Fehler wieder weg.

      Tutorial UVR1611 C.M.I. Integration
      Tutorial SolarEdge Integration via ModBus

      ? 1 Antwort Letzte Antwort
      0
      • H hennerich

        Update: als ich den Adapter neu gestartet habe, sind die Meldungen direkt wieder aufgetreten.
        Ich kann nur vermuten, dass das an den 120s gelegen hat, denn nachdem ich den Wert zurück auf 0s (default) gestellt hatte, waren die Fehler wieder weg.

        ? Offline
        ? Offline
        Ein ehemaliger Benutzer
        schrieb am zuletzt editiert von
        #53

        @hennerich sagte in ioBroker Docker - InfluxDB Error bei hoher Disk I/O:

        Update: als ich den Adapter neu gestartet habe, sind die Meldungen direkt wieder aufgetreten.
        Ich kann nur vermuten, dass das an den 120s gelegen hat, denn nachdem ich den Wert zurück auf 0s (default) gestellt hatte, waren die Fehler wieder weg.

        Moin,

        wie @Marc-Berg schon gesagt hat, 120s sind zu viel, denn als Standard ist 0, und in den Beispielen sind es ms also wenn Du mit diesem Parameter spielen möchtest, dann eher im ms Bereich und nicht im sek. Bereich.

        Erklärung des Parameters https://docs.influxdata.com/influxdb/v2.7/reference/config-options/#influxd-flag-47

        storage-wal-fsync-delay
        
        Duration a write will wait before fsyncing. A duration greater than 0 batches multiple fsync calls. This is useful for slower disks or when WAL write contention is present.
        

        Vielleicht ist das der bessere Wert, den Du anpassen kannst, Standard sind 10 sek. da kannst Du ja mal in Fünfer Schritten, die Zeit anpassen, INFLUXD_STORAGE_WRITE_TIMEOUT

        storage-write-timeout
        
        Maximum amount of time the storage engine will process a write request before timing out.
        

        VG
        Bernd

        H 1 Antwort Letzte Antwort
        1
        • ? Ein ehemaliger Benutzer

          @hennerich sagte in ioBroker Docker - InfluxDB Error bei hoher Disk I/O:

          Update: als ich den Adapter neu gestartet habe, sind die Meldungen direkt wieder aufgetreten.
          Ich kann nur vermuten, dass das an den 120s gelegen hat, denn nachdem ich den Wert zurück auf 0s (default) gestellt hatte, waren die Fehler wieder weg.

          Moin,

          wie @Marc-Berg schon gesagt hat, 120s sind zu viel, denn als Standard ist 0, und in den Beispielen sind es ms also wenn Du mit diesem Parameter spielen möchtest, dann eher im ms Bereich und nicht im sek. Bereich.

          Erklärung des Parameters https://docs.influxdata.com/influxdb/v2.7/reference/config-options/#influxd-flag-47

          storage-wal-fsync-delay
          
          Duration a write will wait before fsyncing. A duration greater than 0 batches multiple fsync calls. This is useful for slower disks or when WAL write contention is present.
          

          Vielleicht ist das der bessere Wert, den Du anpassen kannst, Standard sind 10 sek. da kannst Du ja mal in Fünfer Schritten, die Zeit anpassen, INFLUXD_STORAGE_WRITE_TIMEOUT

          storage-write-timeout
          
          Maximum amount of time the storage engine will process a write request before timing out.
          

          VG
          Bernd

          H Offline
          H Offline
          hennerich
          schrieb am zuletzt editiert von hennerich
          #54

          Danke Bernd, hab ich eingestellt.
          Du sag mal, wo genau in der Influx Doku hast du den denn gefunden? Wenn ich nach dem Parameter in Google suche, finde ich nicht wirklich was.

          [Edit]
          Habs gefunden: https://docs.influxdata.com/influxdb/v2.7/reference/config-options/#storage-write-timeout

          Tutorial UVR1611 C.M.I. Integration
          Tutorial SolarEdge Integration via ModBus

          ? 1 Antwort Letzte Antwort
          0
          • H hennerich

            Danke Bernd, hab ich eingestellt.
            Du sag mal, wo genau in der Influx Doku hast du den denn gefunden? Wenn ich nach dem Parameter in Google suche, finde ich nicht wirklich was.

            [Edit]
            Habs gefunden: https://docs.influxdata.com/influxdb/v2.7/reference/config-options/#storage-write-timeout

            ? Offline
            ? Offline
            Ein ehemaliger Benutzer
            schrieb am zuletzt editiert von
            #55

            @hennerich sagte in ioBroker Docker - InfluxDB Error bei hoher Disk I/O:

            Danke Bernd, hab ich eingestellt.
            Du sag mal, wo genau in der Influx Doku hast du den denn gefunden? Wenn ich nach dem Parameter in Google suche, finde ich nicht wirklich was.

            Moin,

            ich stöber immer beim Hersteller selbst :)
            Das ist die Einstiegsseite https://docs.influxdata.com/influxdb/v2.7/# und dann entweder in der Suche oben links.
            Das ist die Seite mit den Optionen https://docs.influxdata.com/influxdb/v2.7/reference/config-options/#

            VG
            Bernd

            1 Antwort Letzte Antwort
            1
            • H Offline
              H Offline
              hennerich
              schrieb am zuletzt editiert von
              #56

              kleines Zwischenfazit: heute Nacht war alles gut, kein Anstieg zu verzeichnen
              Mal schauen wie sich das die nächsten Tage verhält

              Tutorial UVR1611 C.M.I. Integration
              Tutorial SolarEdge Integration via ModBus

              H 1 Antwort Letzte Antwort
              0
              • H hennerich

                kleines Zwischenfazit: heute Nacht war alles gut, kein Anstieg zu verzeichnen
                Mal schauen wie sich das die nächsten Tage verhält

                H Offline
                H Offline
                hennerich
                schrieb am zuletzt editiert von
                #57

                So, ich hatte zwar zwischendrin (irgendwann mal im Laufe des Tages) wieder einen Vorfall, aber bis jetzt scheint es Nachts nach der Sicherung immer zu funktionieren.

                Tutorial UVR1611 C.M.I. Integration
                Tutorial SolarEdge Integration via ModBus

                ? 1 Antwort Letzte Antwort
                0
                • H hennerich

                  So, ich hatte zwar zwischendrin (irgendwann mal im Laufe des Tages) wieder einen Vorfall, aber bis jetzt scheint es Nachts nach der Sicherung immer zu funktionieren.

                  ? Offline
                  ? Offline
                  Ein ehemaliger Benutzer
                  schrieb am zuletzt editiert von
                  #58

                  @hennerich sagte in ioBroker Docker - InfluxDB Error bei hoher Disk I/O:

                  So, ich hatte zwar zwischendrin (irgendwann mal im Laufe des Tages) wieder einen Vorfall,

                  Moin,

                  erst einmal schön, dass es bei Dir jetzt etwas ruhiger zugeht und alles so weit funktioniert.

                  Wenn es passieren solltest, Du mal schauen, was Du gerade gemacht hast, am/im System und/oder schauen, was da die DiskStation gerade gemacht hat, vielleicht lief da gerade ein aufwändiger Task.

                  VG
                  Bernd

                  1 Antwort Letzte Antwort
                  0
                  • R Offline
                    R Offline
                    RikDRS
                    schrieb am zuletzt editiert von RikDRS
                    #59

                    @glasfaser said in ioBroker Docker - InfluxDB Error bei hoher Disk I/O:

                    Ich kenne deine Grundeinstellungen in der Influx Instanz nicht ,
                    du könntest versuchen die Schreibaktionen zu sammeln

                    a60ca362-56bf-42be-8fc8-c9b17aae7b9d-grafik.png

                    sie werden dann zwischengespeichert und einmalig von Influx in der eingestellten Zeit versendet .

                    Nachteil , sollte etwas in der Zwischenspeicherung / Zeit passieren , sind die Daten weg .

                    Bedenke .. Hyper Backup braucht viel Leistung , habe daher die Zeiten ( mehere Regeln ) versetzt eingestellt

                    Danke für diesen Tipp. Ich bin in den letzten Wochen ebenfalls mit dem oben beschriebenen Problem konfrontiert worden.
                    Habe nun versuchsweise die Schreibaktionen zusammenfassen auf 5 gestellt. Der Fehler tritt nicht mehr auf. Nun habe ich es seit drei Tagen auf 2 eingestellt, ebenfalls keine Fehlermeldungen mehr bis jetzt.

                    R 1 Antwort Letzte Antwort
                    0
                    • R RikDRS

                      @glasfaser said in ioBroker Docker - InfluxDB Error bei hoher Disk I/O:

                      Ich kenne deine Grundeinstellungen in der Influx Instanz nicht ,
                      du könntest versuchen die Schreibaktionen zu sammeln

                      a60ca362-56bf-42be-8fc8-c9b17aae7b9d-grafik.png

                      sie werden dann zwischengespeichert und einmalig von Influx in der eingestellten Zeit versendet .

                      Nachteil , sollte etwas in der Zwischenspeicherung / Zeit passieren , sind die Daten weg .

                      Bedenke .. Hyper Backup braucht viel Leistung , habe daher die Zeiten ( mehere Regeln ) versetzt eingestellt

                      Danke für diesen Tipp. Ich bin in den letzten Wochen ebenfalls mit dem oben beschriebenen Problem konfrontiert worden.
                      Habe nun versuchsweise die Schreibaktionen zusammenfassen auf 5 gestellt. Der Fehler tritt nicht mehr auf. Nun habe ich es seit drei Tagen auf 2 eingestellt, ebenfalls keine Fehlermeldungen mehr bis jetzt.

                      R Offline
                      R Offline
                      RikDRS
                      schrieb am zuletzt editiert von
                      #60

                      zu früh gefreut, der Fehler / das Problem tritt bei mir wieder auf...

                      Marc BergM 1 Antwort Letzte Antwort
                      0
                      • R RikDRS

                        zu früh gefreut, der Fehler / das Problem tritt bei mir wieder auf...

                        Marc BergM Offline
                        Marc BergM Offline
                        Marc Berg
                        Most Active
                        schrieb am zuletzt editiert von
                        #61

                        @rikdrs sagte in ioBroker Docker - InfluxDB Error bei hoher Disk I/O:

                        zu früh gefreut, der Fehler / das Problem tritt bei mir wieder auf...

                        Das hätte mich auch gewundert, da die vermeintliche Lösung am Problem vorbei geht. Dies besteht aus meiner Sicht darin, dass die InfluxDB regelmäßig Aufräum ("Compactions")-Arbeiten durchführt. Diese sind durch eine sehr starke I/O-Last erkennbar. Wenn das Verhältnis (Menge der Daten / Leistungsfähigkeit der Hardware) zu schlecht wird, laufen diese Jobs extrem lang, in dieser Zeit sind Write-Errors zu beobachten.

                        Du könntest zum einen versuchen, die Anzahl der "Concurrent compactions" auf "1" zu setzen.

                        Wesentlich erfolgversprechender ist es aber, die Menge an Daten radikal zu reduzieren. Schau mal, wo die meisten herkommen:

                        from(bucket: "iobroker")
                        |> range(start: -10y)
                        |> filter(fn: (r) => r["_field"] == "value")
                        |> count()
                        |> group()
                        |> keep(columns: ["_measurement", "_value"])
                        |> sort(columns: ["_value"], desc: true)
                        |> rename(columns: {_value: "Anzahl"})
                        

                        NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                        Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                        Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                        1 Antwort Letzte Antwort
                        0
                        Antworten
                        • In einem neuen Thema antworten
                        Anmelden zum Antworten
                        • Älteste zuerst
                        • Neuste zuerst
                        • Meiste Stimmen


                        Support us

                        ioBroker
                        Community Adapters
                        Donate

                        961

                        Online

                        32.5k

                        Benutzer

                        81.8k

                        Themen

                        1.3m

                        Beiträge
                        Community
                        Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                        ioBroker Community 2014-2025
                        logo
                        • Anmelden

                        • Du hast noch kein Konto? Registrieren

                        • Anmelden oder registrieren, um zu suchen
                        • Erster Beitrag
                          Letzter Beitrag
                        0
                        • Home
                        • Aktuell
                        • Tags
                        • Ungelesen 0
                        • Kategorien
                        • Unreplied
                        • Beliebt
                        • GitHub
                        • Docu
                        • Hilfe