Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Error/Bug
  4. [gelöst] Fehler beim schreiben auf influxdb

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    2.8k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.1k

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.4k

[gelöst] Fehler beim schreiben auf influxdb

Geplant Angeheftet Gesperrt Verschoben Error/Bug
46 Beiträge 5 Kommentatoren 4.2k Aufrufe 4 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • Ben1983B Ben1983

    Hallo, seit einigen Wochen schreibe ich einwandfrei auf meine influx db.

    Heute erscheint das hier:

    2023-05-20 15:07:26.816 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:26.817 - warn: influxdb.0 (22925) Error on writePoint("{"value":1679.96923828125,"time":"2023-05-20T13:07:16.063Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:26.817 - info: influxdb.0 (22925) Add point that had error for alias.0.Allgemein.Leistung.WirkleistungBezugGesamt to buffer again, error-count=1
    2023-05-20 15:07:27.141 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:27.141 - warn: influxdb.0 (22925) Error on writePoint("{"value":178.63128662109375,"time":"2023-05-20T13:07:16.045Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:27.141 - info: influxdb.0 (22925) Add point that had error for alias.0.Talstrasse1B.Leistung.Wirkleistung1B to buffer again, error-count=1
    2023-05-20 15:07:27.149 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:27.151 - warn: influxdb.0 (22925) Error on writePoint("{"value":1831.1326904296875,"time":"2023-05-20T13:07:16.063Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:27.152 - info: influxdb.0 (22925) Add point that had error for alias.0.PV+Speicher.Leistung.WirkleistungPv+Speicher to buffer again, error-count=1
    2023-05-20 15:07:27.163 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:27.164 - warn: influxdb.0 (22925) Error on writePoint("{"value":3741.403025014306,"time":"2023-05-20T13:07:16.525Z","from":"system.adapter.lowpass-filter.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:27.164 - info: influxdb.0 (22925) Add point that had error for alias.0.PV-Anlage.Leistung.WirkleistungPvGefiltert to buffer again, error-count=1
    2023-05-20 15:07:27.228 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:27.228 - warn: influxdb.0 (22925) Error on writePoint("{"value":3740.0432592595444,"time":"2023-05-20T13:07:16.487Z","from":"system.adapter.lowpass-filter.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:27.229 - info: influxdb.0 (22925) Add point that had error for alias.0.PV-Anlage.Leistung.WirkleistungPvGefiltert to buffer again, error-count=2
    2023-05-20 15:07:27.238 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:27.238 - warn: influxdb.0 (22925) Error on writePoint("{"value":7.116965277777778,"time":"2023-05-20T13:07:16.695Z","from":"system.adapter.operating-hours.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:27.238 - info: influxdb.0 (22925) Add point that had error for alias.0.Pool.Logik.betriebsstundenFilterpumpe to buffer again, error-count=1
    2023-05-20 15:07:27.600 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:27.601 - warn: influxdb.0 (22925) Error on writePoint("{"value":7.79,"time":"2023-05-20T13:07:16.668Z","from":"system.adapter.shelly.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:27.601 - info: influxdb.0 (22925) Add point that had error for alias.0.Talstrasse1A.Untermessungen.Leistung.wirkleistungWaschmaschine to buffer again, error-count=1
    2023-05-20 15:07:27.603 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:27.603 - warn: influxdb.0 (22925) Error on writePoint("{"value":5.0919155555555555,"time":"2023-05-20T13:07:16.697Z","from":"system.adapter.operating-hours.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:27.603 - info: influxdb.0 (22925) Add point that had error for alias.0.Pool.Logik.betriebsstundenWaermepumpe to buffer again, error-count=1
    2023-05-20 15:07:28.528 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:28.528 - warn: influxdb.0 (22925) Error on writePoint("{"value":-1964.198974609375,"time":"2023-05-20T13:07:18.059Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:28.528 - info: influxdb.0 (22925) Add point that had error for alias.0.Speicher.Leistung.WirkleistungSpeicher to buffer again, error-count=1
    2023-05-20 15:07:29.007 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:29.008 - warn: influxdb.0 (22925) Error on writePoint("{"value":3815.23876953125,"time":"2023-05-20T13:07:18.059Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:29.008 - info: influxdb.0 (22925) Add point that had error for alias.0.PV-Anlage.Leistung.WirkleistungPv to buffer again, error-count=1
    2023-05-20 15:07:29.432 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:29.432 - warn: influxdb.0 (22925) Error on writePoint("{"value":672.2782592773438,"time":"2023-05-20T13:07:18.060Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:29.432 - info: influxdb.0 (22925) Add point that had error for alias.0.Talstrasse1A.Leistung.Wirkleistung1A to buffer again, error-count=1
    2023-05-20 15:07:29.440 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:29.440 - warn: influxdb.0 (22925) Error on writePoint("{"value":1847.195068359375,"time":"2023-05-20T13:07:18.062Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:29.440 - info: influxdb.0 (22925) Add point that had error for alias.0.PV+Speicher.Leistung.WirkleistungPv+Speicher to buffer again, error-count=2
    2023-05-20 15:07:29.454 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:29.454 - warn: influxdb.0 (22925) Error on writePoint("{"value":-134.32977294921875,"time":"2023-05-20T13:07:18.062Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:29.454 - info: influxdb.0 (22925) Add point that had error for alias.0.Allgemein.Leistung.WirkleistungGesamt to buffer again, error-count=1
    2023-05-20 15:07:29.469 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:29.472 - warn: influxdb.0 (22925) Error on writePoint("{"value":172.68780517578125,"time":"2023-05-20T13:07:18.061Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:29.472 - info: influxdb.0 (22925) Add point that had error for alias.0.Talstrasse1B.Leistung.Wirkleistung1B to buffer again, error-count=2
    2023-05-20 15:07:29.722 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:29.722 - warn: influxdb.0 (22925) Error on writePoint("{"value":1725.826416015625,"time":"2023-05-20T13:07:18.065Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:29.723 - info: influxdb.0 (22925) Add point that had error for alias.0.Allgemein.Leistung.WirkleistungBezugGesamt to buffer again, error-count=2
    2023-05-20 15:07:29.817 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:29.817 - warn: influxdb.0 (22925) Error on writePoint("{"value":4143564.25,"time":"2023-05-20T13:07:18.060Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:29.817 - info: influxdb.0 (22925) Add point that had error for alias.0.Garten.Zaehlerstaende.garten to buffer again, error-count=1
    2023-05-20 15:07:29.820 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:29.820 - warn: influxdb.0 (22925) Error on writePoint("{"value":25114360,"time":"2023-05-20T13:07:18.064Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:29.821 - info: influxdb.0 (22925) Add point that had error for alias.0.Talstrasse1A.Zaehlerstaende.1A to buffer again, error-count=1
    2023-05-20 15:07:29.825 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    2023-05-20 15:07:29.826 - warn: influxdb.0 (22925) Error on writePoint("{"value":4143564.25,"time":"2023-05-20T13:07:18.062Z","from":"system.adapter.janitza-gridvis.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
    2023-05-20 15:07:29.826 - info: influxdb.0 (22925) Add point that had error for alias.0.Garten.Zaehlerstaende.garten to buffer again, error-count=2
    2023-05-20 15:07:29.831 - warn: influxdb.0 (22925) Point could not be written to database: iobroker
    

    Was kann ich machen?
    Adapter und datenbank schon neu gestartet. erscheint immer wieder.
    Das stand im ioBroker Protokoll des DOcker Containers:

    WARN: Write to InfluxDB failed (attempt: 1). m [HttpError]: unexpected error writing points to database: timeout
        at IncomingMessage.<anonymous> (/opt/iobroker/node_modules/@influxdata/influxdb-client/src/impl/node/NodeHttpTransport.ts:354:11)
        at IncomingMessage.emit (node:events:525:35)
        at IncomingMessage.emit (node:domain:489:12)
        at endReadableNT (node:internal/streams/readable:1359:12)
        at processTicksAndRejections (node:internal/process/task_queues:82:21) {
      statusCode: 500,
      statusMessage: 'Internal Server Error',
      body: '{"code":"internal error","message":"unexpected error writing points to database: timeout"}',
      contentType: 'application/json; charset=utf-8',
      json: {
        code: 'internal error',
        message: 'unexpected error writing points to database: timeout'
      },
      code: 'internal error',
      _retryAfter: 0
    
    HomoranH Nicht stören
    HomoranH Nicht stören
    Homoran
    Global Moderator Administrators
    schrieb am zuletzt editiert von
    #5

    @ben1983 sagte in Fehler beim schreiben auf influxdb:

    point that had error for alias.

    Wieviel Punkte sind es wirklich? scheinen mehrfach die selben zu sein.

    Alles Aliase.
    Mit Error.

    Sind diese Aliase noch korrekt konfiguriert?

    kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

    Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

    der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

    1 Antwort Letzte Antwort
    0
    • ? Ein ehemaliger Benutzer

      @ben1983 sagte in Fehler beim schreiben auf influxdb:

      Hallo, seit einigen Wochen schreibe ich einwandfrei auf meine influx db.

      Moin,

      zu aller erst einmal ein Hinweis, https://forum.iobroker.net/topic/51555/hinweise-für-gute-forenbeiträge

      • welche Version von influxDB und wie gehostet, auch Docker oder, oder?
      • Du schreibst seit Wochen und auf einmal geht es nicht mehr, was hast Du alles gemacht?
      • kommst Du ansonsten noch an die Datenbank, z.B. über die CLI?
      • Ist vielleicht der Speicher voll?

      All das teilst Du leider nicht mit.

      VG
      Bernd

      Ben1983B Offline
      Ben1983B Offline
      Ben1983
      schrieb am zuletzt editiert von
      #6

      @dp20eic Sorry.
      Es Ist auch auf einem Docker Container. Der Speicher hat noch mehrere TB frei.
      influxdb V2.7.0
      Auf Grafana sind alle Daten da. Also er schreibt sie wohl.
      @Homoran Wie gesagt, es sind alle Daten da.

      Ich habe jetzt nochmal beide Dockercontainer (iobroker und influxdb) gestartet.
      Bis jetzt geht es.

      HomoranH ? 2 Antworten Letzte Antwort
      0
      • Ben1983B Ben1983

        @dp20eic Sorry.
        Es Ist auch auf einem Docker Container. Der Speicher hat noch mehrere TB frei.
        influxdb V2.7.0
        Auf Grafana sind alle Daten da. Also er schreibt sie wohl.
        @Homoran Wie gesagt, es sind alle Daten da.

        Ich habe jetzt nochmal beide Dockercontainer (iobroker und influxdb) gestartet.
        Bis jetzt geht es.

        HomoranH Nicht stören
        HomoranH Nicht stören
        Homoran
        Global Moderator Administrators
        schrieb am zuletzt editiert von Homoran
        #7

        @ben1983 sagte in Fehler beim schreiben auf influxdb:

        beide Dockercontainer

        Solche eminent wichtige Informationen gehören 7n den Eröffnungspost!
        bitte den Link, den @dp20eic dir gepostet hatte lesen und demnächst befolgen.
        Beim nächsten Mal musst du ihn sonst auswendig lernen!

        kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

        Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

        der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

        ? 1 Antwort Letzte Antwort
        0
        • HomoranH Homoran

          @ben1983 sagte in Fehler beim schreiben auf influxdb:

          beide Dockercontainer

          Solche eminent wichtige Informationen gehören 7n den Eröffnungspost!
          bitte den Link, den @dp20eic dir gepostet hatte lesen und demnächst befolgen.
          Beim nächsten Mal musst du ihn sonst auswendig lernen!

          ? Offline
          ? Offline
          Ein ehemaliger Benutzer
          schrieb am zuletzt editiert von
          #8

          @homoran sagte in Fehler beim schreiben auf influxdb:

          Beim nächsten Mal musst du ihn sonst auswendig lernen!

          🙃😂

          VG
          Bernd

          OliverIOO 1 Antwort Letzte Antwort
          0
          • Ben1983B Ben1983

            @dp20eic Sorry.
            Es Ist auch auf einem Docker Container. Der Speicher hat noch mehrere TB frei.
            influxdb V2.7.0
            Auf Grafana sind alle Daten da. Also er schreibt sie wohl.
            @Homoran Wie gesagt, es sind alle Daten da.

            Ich habe jetzt nochmal beide Dockercontainer (iobroker und influxdb) gestartet.
            Bis jetzt geht es.

            ? Offline
            ? Offline
            Ein ehemaliger Benutzer
            schrieb am zuletzt editiert von
            #9

            @ben1983 sagte in Fehler beim schreiben auf influxdb:

            Auf Grafana sind alle Daten da. Also er schreibt sie wohl.

            Moin,

            wenn Dein System, auf dem die Docker laufen, ausgelastet ist, dann kann es sein, dass die Daten nicht schnell genug abgenommen werden, dann bekommt es zu diesen Timeouts.

            Wie sieht denn die Konfiguration des influxDB Adapters aus, Du könntest dort ein paar Daten sammeln, bevor Du sie wegschreibst.

            10b085f8-ad65-4f88-a537-c6d0abeb3166-grafik.png

            Und wie sieht denn die Docker Konfiguration, CPU, RAM aus?

            VG
            Bernd

            Ben1983B 1 Antwort Letzte Antwort
            0
            • ? Ein ehemaliger Benutzer

              @homoran sagte in Fehler beim schreiben auf influxdb:

              Beim nächsten Mal musst du ihn sonst auswendig lernen!

              🙃😂

              VG
              Bernd

              OliverIOO Offline
              OliverIOO Offline
              OliverIO
              schrieb am zuletzt editiert von
              #10

              @dp20eic

              sowas müsste dann auch in den logs sichtbar sein
              -> applikationslog (hier influxdb)
              -> syslog des containers
              -> syslog des hostsystems

              Meine Adapter und Widgets
              TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
              Links im Profil

              1 Antwort Letzte Antwort
              0
              • ? Ein ehemaliger Benutzer

                @ben1983 sagte in Fehler beim schreiben auf influxdb:

                Auf Grafana sind alle Daten da. Also er schreibt sie wohl.

                Moin,

                wenn Dein System, auf dem die Docker laufen, ausgelastet ist, dann kann es sein, dass die Daten nicht schnell genug abgenommen werden, dann bekommt es zu diesen Timeouts.

                Wie sieht denn die Konfiguration des influxDB Adapters aus, Du könntest dort ein paar Daten sammeln, bevor Du sie wegschreibst.

                10b085f8-ad65-4f88-a537-c6d0abeb3166-grafik.png

                Und wie sieht denn die Docker Konfiguration, CPU, RAM aus?

                VG
                Bernd

                Ben1983B Offline
                Ben1983B Offline
                Ben1983
                schrieb am zuletzt editiert von
                #11

                @dp20eic
                c97d5d39-9861-4cb6-9b5e-01502f1f0069-image.png

                036292f4-b416-4da9-b0e4-460d76f570d1-image.png

                OliverIOO ? 2 Antworten Letzte Antwort
                0
                • Ben1983B Ben1983

                  @dp20eic
                  c97d5d39-9861-4cb6-9b5e-01502f1f0069-image.png

                  036292f4-b416-4da9-b0e4-460d76f570d1-image.png

                  OliverIOO Offline
                  OliverIOO Offline
                  OliverIO
                  schrieb am zuletzt editiert von OliverIO
                  #12

                  @ben1983
                  ah ich sehe influx hat mit http 500 geantwortet.
                  d.h. irgendwas ist bei influx schief gegangen.
                  da musst du auf jeden fall ins applikationslog von influx schauen.
                  https://docs.influxdata.com/influxdb/v2.7/admin/logs/

                  der timeout bedeutet nur, das iobroker nicht innerhalb einer bestimmten zeit geantwortet hat, was influx nicht konnte, wegen unvorhergesehenem abbruch

                  Meine Adapter und Widgets
                  TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                  Links im Profil

                  1 Antwort Letzte Antwort
                  0
                  • Ben1983B Ben1983

                    @dp20eic
                    c97d5d39-9861-4cb6-9b5e-01502f1f0069-image.png

                    036292f4-b416-4da9-b0e4-460d76f570d1-image.png

                    ? Offline
                    ? Offline
                    Ein ehemaliger Benutzer
                    schrieb am zuletzt editiert von
                    #13

                    @ben1983 sagte in Fehler beim schreiben auf influxdb:

                    @dp20eic
                    c97d5d39-9861-4cb6-9b5e-01502f1f0069-image.png

                    036292f4-b416-4da9-b0e4-460d76f570d1-image.png

                    Moin,

                    wirklich nur 108 MB RAM, oder der ohne Begrenzung, nur aktuell verbraucht influxDB nicht mehr?

                    InfluxDB OSS guidelines
                    
                    Run InfluxDB on locally attached solid state drives (SSDs). Other storage configurations have lower performance and may not be able to recover from small interruptions in normal processing.
                    
                    Estimated guidelines include writes per second, queries per second, and number of unique series, CPU, RAM, and IOPS (input/output operations per second).
                    
                    vCPU or CPU RAM IOPS Writes per second Queries* per second Unique series
                    2-4 cores 2-4 GB 500 < 5,000 < 5 < 100,000
                    4-6 cores 8-32 GB 500-1000 < 250,000 < 25 < 1,000,000
                    8+ cores 32+ GB 1000+ > 250,000 > 25 > 1,000,000

                    Nur so als Hinweis, influxDB

                    InfluxDB
                    
                    InfluxDB is a dedicated time series database that borrows many design concepts from **in-memory** databases
                    to improve **write** and **query** performance for time series data specifically. InfluxDB can be configured to use
                    different amounts of memory, write to flash memory for hybrid storage architectures, and writes data to disk
                    using an append-only log to get performance similar to in-memory databases.
                    

                    Wenn bei Dir viele Schreibzugriffe und dann noch Abfragen, z.B. durch Grafana aufeinander treffen, dann ist Speicher gefragt, bin kein Docker Experte, daher kann das, was ich schreibe, auch Quatsch sein, kenne nicht die Mechanismen nicht wie Docker Memory on the Fly zuteilt, ob das schnell genug ist.
                    Was ich damit eigentlich sagen wollte, vielleicht ist es besser dem influxDB Docker feste Werte zuzuweisen.

                    Und wie @OliverIO schrieb, mal die Logs auf dem influxDB Docker durchschauen, was da evtl. geklemmt hat.

                    VG
                    Bernd

                    Ben1983B 2 Antworten Letzte Antwort
                    0
                    • ? Ein ehemaliger Benutzer

                      @ben1983 sagte in Fehler beim schreiben auf influxdb:

                      @dp20eic
                      c97d5d39-9861-4cb6-9b5e-01502f1f0069-image.png

                      036292f4-b416-4da9-b0e4-460d76f570d1-image.png

                      Moin,

                      wirklich nur 108 MB RAM, oder der ohne Begrenzung, nur aktuell verbraucht influxDB nicht mehr?

                      InfluxDB OSS guidelines
                      
                      Run InfluxDB on locally attached solid state drives (SSDs). Other storage configurations have lower performance and may not be able to recover from small interruptions in normal processing.
                      
                      Estimated guidelines include writes per second, queries per second, and number of unique series, CPU, RAM, and IOPS (input/output operations per second).
                      
                      vCPU or CPU RAM IOPS Writes per second Queries* per second Unique series
                      2-4 cores 2-4 GB 500 < 5,000 < 5 < 100,000
                      4-6 cores 8-32 GB 500-1000 < 250,000 < 25 < 1,000,000
                      8+ cores 32+ GB 1000+ > 250,000 > 25 > 1,000,000

                      Nur so als Hinweis, influxDB

                      InfluxDB
                      
                      InfluxDB is a dedicated time series database that borrows many design concepts from **in-memory** databases
                      to improve **write** and **query** performance for time series data specifically. InfluxDB can be configured to use
                      different amounts of memory, write to flash memory for hybrid storage architectures, and writes data to disk
                      using an append-only log to get performance similar to in-memory databases.
                      

                      Wenn bei Dir viele Schreibzugriffe und dann noch Abfragen, z.B. durch Grafana aufeinander treffen, dann ist Speicher gefragt, bin kein Docker Experte, daher kann das, was ich schreibe, auch Quatsch sein, kenne nicht die Mechanismen nicht wie Docker Memory on the Fly zuteilt, ob das schnell genug ist.
                      Was ich damit eigentlich sagen wollte, vielleicht ist es besser dem influxDB Docker feste Werte zuzuweisen.

                      Und wie @OliverIO schrieb, mal die Logs auf dem influxDB Docker durchschauen, was da evtl. geklemmt hat.

                      VG
                      Bernd

                      Ben1983B Offline
                      Ben1983B Offline
                      Ben1983
                      schrieb am zuletzt editiert von
                      #14

                      @dp20eic

                      Starting precreation service	{"log_id": "0hvKzKT0000", "service": "shard-precreation", "check_interval": "10m", "advance_period": "30m"}
                      2023-05-20T13:21:09.048393Z	info	Starting query controller	{"log_id": "0hvKzKT0000", "service": "storage-reads", "concurrency_quota": 1024, "initial_memory_bytes_quota_per_query": 9223372036854775807, "memory_bytes_quota_per_query": 9223372036854775807, "max_memory_bytes": 0, "queue_size": 1024}
                      2023-05-20T13:21:09.054059Z	info	Configuring InfluxQL statement executor (zeros indicate unlimited).	{"log_id": "0hvKzKT0000", "max_select_point": 0, "max_select_series": 0, "max_select_buckets": 0}
                      2023-05-20T13:21:10.249818Z	info	Starting	{"log_id": "0hvKzKT0000", "service": "telemetry", "interval": "8h"}
                      2023-05-20T13:21:10.250071Z	info	Listening	{"log_id": "0hvKzKT0000", "service": "tcp-listener", "transport": "http", "addr": ":8086", "port": 8086}
                      2023-05-20T13:30:14.998921Z	warn	internal error not returned to client	{"log_id": "0hvKzKT0000", "handler": "error_logger", "error": "context canceled"}
                      2023-05-20T13:30:35.214408Z	warn	internal error not returned to client	{"log_id": "0hvKzKT0000", "handler": "error_logger", "error": "context canceled"}
                      2023-05-20T13:31:09.047847Z	info	Cache snapshot (start)	{"log_id": "0hvKzKT0000", "service": "storage-engine", "engine": "tsm1", "op_name": "tsm1_cache_snapshot", "op_event": "start"}
                      2023-05-20T13:31:09.637562Z	info	Snapshot for path written	{"log_id": "0hvKzKT0000", "service": "storage-engine", "engine": "tsm1", "op_name": "tsm1_cache_snapshot", "path": "/var/lib/influxdb2/engine/data/7218bd3b5168e452/autogen/6", "duration": "589.695ms"}
                      2023-05-20T13:31:09.637615Z	info	Cache snapshot (end)	{"log_id": "0hvKzKT0000", "service": "storage-engine", "engine": "tsm1", "op_name": "tsm1_cache_snapshot", "op_event": "end", "op_elapsed": "589.775ms"}
                      
                      
                      OliverIOO ? 2 Antworten Letzte Antwort
                      0
                      • ? Ein ehemaliger Benutzer

                        @ben1983 sagte in Fehler beim schreiben auf influxdb:

                        @dp20eic
                        c97d5d39-9861-4cb6-9b5e-01502f1f0069-image.png

                        036292f4-b416-4da9-b0e4-460d76f570d1-image.png

                        Moin,

                        wirklich nur 108 MB RAM, oder der ohne Begrenzung, nur aktuell verbraucht influxDB nicht mehr?

                        InfluxDB OSS guidelines
                        
                        Run InfluxDB on locally attached solid state drives (SSDs). Other storage configurations have lower performance and may not be able to recover from small interruptions in normal processing.
                        
                        Estimated guidelines include writes per second, queries per second, and number of unique series, CPU, RAM, and IOPS (input/output operations per second).
                        
                        vCPU or CPU RAM IOPS Writes per second Queries* per second Unique series
                        2-4 cores 2-4 GB 500 < 5,000 < 5 < 100,000
                        4-6 cores 8-32 GB 500-1000 < 250,000 < 25 < 1,000,000
                        8+ cores 32+ GB 1000+ > 250,000 > 25 > 1,000,000

                        Nur so als Hinweis, influxDB

                        InfluxDB
                        
                        InfluxDB is a dedicated time series database that borrows many design concepts from **in-memory** databases
                        to improve **write** and **query** performance for time series data specifically. InfluxDB can be configured to use
                        different amounts of memory, write to flash memory for hybrid storage architectures, and writes data to disk
                        using an append-only log to get performance similar to in-memory databases.
                        

                        Wenn bei Dir viele Schreibzugriffe und dann noch Abfragen, z.B. durch Grafana aufeinander treffen, dann ist Speicher gefragt, bin kein Docker Experte, daher kann das, was ich schreibe, auch Quatsch sein, kenne nicht die Mechanismen nicht wie Docker Memory on the Fly zuteilt, ob das schnell genug ist.
                        Was ich damit eigentlich sagen wollte, vielleicht ist es besser dem influxDB Docker feste Werte zuzuweisen.

                        Und wie @OliverIO schrieb, mal die Logs auf dem influxDB Docker durchschauen, was da evtl. geklemmt hat.

                        VG
                        Bernd

                        Ben1983B Offline
                        Ben1983B Offline
                        Ben1983
                        schrieb am zuletzt editiert von
                        #15

                        @dp20eic der Verbraucht gerade nur 108MB. Ist unbegrenzt

                        1 Antwort Letzte Antwort
                        0
                        • Ben1983B Ben1983

                          @dp20eic

                          Starting precreation service	{"log_id": "0hvKzKT0000", "service": "shard-precreation", "check_interval": "10m", "advance_period": "30m"}
                          2023-05-20T13:21:09.048393Z	info	Starting query controller	{"log_id": "0hvKzKT0000", "service": "storage-reads", "concurrency_quota": 1024, "initial_memory_bytes_quota_per_query": 9223372036854775807, "memory_bytes_quota_per_query": 9223372036854775807, "max_memory_bytes": 0, "queue_size": 1024}
                          2023-05-20T13:21:09.054059Z	info	Configuring InfluxQL statement executor (zeros indicate unlimited).	{"log_id": "0hvKzKT0000", "max_select_point": 0, "max_select_series": 0, "max_select_buckets": 0}
                          2023-05-20T13:21:10.249818Z	info	Starting	{"log_id": "0hvKzKT0000", "service": "telemetry", "interval": "8h"}
                          2023-05-20T13:21:10.250071Z	info	Listening	{"log_id": "0hvKzKT0000", "service": "tcp-listener", "transport": "http", "addr": ":8086", "port": 8086}
                          2023-05-20T13:30:14.998921Z	warn	internal error not returned to client	{"log_id": "0hvKzKT0000", "handler": "error_logger", "error": "context canceled"}
                          2023-05-20T13:30:35.214408Z	warn	internal error not returned to client	{"log_id": "0hvKzKT0000", "handler": "error_logger", "error": "context canceled"}
                          2023-05-20T13:31:09.047847Z	info	Cache snapshot (start)	{"log_id": "0hvKzKT0000", "service": "storage-engine", "engine": "tsm1", "op_name": "tsm1_cache_snapshot", "op_event": "start"}
                          2023-05-20T13:31:09.637562Z	info	Snapshot for path written	{"log_id": "0hvKzKT0000", "service": "storage-engine", "engine": "tsm1", "op_name": "tsm1_cache_snapshot", "path": "/var/lib/influxdb2/engine/data/7218bd3b5168e452/autogen/6", "duration": "589.695ms"}
                          2023-05-20T13:31:09.637615Z	info	Cache snapshot (end)	{"log_id": "0hvKzKT0000", "service": "storage-engine", "engine": "tsm1", "op_name": "tsm1_cache_snapshot", "op_event": "end", "op_elapsed": "589.775ms"}
                          
                          
                          OliverIOO Offline
                          OliverIOO Offline
                          OliverIO
                          schrieb am zuletzt editiert von
                          #16

                          @ben1983

                          jetzt braucht man nur noch den richtigen zeitpunkt
                          2023-05-20 15:07:26.817

                          Meine Adapter und Widgets
                          TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                          Links im Profil

                          ? 1 Antwort Letzte Antwort
                          0
                          • OliverIOO OliverIO

                            @ben1983

                            jetzt braucht man nur noch den richtigen zeitpunkt
                            2023-05-20 15:07:26.817

                            ? Offline
                            ? Offline
                            Ein ehemaliger Benutzer
                            schrieb am zuletzt editiert von
                            #17

                            @oliverio sagte in Fehler beim schreiben auf influxdb:

                            @ben1983

                            jetzt braucht man nur noch den richtigen zeitpunkt
                            2023-05-20 15:07:26.817

                            Moin,

                            ist UTC 2023-05-20T13:31:09.637615Z + 2 sollte dann 15:31Uhr

                            VG
                            Bernd

                            OliverIOO 1 Antwort Letzte Antwort
                            0
                            • ? Ein ehemaliger Benutzer

                              @oliverio sagte in Fehler beim schreiben auf influxdb:

                              @ben1983

                              jetzt braucht man nur noch den richtigen zeitpunkt
                              2023-05-20 15:07:26.817

                              Moin,

                              ist UTC 2023-05-20T13:31:09.637615Z + 2 sollte dann 15:31Uhr

                              VG
                              Bernd

                              OliverIOO Offline
                              OliverIOO Offline
                              OliverIO
                              schrieb am zuletzt editiert von OliverIO
                              #18

                              @dp20eic
                              dann startet es 15:21
                              wir benötigen aber 15:07
                              also das vorgänger log wahrscheinlich,
                              je nachdem wie oft neugestartet wurde

                              falls da auch nicht viel drin steht, dann das loglevel erhöhen, sollte aber schon

                              Meine Adapter und Widgets
                              TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                              Links im Profil

                              Ben1983B 1 Antwort Letzte Antwort
                              0
                              • Ben1983B Ben1983

                                @dp20eic

                                Starting precreation service	{"log_id": "0hvKzKT0000", "service": "shard-precreation", "check_interval": "10m", "advance_period": "30m"}
                                2023-05-20T13:21:09.048393Z	info	Starting query controller	{"log_id": "0hvKzKT0000", "service": "storage-reads", "concurrency_quota": 1024, "initial_memory_bytes_quota_per_query": 9223372036854775807, "memory_bytes_quota_per_query": 9223372036854775807, "max_memory_bytes": 0, "queue_size": 1024}
                                2023-05-20T13:21:09.054059Z	info	Configuring InfluxQL statement executor (zeros indicate unlimited).	{"log_id": "0hvKzKT0000", "max_select_point": 0, "max_select_series": 0, "max_select_buckets": 0}
                                2023-05-20T13:21:10.249818Z	info	Starting	{"log_id": "0hvKzKT0000", "service": "telemetry", "interval": "8h"}
                                2023-05-20T13:21:10.250071Z	info	Listening	{"log_id": "0hvKzKT0000", "service": "tcp-listener", "transport": "http", "addr": ":8086", "port": 8086}
                                2023-05-20T13:30:14.998921Z	warn	internal error not returned to client	{"log_id": "0hvKzKT0000", "handler": "error_logger", "error": "context canceled"}
                                2023-05-20T13:30:35.214408Z	warn	internal error not returned to client	{"log_id": "0hvKzKT0000", "handler": "error_logger", "error": "context canceled"}
                                2023-05-20T13:31:09.047847Z	info	Cache snapshot (start)	{"log_id": "0hvKzKT0000", "service": "storage-engine", "engine": "tsm1", "op_name": "tsm1_cache_snapshot", "op_event": "start"}
                                2023-05-20T13:31:09.637562Z	info	Snapshot for path written	{"log_id": "0hvKzKT0000", "service": "storage-engine", "engine": "tsm1", "op_name": "tsm1_cache_snapshot", "path": "/var/lib/influxdb2/engine/data/7218bd3b5168e452/autogen/6", "duration": "589.695ms"}
                                2023-05-20T13:31:09.637615Z	info	Cache snapshot (end)	{"log_id": "0hvKzKT0000", "service": "storage-engine", "engine": "tsm1", "op_name": "tsm1_cache_snapshot", "op_event": "end", "op_elapsed": "589.775ms"}
                                
                                
                                ? Offline
                                ? Offline
                                Ein ehemaliger Benutzer
                                schrieb am zuletzt editiert von
                                #19

                                @ben1983 sagte in Fehler beim schreiben auf influxdb:

                                2023-05-20T13:30:14.998921Z warn internal error not returned to client {"log_id": "0hvKzKT0000", "handler": "error_logger", "error": "context canceled"}
                                2023-05-20T13:30:35.214408Z warn internal error not returned to client {"log_id": "0hvKzKT0000", "handler": "error_logger", "error": "context canceled"}

                                Moin,

                                schau mal hier https://community.influxdata.com/t/execution-of-heavy-queries-result-in-a-crash/22637 da steht einiges, lese aber auch erst noch.

                                VG
                                Bernd

                                1 Antwort Letzte Antwort
                                0
                                • OliverIOO OliverIO

                                  @dp20eic
                                  dann startet es 15:21
                                  wir benötigen aber 15:07
                                  also das vorgänger log wahrscheinlich,
                                  je nachdem wie oft neugestartet wurde

                                  falls da auch nicht viel drin steht, dann das loglevel erhöhen, sollte aber schon

                                  Ben1983B Offline
                                  Ben1983B Offline
                                  Ben1983
                                  schrieb am zuletzt editiert von
                                  #20

                                  @oliverio

                                  Opened file	{"log_id": "0hvK92MG000", "service": "storage-engine", "engine": "tsm1", "service": "filestore", "path": "/var/lib/influxdb2/engine/data/1bb9099d3b7c3e2b/autogen/4/000000007-000000002.tsm", "id": 0, "duration": "10.483ms"}
                                  2023-05-20T13:06:39.732140Z	info	Opened shard	{"log_id": "0hvK92MG000", "service": "storage-engine", "service": "store", "op_name": "tsdb_open", "index_version": "tsi1", "path": "/var/lib/influxdb2/engine/data/1bb9099d3b7c3e2b/autogen/4", "duration": "1615.077ms"}
                                  2023-05-20T13:06:40.087887Z	info	loading changes (end)	{"log_id": "0hvK92MG000", "service": "storage-engine", "engine": "tsm1", "op_name": "field indices", "op_event": "end", "op_elapsed": "899.816ms"}
                                  2023-05-20T13:06:40.088551Z	info	Reading file	{"log_id": "0hvK92MG000", "service": "storage-engine", "engine": "tsm1", "service": "cacheloader", "path": "/var/lib/influxdb2/engine/wal/7218bd3b5168e452/autogen/6/_00001.wal", "size": 1359140}
                                  2023-05-20T13:06:40.675328Z	info	Opened shard	{"log_id": "0hvK92MG000", "service": "storage-engine", "service": "store", "op_name": "tsdb_open", "index_version": "tsi1", "path": "/var/lib/influxdb2/engine/data/7218bd3b5168e452/autogen/6", "duration": "1510.816ms"}
                                  2023-05-20T13:06:40.675775Z	info	Open store (end)	{"log_id": "0hvK92MG000", "service": "storage-engine", "service": "store", "op_name": "tsdb_open", "op_event": "end", "op_elapsed": "4409.592ms"}
                                  2023-05-20T13:06:40.675870Z	info	Starting retention policy enforcement service	{"log_id": "0hvK92MG000", "service": "retention", "check_interval": "30m"}
                                  2023-05-20T13:06:40.675935Z	info	Starting precreation service	{"log_id": "0hvK92MG000", "service": "shard-precreation", "check_interval": "10m", "advance_period": "30m"}
                                  2023-05-20T13:06:40.677588Z	info	Starting query controller	{"log_id": "0hvK92MG000", "service": "storage-reads", "concurrency_quota": 1024, "initial_memory_bytes_quota_per_query": 9223372036854775807, "memory_bytes_quota_per_query": 9223372036854775807, "max_memory_bytes": 0, "queue_size": 1024}
                                  2023-05-20T13:06:40.682348Z	info	Configuring InfluxQL statement executor (zeros indicate unlimited).	{"log_id": "0hvK92MG000", "max_select_point": 0, "max_select_series": 0, "max_select_buckets": 0}
                                  2023-05-20T13:06:42.173468Z	info	Starting	{"log_id": "0hvK92MG000", "service": "telemetry", "interval": "8h"}
                                  2023-05-20T13:06:42.218552Z	info	Listening	{"log_id": "0hvK92MG000", "service": "tcp-listener", "transport": "http", "addr": ":8086", "port": 8086}
                                  2023-05-20T13:20:43.289848Z	warn	internal error not returned to client	{"log_id": "0hvK92MG000", "handler": "error_logger", "error": "context canceled"}
                                  2023-05-20T13:20:43.296515Z	warn	internal error not returned to client	{"log_id": "0hvK92MG000", "handler": "error_logger", "error": "context canceled"}
                                  
                                  
                                  OliverIOO 1 Antwort Letzte Antwort
                                  0
                                  • Ben1983B Ben1983

                                    @oliverio

                                    Opened file	{"log_id": "0hvK92MG000", "service": "storage-engine", "engine": "tsm1", "service": "filestore", "path": "/var/lib/influxdb2/engine/data/1bb9099d3b7c3e2b/autogen/4/000000007-000000002.tsm", "id": 0, "duration": "10.483ms"}
                                    2023-05-20T13:06:39.732140Z	info	Opened shard	{"log_id": "0hvK92MG000", "service": "storage-engine", "service": "store", "op_name": "tsdb_open", "index_version": "tsi1", "path": "/var/lib/influxdb2/engine/data/1bb9099d3b7c3e2b/autogen/4", "duration": "1615.077ms"}
                                    2023-05-20T13:06:40.087887Z	info	loading changes (end)	{"log_id": "0hvK92MG000", "service": "storage-engine", "engine": "tsm1", "op_name": "field indices", "op_event": "end", "op_elapsed": "899.816ms"}
                                    2023-05-20T13:06:40.088551Z	info	Reading file	{"log_id": "0hvK92MG000", "service": "storage-engine", "engine": "tsm1", "service": "cacheloader", "path": "/var/lib/influxdb2/engine/wal/7218bd3b5168e452/autogen/6/_00001.wal", "size": 1359140}
                                    2023-05-20T13:06:40.675328Z	info	Opened shard	{"log_id": "0hvK92MG000", "service": "storage-engine", "service": "store", "op_name": "tsdb_open", "index_version": "tsi1", "path": "/var/lib/influxdb2/engine/data/7218bd3b5168e452/autogen/6", "duration": "1510.816ms"}
                                    2023-05-20T13:06:40.675775Z	info	Open store (end)	{"log_id": "0hvK92MG000", "service": "storage-engine", "service": "store", "op_name": "tsdb_open", "op_event": "end", "op_elapsed": "4409.592ms"}
                                    2023-05-20T13:06:40.675870Z	info	Starting retention policy enforcement service	{"log_id": "0hvK92MG000", "service": "retention", "check_interval": "30m"}
                                    2023-05-20T13:06:40.675935Z	info	Starting precreation service	{"log_id": "0hvK92MG000", "service": "shard-precreation", "check_interval": "10m", "advance_period": "30m"}
                                    2023-05-20T13:06:40.677588Z	info	Starting query controller	{"log_id": "0hvK92MG000", "service": "storage-reads", "concurrency_quota": 1024, "initial_memory_bytes_quota_per_query": 9223372036854775807, "memory_bytes_quota_per_query": 9223372036854775807, "max_memory_bytes": 0, "queue_size": 1024}
                                    2023-05-20T13:06:40.682348Z	info	Configuring InfluxQL statement executor (zeros indicate unlimited).	{"log_id": "0hvK92MG000", "max_select_point": 0, "max_select_series": 0, "max_select_buckets": 0}
                                    2023-05-20T13:06:42.173468Z	info	Starting	{"log_id": "0hvK92MG000", "service": "telemetry", "interval": "8h"}
                                    2023-05-20T13:06:42.218552Z	info	Listening	{"log_id": "0hvK92MG000", "service": "tcp-listener", "transport": "http", "addr": ":8086", "port": 8086}
                                    2023-05-20T13:20:43.289848Z	warn	internal error not returned to client	{"log_id": "0hvK92MG000", "handler": "error_logger", "error": "context canceled"}
                                    2023-05-20T13:20:43.296515Z	warn	internal error not returned to client	{"log_id": "0hvK92MG000", "handler": "error_logger", "error": "context canceled"}
                                    
                                    
                                    OliverIOO Offline
                                    OliverIOO Offline
                                    OliverIO
                                    schrieb am zuletzt editiert von
                                    #21

                                    @ben1983

                                    kannst du bitte mal schauen ob die uhren in beiden containern gleich laufen? also die minuten reichen aus.

                                    das warn internal error not returned könnte passen, aber die zeit passt nicht. da ist der unterschied zu groß

                                    hab auch ein issue gefunden der passen könnte
                                    https://github.com/influxdata/influxdb/issues/24055
                                    allerdings geht es da um große datenmengen.
                                    das schreiben eines datenpunkts ist jetzt wirklich kein großer act
                                    daher könnte es schon sein, das genau zu diesem zeitpunkt die hostmaschine gut ausgelastet ist.
                                    wann läuft dein backup von iobroker oder eines anderen containers?

                                    aber du kannst mal schauen ob man am adapter irgendwo den timeout anpassen kann.

                                    Meine Adapter und Widgets
                                    TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                                    Links im Profil

                                    Ben1983B 1 Antwort Letzte Antwort
                                    0
                                    • OliverIOO OliverIO

                                      @ben1983

                                      kannst du bitte mal schauen ob die uhren in beiden containern gleich laufen? also die minuten reichen aus.

                                      das warn internal error not returned könnte passen, aber die zeit passt nicht. da ist der unterschied zu groß

                                      hab auch ein issue gefunden der passen könnte
                                      https://github.com/influxdata/influxdb/issues/24055
                                      allerdings geht es da um große datenmengen.
                                      das schreiben eines datenpunkts ist jetzt wirklich kein großer act
                                      daher könnte es schon sein, das genau zu diesem zeitpunkt die hostmaschine gut ausgelastet ist.
                                      wann läuft dein backup von iobroker oder eines anderen containers?

                                      aber du kannst mal schauen ob man am adapter irgendwo den timeout anpassen kann.

                                      Ben1983B Offline
                                      Ben1983B Offline
                                      Ben1983
                                      schrieb am zuletzt editiert von
                                      #22

                                      @oliverio sagte in Fehler beim schreiben auf influxdb:

                                      @ben1983

                                      kannst du bitte mal schauen ob die uhren in beiden containern gleich laufen? also die minuten reichen aus.

                                      wie genau mache ich das? :-)

                                      Das Backup läuft nachts um 3 Uhr. Also daran kann es nicht gelegen haben.

                                      OliverIOO 3 Antworten Letzte Antwort
                                      0
                                      • Ben1983B Ben1983

                                        @oliverio sagte in Fehler beim schreiben auf influxdb:

                                        @ben1983

                                        kannst du bitte mal schauen ob die uhren in beiden containern gleich laufen? also die minuten reichen aus.

                                        wie genau mache ich das? :-)

                                        Das Backup läuft nachts um 3 Uhr. Also daran kann es nicht gelegen haben.

                                        OliverIOO Offline
                                        OliverIOO Offline
                                        OliverIO
                                        schrieb am zuletzt editiert von OliverIO
                                        #23

                                        @ben1983

                                        docker oder portainer?

                                        shell öffnen und dann den date befehl ausführen

                                        shell öffnen mit docker:
                                        docker exec -it <container name> /bin/bash

                                        shell öffnen mit portainer
                                        den container auswählen und dann link zu console
                                        und console öffnen

                                        Meine Adapter und Widgets
                                        TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                                        Links im Profil

                                        1 Antwort Letzte Antwort
                                        0
                                        • Ben1983B Ben1983

                                          @oliverio sagte in Fehler beim schreiben auf influxdb:

                                          @ben1983

                                          kannst du bitte mal schauen ob die uhren in beiden containern gleich laufen? also die minuten reichen aus.

                                          wie genau mache ich das? :-)

                                          Das Backup läuft nachts um 3 Uhr. Also daran kann es nicht gelegen haben.

                                          OliverIOO Offline
                                          OliverIOO Offline
                                          OliverIO
                                          schrieb am zuletzt editiert von
                                          #24

                                          @ben1983 sagte in Fehler beim schreiben auf influxdb:

                                          Das Backup läuft nachts um 3 Uhr. Also daran kann es nicht gelegen haben

                                          nachts oder nachmittags? am oder pm
                                          der Fehler trat 15:07 auf

                                          Meine Adapter und Widgets
                                          TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                                          Links im Profil

                                          1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          679

                                          Online

                                          32.6k

                                          Benutzer

                                          82.3k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe