Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Einsteigerfragen
  4. InfluxDB2 aufeinmal sehr hohe CPU Auslastung

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.8k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    2.2k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    16
    1
    3.3k

InfluxDB2 aufeinmal sehr hohe CPU Auslastung

Geplant Angeheftet Gesperrt Verschoben Einsteigerfragen
6 Beiträge 3 Kommentatoren 278 Aufrufe 3 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • Kirk1701K Offline
    Kirk1701K Offline
    Kirk1701
    schrieb am zuletzt editiert von Kirk1701
    #1

    Hallo zusammen,

    ich habe auf meinen Raspi 5 mit 8gb RAM seit ca 7 Monate ein Grafana Dashboard laufen.

    Dazu einige Adapter welche die Daten in meine InfluxDB2 schaufeln.

    Vorgestern sprang aufeinmal die Temperatur die sonst immer bei 50°C war sprunghaft auf 85°C dauerhaft.

    Top zeigt auch tatsächlich eine CPU Auslastung von teils über 100% für den Dienst influxdb.

    Tasks: 163 total,   1 running, 162 sleeping,   0 stopped,   0 zombie
    %Cpu(s): 53.3 us,  3.4 sy,  0.0 ni, 41.3 id,  1.4 wa,  0.0 hi,  0.5 si,  0.0 st
    MiB Mem :   8052.3 total,   3135.4 free,   1612.4 used,   3408.3 buff/cache
    MiB Swap:    512.0 total,    512.0 free,      0.0 used.   6440.0 avail Mem
    
        PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     TIME+ COMMAND
        755 influxdb  20   0   19.0g 960880 733728 S 112.0  11.7  31:17.00 influxd
      17792 iobroker  20   0 5281216 129984  46080 S  57.8   1.6   0:02.31 io.tibberlink.0
      17582 iobroker  20   0 5363744 401664  40448 S  22.3   4.9   0:12.79 iobroker.js-con
      17642 iobroker  20   0 5241360  81568  40960 S  16.9   1.0   0:02.80 io.influxdb.0
      17717 iobroker  20   0 5031344 134480  40448 S   8.3   1.6   0:02.65 io.mqtt.0
      17760 iobroker  20   0 5010800 107984  40448 S   5.3   1.3   0:01.62 io.sonoff.0
      17681 iobroker  20   0 4970448  74432  39936 S   4.0   0.9   0:01.22 io.rpi2.0
      17777 iobroker  20   0 5075504 103120  40448 S   1.3   1.3   0:01.78 io.modbus.0
      15658 root      20   0   60480   8192   3584 S   0.7   0.1   0:08.93 rtl_433
      17600 iobroker  20   0 5382144 218368  46592 S   0.7   2.6   0:05.69 io.admin.0
         17 root      20   0       0      0      0 I   0.3   0.0   0:00.63 rcu_preempt
        819 grafana   20   0 1722144 271856 156160 S   0.3   3.3   1:04.06 grafana
      16424 root      20   0       0      0      0 I   0.3   0.0   0:00.27 kworker/2:1-events
      17378 root      20   0   20352  10224   7680 S   0.3   0.1   0:00.11 sshd
          1 root      20   0  169808  11680   8192 S   0.0   0.1   0:02.76 systemd
          2 root      20   0       0      0      0 S   0.0   0.0   0:00.00 kthreadd
          3 root      20   0       0      0      0 S   0.0   0.0   0:00.00 pool_workqueue_release
          4 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-rcu_g
          5 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-rcu_p
          6 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-slub_
          7 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-netns
          9 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/0:0H-events_highpri
         11 root      20   0       0      0      0 I   0.0   0.0   0:00.00 kworker/u8:0-netns
         12 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-mm_pe
         13 root      20   0       0      0      0 I   0.0   0.0   0:00.00 rcu_tasks_kthread
         14 root      20   0       0      0      0 I   0.0   0.0   0:00.00 rcu_tasks_rude_kthread
         15 root      20   0       0      0      0 I   0.0   0.0   0:00.00 rcu_tasks_trace_kthread
         16 root      20   0       0      0      0 S   0.0   0.0   0:00.13 ksoftirqd/0
         18 root      rt   0       0      0      0 S   0.0   0.0   0:00.00 migration/0
         19 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/0
         20 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/1
         21 root      rt   0       0      0      0 S   0.0   0.0   0:00.00 migration/1
    root@raspberrypi:~# vcgencmd measure_temp
    temp=71.9'C
    
    

    Hat jemand einen Tip was hier passiert sein kann?

    Danke und Gruß

    mcm1957M Thomas BraunT 2 Antworten Letzte Antwort
    0
    • Kirk1701K Kirk1701

      Hallo zusammen,

      ich habe auf meinen Raspi 5 mit 8gb RAM seit ca 7 Monate ein Grafana Dashboard laufen.

      Dazu einige Adapter welche die Daten in meine InfluxDB2 schaufeln.

      Vorgestern sprang aufeinmal die Temperatur die sonst immer bei 50°C war sprunghaft auf 85°C dauerhaft.

      Top zeigt auch tatsächlich eine CPU Auslastung von teils über 100% für den Dienst influxdb.

      Tasks: 163 total,   1 running, 162 sleeping,   0 stopped,   0 zombie
      %Cpu(s): 53.3 us,  3.4 sy,  0.0 ni, 41.3 id,  1.4 wa,  0.0 hi,  0.5 si,  0.0 st
      MiB Mem :   8052.3 total,   3135.4 free,   1612.4 used,   3408.3 buff/cache
      MiB Swap:    512.0 total,    512.0 free,      0.0 used.   6440.0 avail Mem
      
          PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     TIME+ COMMAND
          755 influxdb  20   0   19.0g 960880 733728 S 112.0  11.7  31:17.00 influxd
        17792 iobroker  20   0 5281216 129984  46080 S  57.8   1.6   0:02.31 io.tibberlink.0
        17582 iobroker  20   0 5363744 401664  40448 S  22.3   4.9   0:12.79 iobroker.js-con
        17642 iobroker  20   0 5241360  81568  40960 S  16.9   1.0   0:02.80 io.influxdb.0
        17717 iobroker  20   0 5031344 134480  40448 S   8.3   1.6   0:02.65 io.mqtt.0
        17760 iobroker  20   0 5010800 107984  40448 S   5.3   1.3   0:01.62 io.sonoff.0
        17681 iobroker  20   0 4970448  74432  39936 S   4.0   0.9   0:01.22 io.rpi2.0
        17777 iobroker  20   0 5075504 103120  40448 S   1.3   1.3   0:01.78 io.modbus.0
        15658 root      20   0   60480   8192   3584 S   0.7   0.1   0:08.93 rtl_433
        17600 iobroker  20   0 5382144 218368  46592 S   0.7   2.6   0:05.69 io.admin.0
           17 root      20   0       0      0      0 I   0.3   0.0   0:00.63 rcu_preempt
          819 grafana   20   0 1722144 271856 156160 S   0.3   3.3   1:04.06 grafana
        16424 root      20   0       0      0      0 I   0.3   0.0   0:00.27 kworker/2:1-events
        17378 root      20   0   20352  10224   7680 S   0.3   0.1   0:00.11 sshd
            1 root      20   0  169808  11680   8192 S   0.0   0.1   0:02.76 systemd
            2 root      20   0       0      0      0 S   0.0   0.0   0:00.00 kthreadd
            3 root      20   0       0      0      0 S   0.0   0.0   0:00.00 pool_workqueue_release
            4 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-rcu_g
            5 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-rcu_p
            6 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-slub_
            7 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-netns
            9 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/0:0H-events_highpri
           11 root      20   0       0      0      0 I   0.0   0.0   0:00.00 kworker/u8:0-netns
           12 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-mm_pe
           13 root      20   0       0      0      0 I   0.0   0.0   0:00.00 rcu_tasks_kthread
           14 root      20   0       0      0      0 I   0.0   0.0   0:00.00 rcu_tasks_rude_kthread
           15 root      20   0       0      0      0 I   0.0   0.0   0:00.00 rcu_tasks_trace_kthread
           16 root      20   0       0      0      0 S   0.0   0.0   0:00.13 ksoftirqd/0
           18 root      rt   0       0      0      0 S   0.0   0.0   0:00.00 migration/0
           19 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/0
           20 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/1
           21 root      rt   0       0      0      0 S   0.0   0.0   0:00.00 migration/1
      root@raspberrypi:~# vcgencmd measure_temp
      temp=71.9'C
      
      

      Hat jemand einen Tip was hier passiert sein kann?

      Danke und Gruß

      mcm1957M Online
      mcm1957M Online
      mcm1957
      schrieb am zuletzt editiert von mcm1957
      #2

      @kirk1701

      Schau dir das log der Influx mal an.

      Hatte ich auch. Influx db war zu groß (oder defekt ?) und konnte nicht geöffnet werden. Dadurch hat sie dauernd gestartet und das System dicht gemacht.

      Als weizteres indic kannst du die pid des influx prozesses anschaun. Wenn die wechselt startet das Ding ziemlich sicher andauernd neu

      Entwicklung u Betreuung: envertech-pv, hoymiles-ms, ns-client, pid, snmp Adapter;
      Support Repositoryverwaltung.

      Wer Danke sagen will, kann nen Kaffee spendieren: https://paypal.me/mcm1957atiobroker

      LESEN - gute Forenbeitrage

      Kirk1701K 1 Antwort Letzte Antwort
      0
      • Kirk1701K Kirk1701

        Hallo zusammen,

        ich habe auf meinen Raspi 5 mit 8gb RAM seit ca 7 Monate ein Grafana Dashboard laufen.

        Dazu einige Adapter welche die Daten in meine InfluxDB2 schaufeln.

        Vorgestern sprang aufeinmal die Temperatur die sonst immer bei 50°C war sprunghaft auf 85°C dauerhaft.

        Top zeigt auch tatsächlich eine CPU Auslastung von teils über 100% für den Dienst influxdb.

        Tasks: 163 total,   1 running, 162 sleeping,   0 stopped,   0 zombie
        %Cpu(s): 53.3 us,  3.4 sy,  0.0 ni, 41.3 id,  1.4 wa,  0.0 hi,  0.5 si,  0.0 st
        MiB Mem :   8052.3 total,   3135.4 free,   1612.4 used,   3408.3 buff/cache
        MiB Swap:    512.0 total,    512.0 free,      0.0 used.   6440.0 avail Mem
        
            PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     TIME+ COMMAND
            755 influxdb  20   0   19.0g 960880 733728 S 112.0  11.7  31:17.00 influxd
          17792 iobroker  20   0 5281216 129984  46080 S  57.8   1.6   0:02.31 io.tibberlink.0
          17582 iobroker  20   0 5363744 401664  40448 S  22.3   4.9   0:12.79 iobroker.js-con
          17642 iobroker  20   0 5241360  81568  40960 S  16.9   1.0   0:02.80 io.influxdb.0
          17717 iobroker  20   0 5031344 134480  40448 S   8.3   1.6   0:02.65 io.mqtt.0
          17760 iobroker  20   0 5010800 107984  40448 S   5.3   1.3   0:01.62 io.sonoff.0
          17681 iobroker  20   0 4970448  74432  39936 S   4.0   0.9   0:01.22 io.rpi2.0
          17777 iobroker  20   0 5075504 103120  40448 S   1.3   1.3   0:01.78 io.modbus.0
          15658 root      20   0   60480   8192   3584 S   0.7   0.1   0:08.93 rtl_433
          17600 iobroker  20   0 5382144 218368  46592 S   0.7   2.6   0:05.69 io.admin.0
             17 root      20   0       0      0      0 I   0.3   0.0   0:00.63 rcu_preempt
            819 grafana   20   0 1722144 271856 156160 S   0.3   3.3   1:04.06 grafana
          16424 root      20   0       0      0      0 I   0.3   0.0   0:00.27 kworker/2:1-events
          17378 root      20   0   20352  10224   7680 S   0.3   0.1   0:00.11 sshd
              1 root      20   0  169808  11680   8192 S   0.0   0.1   0:02.76 systemd
              2 root      20   0       0      0      0 S   0.0   0.0   0:00.00 kthreadd
              3 root      20   0       0      0      0 S   0.0   0.0   0:00.00 pool_workqueue_release
              4 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-rcu_g
              5 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-rcu_p
              6 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-slub_
              7 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-netns
              9 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/0:0H-events_highpri
             11 root      20   0       0      0      0 I   0.0   0.0   0:00.00 kworker/u8:0-netns
             12 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker/R-mm_pe
             13 root      20   0       0      0      0 I   0.0   0.0   0:00.00 rcu_tasks_kthread
             14 root      20   0       0      0      0 I   0.0   0.0   0:00.00 rcu_tasks_rude_kthread
             15 root      20   0       0      0      0 I   0.0   0.0   0:00.00 rcu_tasks_trace_kthread
             16 root      20   0       0      0      0 S   0.0   0.0   0:00.13 ksoftirqd/0
             18 root      rt   0       0      0      0 S   0.0   0.0   0:00.00 migration/0
             19 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/0
             20 root      20   0       0      0      0 S   0.0   0.0   0:00.00 cpuhp/1
             21 root      rt   0       0      0      0 S   0.0   0.0   0:00.00 migration/1
        root@raspberrypi:~# vcgencmd measure_temp
        temp=71.9'C
        
        

        Hat jemand einen Tip was hier passiert sein kann?

        Danke und Gruß

        Thomas BraunT Online
        Thomas BraunT Online
        Thomas Braun
        Most Active
        schrieb am zuletzt editiert von Thomas Braun
        #3

        @kirk1701 sagte in InfluxDB2 aufeinmal sehr hohe CPU Auslastung:

        root@raspberrypi

        Damit kann alles passiert sein...

        Verdammte AXT, HAMPELT DOCH NICHT IMMER ALS SCHEISS ROOT ÜBER DIE KISTEN...

        In Logs schauen und prüfen was da passiert...

        Linux-Werkzeugkasten:
        https://forum.iobroker.net/topic/42952/der-kleine-iobroker-linux-werkzeugkasten
        NodeJS Fixer Skript:
        https://forum.iobroker.net/topic/68035/iob-node-fix-skript
        iob_diag: curl -sLf -o diag.sh https://iobroker.net/diag.sh && bash diag.sh

        1 Antwort Letzte Antwort
        2
        • mcm1957M mcm1957

          @kirk1701

          Schau dir das log der Influx mal an.

          Hatte ich auch. Influx db war zu groß (oder defekt ?) und konnte nicht geöffnet werden. Dadurch hat sie dauernd gestartet und das System dicht gemacht.

          Als weizteres indic kannst du die pid des influx prozesses anschaun. Wenn die wechselt startet das Ding ziemlich sicher andauernd neu

          Kirk1701K Offline
          Kirk1701K Offline
          Kirk1701
          schrieb am zuletzt editiert von Kirk1701
          #4

          @mcm1957 ,

          danke für deinen Tip.

          Wie kann denn eine Datenbank zu groß werden? In der Tat läuft das Dashboard jetzt schon einige Monate und es werden alle 10sek Werte geschrieben.

          Kann man bei InfluxDB2 eventuell die Datenbank "auto" prüfen lassen?

          Wie groß darf denn eine InfluxDB2 werden bevor es Probleme gibt? Ich schaue heute Abend mal ob man mit den Log etwas (oder ich) anfangen kann.

          Das Problem trat plötzlich und unerwartet auf siehe Temperaturverlauf.

          Screenshot_20250818_121659.jpg

          Danke und Gruß

          mcm1957M 1 Antwort Letzte Antwort
          0
          • Kirk1701K Kirk1701

            @mcm1957 ,

            danke für deinen Tip.

            Wie kann denn eine Datenbank zu groß werden? In der Tat läuft das Dashboard jetzt schon einige Monate und es werden alle 10sek Werte geschrieben.

            Kann man bei InfluxDB2 eventuell die Datenbank "auto" prüfen lassen?

            Wie groß darf denn eine InfluxDB2 werden bevor es Probleme gibt? Ich schaue heute Abend mal ob man mit den Log etwas (oder ich) anfangen kann.

            Das Problem trat plötzlich und unerwartet auf siehe Temperaturverlauf.

            Screenshot_20250818_121659.jpg

            Danke und Gruß

            mcm1957M Online
            mcm1957M Online
            mcm1957
            schrieb am zuletzt editiert von
            #5

            @kirk1701
            Bei mir hat sie beim Start gemeldet fass das Memory ausgeht u ist gecrashed. Kam zu restart loop u hoher cpu last bei ewigen restarts.

            Habs nicht weiter analysiert. Wenn der db server bei dir nicht crashed ist was anderes.

            Entwicklung u Betreuung: envertech-pv, hoymiles-ms, ns-client, pid, snmp Adapter;
            Support Repositoryverwaltung.

            Wer Danke sagen will, kann nen Kaffee spendieren: https://paypal.me/mcm1957atiobroker

            LESEN - gute Forenbeitrage

            Kirk1701K 1 Antwort Letzte Antwort
            0
            • mcm1957M mcm1957

              @kirk1701
              Bei mir hat sie beim Start gemeldet fass das Memory ausgeht u ist gecrashed. Kam zu restart loop u hoher cpu last bei ewigen restarts.

              Habs nicht weiter analysiert. Wenn der db server bei dir nicht crashed ist was anderes.

              Kirk1701K Offline
              Kirk1701K Offline
              Kirk1701
              schrieb am zuletzt editiert von Kirk1701
              #6

              @mcm1957

              Tja, so wie es aussieht hat es die Partiton nach 7 Monaten voll geschrieben....

              Filesystem     1K-blocks     Used Available Use% Mounted on
              udev             4089360        0   4089360   0% /dev
              tmpfs             825680     7360    818320   1% /run
              /dev/nvme0n1p2  50347112 11500156  36750884  24% /
              tmpfs            4128352        0   4128352   0% /dev/shm
              tmpfs               5120       48      5072   1% /run/lock
              /dev/nvme0n1p1    522230    57458    464772  12% /boot/firmware
              /dev/nvme0n1p5  19849964 18467376    342204  99% /media/datenbank
              /dev/nvme0n1p6 906993596  4537336 856310272   1% /media/netzlaufwerk
              /dev/sda3      239241612 10205832 216810300   5% /media/backup
              tmpfs             825664        0    825664   0% /run/user/0
              
              

              Ich zieh die mal größer und werde berichten.

              Gruß

              Nachtrag... die 20Gb waren einfach voll :cry:

              Filesystem     1K-blocks     Used Available Use% Mounted on
              udev             4089360        0   4089360   0% /dev
              tmpfs             825680     7376    818304   1% /run
              /dev/nvme0n1p2  50347112 11501104  36749936  24% /
              tmpfs            4128352        0   4128352   0% /dev/shm
              tmpfs               5120       48      5072   1% /run/lock
              /dev/nvme0n1p1    522230    57458    464772  12% /boot/firmware
              /dev/nvme0n1p5 125945132 18173248 101341420  16% /media/datenbank
              /dev/nvme0n1p6 805195880  4537336 759683756   1% /media/netzlaufwerk
              /dev/sda3      239241612 10205832 216810300   5% /media/backup
              tmpfs             825664        0    825664   0% /run/user/0
              
              

              Nun läuft wieder alles :-)

              1 Antwort Letzte Antwort
              0
              Antworten
              • In einem neuen Thema antworten
              Anmelden zum Antworten
              • Älteste zuerst
              • Neuste zuerst
              • Meiste Stimmen


              Support us

              ioBroker
              Community Adapters
              Donate

              838

              Online

              32.4k

              Benutzer

              81.5k

              Themen

              1.3m

              Beiträge
              Community
              Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
              ioBroker Community 2014-2025
              logo
              • Anmelden

              • Du hast noch kein Konto? Registrieren

              • Anmelden oder registrieren, um zu suchen
              • Erster Beitrag
                Letzter Beitrag
              0
              • Home
              • Aktuell
              • Tags
              • Ungelesen 0
              • Kategorien
              • Unreplied
              • Beliebt
              • GitHub
              • Docu
              • Hilfe