Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. ioBroker Allgemein
  4. IoBroker in VM legt kompletten Proxmox-Server lahm.

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    4.1k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.2k

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.6k

IoBroker in VM legt kompletten Proxmox-Server lahm.

Geplant Angeheftet Gesperrt Verschoben ioBroker Allgemein
27 Beiträge 10 Kommentatoren 2.0k Aufrufe 8 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • a200A a200

    @crunchip scheint ein bekanntes Problem zu sein:

    2025-08-28T14:59:38.912818+02:00 pve kernel: [264641.580371] e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
    2025-08-28T14:59:38.912833+02:00 pve kernel: [264641.580371]   TDH                  <7f>
    2025-08-28T14:59:38.912835+02:00 pve kernel: [264641.580371]   TDT                  <b0>
    2025-08-28T14:59:38.912836+02:00 pve kernel: [264641.580371]   next_to_use          <b0>
    2025-08-28T14:59:38.912837+02:00 pve kernel: [264641.580371]   next_to_clean        <7e>
    2025-08-28T14:59:38.912839+02:00 pve kernel: [264641.580371] buffer_info[next_to_clean]:
    2025-08-28T14:59:38.912840+02:00 pve kernel: [264641.580371]   time_stamp           <10fc1780f>
    2025-08-28T14:59:38.912842+02:00 pve kernel: [264641.580371]   next_to_watch        <7f>
    2025-08-28T14:59:38.912843+02:00 pve kernel: [264641.580371]   jiffies              <10fc19c80>
    2025-08-28T14:59:38.912845+02:00 pve kernel: [264641.580371]   next_to_watch.status <0>
    2025-08-28T14:59:38.912858+02:00 pve kernel: [264641.580371] MAC Status             <40080083>
    2025-08-28T14:59:38.912860+02:00 pve kernel: [264641.580371] PHY Status             <796d>
    2025-08-28T14:59:38.912861+02:00 pve kernel: [264641.580371] PHY 1000BASE-T Status  <3800>
    2025-08-28T14:59:38.912862+02:00 pve kernel: [264641.580371] PHY Extended Status    <3000>
    2025-08-28T14:59:38.912863+02:00 pve kernel: [264641.580371] PCI Status             <10>
    
    root@pve:~/Marek/Proxmox-logfile# grep "Detected Hardware Unit Hang" a |wc -l
    3721
    

    Muss hier weiter gucken: https://forum.proxmox.com/threads/e1000-driver-hang.58284/

    Danke.

    crunchipC Abwesend
    crunchipC Abwesend
    crunchip
    Forum Testing Most Active
    schrieb am zuletzt editiert von
    #16

    @a200 hast du in deiner VM Netzwerk E1000 eingestellt, anstatt VirtIO (paravirtualized)?

    umgestiegen von Proxmox auf Unraid

    1 Antwort Letzte Antwort
    1
    • a200A Offline
      a200A Offline
      a200
      schrieb am zuletzt editiert von a200
      #17

      @crunchip nein. Aber es scheint weniger mit der VM, als mehr mit Proxmox zu tun haben. e1000 ist das physikalische Device bei dem NUC und das scheint ein Problem bei den neuen Kernels zu machen. Ich habe jetzt die empfohlene offloading Einstellung genommen. Mal sehen wie lange es hält.

      Vielen Dank für deine Unterstützung.

      ethtool -K eno1 gso off gro off tso off tx off rx off rxvlan off txvlan off sg off
      

      a0c4850c-a5e6-4b99-9707-d815e8f2bf70-grafik.png

      IoBroker auf QNAP TS-451, Raspi und NUC

      crunchipC David G.D 2 Antworten Letzte Antwort
      0
      • a200A a200

        @crunchip nein. Aber es scheint weniger mit der VM, als mehr mit Proxmox zu tun haben. e1000 ist das physikalische Device bei dem NUC und das scheint ein Problem bei den neuen Kernels zu machen. Ich habe jetzt die empfohlene offloading Einstellung genommen. Mal sehen wie lange es hält.

        Vielen Dank für deine Unterstützung.

        ethtool -K eno1 gso off gro off tso off tx off rx off rxvlan off txvlan off sg off
        

        a0c4850c-a5e6-4b99-9707-d815e8f2bf70-grafik.png

        crunchipC Abwesend
        crunchipC Abwesend
        crunchip
        Forum Testing Most Active
        schrieb am zuletzt editiert von
        #18

        @a200 virtio sollte keine Probleme bereiten und die Performance ist auch besser

        umgestiegen von Proxmox auf Unraid

        1 Antwort Letzte Antwort
        1
        • Kalle BlomquistK Offline
          Kalle BlomquistK Offline
          Kalle Blomquist
          schrieb am zuletzt editiert von Kalle Blomquist
          #19

          @a200
          Wenn bei dir wieder alles läuft und du ein bisschen Zeit hast, schau dir doch mal den Proxmox-Metrikserver an. Damit kann man Probleme schon ganz gut aufspüren.
          Siehe:
          promox1.JPG
          promox2.JPG

          1 Antwort Letzte Antwort
          1
          • a200A a200

            @crunchip nein. Aber es scheint weniger mit der VM, als mehr mit Proxmox zu tun haben. e1000 ist das physikalische Device bei dem NUC und das scheint ein Problem bei den neuen Kernels zu machen. Ich habe jetzt die empfohlene offloading Einstellung genommen. Mal sehen wie lange es hält.

            Vielen Dank für deine Unterstützung.

            ethtool -K eno1 gso off gro off tso off tx off rx off rxvlan off txvlan off sg off
            

            a0c4850c-a5e6-4b99-9707-d815e8f2bf70-grafik.png

            David G.D Online
            David G.D Online
            David G.
            schrieb am zuletzt editiert von
            #20

            @a200 sagte in IoBroker in VM legt kompletten Proxmox-Server lahm.:

            @crunchip nein. Aber es scheint weniger mit der VM, als mehr mit Proxmox zu tun haben. e1000 ist das physikalische Device bei dem NUC und das scheint ein Problem bei den neuen Kernels zu machen. Ich habe jetzt die empfohlene offloading Einstellung genommen. Mal sehen wie lange es hält.

            Vielen Dank für deine Unterstützung.

            ethtool -K eno1 gso off gro off tso off tx off rx off rxvlan off txvlan off sg off
            

            a0c4850c-a5e6-4b99-9707-d815e8f2bf70-grafik.png

            Das kann es gut gewesen sein.
            Ich hatte genau das selbe Problem.
            Bei mir ist es nach oder bei großen Backups aufgetreten die der PBS über das Internet versendet hat.

            Bei mir reicht ein

            ethtool -K enp0s31f6 tso off gso off gro off
            

            damit alles sauber läuft.
            Hab es allerdings nach den letzten 2-3 reboots nicht mehr gemacht, ka ob sich das Problem mittlerweile gelöst hat....

            Zeigt eure Lovelace-Visualisierung klick
            (Auch ideal um sich Anregungen zu holen)

            Meine Tabellen für eure Visualisierung klick

            Meister MopperM 1 Antwort Letzte Antwort
            0
            • isi07I Offline
              isi07I Offline
              isi07
              schrieb am zuletzt editiert von
              #21

              Ist die Proxmox Installation aktuell? Ich erinner mich, dass ich das beschriebene Verhalten auch mal hatte mit einem NUC und einem e1000 Netzwerkadapter. Hin und wieder war der komplette Host nicht mehr erreichbar und konnte nur über den Knopf aus und wieder eingeschaltet werden. Ist aber bestimmt schon zwei Jahre her.
              Bei mir lag es damals an Problemen mit dem Treiber im Kernel. Da musste ich dann für eine weile per dpks (oder so ähnlich) eine neuere Treiberversion hinzufügen. Seit einer Weile läuft bei mir aber alles wieder stabil mit dem aktuellen Kernel ohne Erweiterung.
              Vielleicht mal im Proxmox forum suchen.
              Viel Erfolg

              David G.D 1 Antwort Letzte Antwort
              0
              • isi07I isi07

                Ist die Proxmox Installation aktuell? Ich erinner mich, dass ich das beschriebene Verhalten auch mal hatte mit einem NUC und einem e1000 Netzwerkadapter. Hin und wieder war der komplette Host nicht mehr erreichbar und konnte nur über den Knopf aus und wieder eingeschaltet werden. Ist aber bestimmt schon zwei Jahre her.
                Bei mir lag es damals an Problemen mit dem Treiber im Kernel. Da musste ich dann für eine weile per dpks (oder so ähnlich) eine neuere Treiberversion hinzufügen. Seit einer Weile läuft bei mir aber alles wieder stabil mit dem aktuellen Kernel ohne Erweiterung.
                Vielleicht mal im Proxmox forum suchen.
                Viel Erfolg

                David G.D Online
                David G.D Online
                David G.
                schrieb am zuletzt editiert von
                #22

                @isi07

                Ich hatte es auf jedem Fall bis vor ca 6 Monaten, System immer aktuell.

                Ob es wirklich weg ist, oder nur nicht mehr auftritt weil die großen Backups durch sind weiß ich nicht.
                Das Problem trat auch erst seit den großen Backups auf.

                Zeigt eure Lovelace-Visualisierung klick
                (Auch ideal um sich Anregungen zu holen)

                Meine Tabellen für eure Visualisierung klick

                MartinPM 1 Antwort Letzte Antwort
                0
                • David G.D David G.

                  @isi07

                  Ich hatte es auf jedem Fall bis vor ca 6 Monaten, System immer aktuell.

                  Ob es wirklich weg ist, oder nur nicht mehr auftritt weil die großen Backups durch sind weiß ich nicht.
                  Das Problem trat auch erst seit den großen Backups auf.

                  MartinPM Offline
                  MartinPM Offline
                  MartinP
                  schrieb am zuletzt editiert von
                  #23

                  Allgemein an das Forum - welche(n) physischen Netzwerk-Adapter man hat, kann man in der pve Shell folgendermaßen herausfinden:

                  root@pve:~# lshw -short |grep network
                  /0/100/1c.3/0          enp3s0     network     RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller
                  

                  Intel(R) Celeron(R) CPU N3000 @ 1.04GHz 8G RAM 480G SSD
                  Virtualization : unprivileged lxc container (debian 13) on Proxmox 9.1.5)
                  Linux pve 6.17.9-1-pve
                  6 GByte RAM für den Container
                  Fritzbox 6591 FW 8.20 (Vodafone Leih-Box)
                  Remote-Access über Wireguard der Fritzbox

                  1 Antwort Letzte Antwort
                  1
                  • David G.D David G.

                    @a200 sagte in IoBroker in VM legt kompletten Proxmox-Server lahm.:

                    @crunchip nein. Aber es scheint weniger mit der VM, als mehr mit Proxmox zu tun haben. e1000 ist das physikalische Device bei dem NUC und das scheint ein Problem bei den neuen Kernels zu machen. Ich habe jetzt die empfohlene offloading Einstellung genommen. Mal sehen wie lange es hält.

                    Vielen Dank für deine Unterstützung.

                    ethtool -K eno1 gso off gro off tso off tx off rx off rxvlan off txvlan off sg off
                    

                    a0c4850c-a5e6-4b99-9707-d815e8f2bf70-grafik.png

                    Das kann es gut gewesen sein.
                    Ich hatte genau das selbe Problem.
                    Bei mir ist es nach oder bei großen Backups aufgetreten die der PBS über das Internet versendet hat.

                    Bei mir reicht ein

                    ethtool -K enp0s31f6 tso off gso off gro off
                    

                    damit alles sauber läuft.
                    Hab es allerdings nach den letzten 2-3 reboots nicht mehr gemacht, ka ob sich das Problem mittlerweile gelöst hat....

                    Meister MopperM Online
                    Meister MopperM Online
                    Meister Mopper
                    schrieb am zuletzt editiert von Meister Mopper
                    #24

                    @david-g sagte in IoBroker in VM legt kompletten Proxmox-Server lahm.:

                    Hab es allerdings nach den letzten 2-3 reboots nicht mehr gemacht, ka ob sich das Problem mittlerweile gelöst hat....

                    Ich hatte das Problem auch (Kernelversion weiß ich nicht mehr).

                    Seit Proxmox 9 (auch der neueste Kernel) ist das Problem (noch) nicht wieder aufgetreten.
                    Toi, toi, toi ...

                    Proxmox und HA

                    a200A 1 Antwort Letzte Antwort
                    1
                    • Meister MopperM Meister Mopper

                      @david-g sagte in IoBroker in VM legt kompletten Proxmox-Server lahm.:

                      Hab es allerdings nach den letzten 2-3 reboots nicht mehr gemacht, ka ob sich das Problem mittlerweile gelöst hat....

                      Ich hatte das Problem auch (Kernelversion weiß ich nicht mehr).

                      Seit Proxmox 9 (auch der neueste Kernel) ist das Problem (noch) nicht wieder aufgetreten.
                      Toi, toi, toi ...

                      a200A Offline
                      a200A Offline
                      a200
                      schrieb am zuletzt editiert von
                      #25

                      @meister-mopper Moin. Habe am Samstag Upgrade auf Proxmox 9 (6.14.11-1-pve) gemacht. Heute morgen war der Server nicht erreichbar. Also wenigstens für mich ist es keine Lösung. Trotzdem Danke.

                      IoBroker auf QNAP TS-451, Raspi und NUC

                      David G.D 1 Antwort Letzte Antwort
                      0
                      • a200A a200

                        @meister-mopper Moin. Habe am Samstag Upgrade auf Proxmox 9 (6.14.11-1-pve) gemacht. Heute morgen war der Server nicht erreichbar. Also wenigstens für mich ist es keine Lösung. Trotzdem Danke.

                        David G.D Online
                        David G.D Online
                        David G.
                        schrieb am zuletzt editiert von
                        #26

                        @a200

                        Dann Pack dir den Befehl einfach in den Autostart oder lass ihn ohne Trigger von einem JS oder Blockly (Zb über Linux Control) an Proxmox senden.

                        Zeigt eure Lovelace-Visualisierung klick
                        (Auch ideal um sich Anregungen zu holen)

                        Meine Tabellen für eure Visualisierung klick

                        a200A 1 Antwort Letzte Antwort
                        0
                        • David G.D David G.

                          @a200

                          Dann Pack dir den Befehl einfach in den Autostart oder lass ihn ohne Trigger von einem JS oder Blockly (Zb über Linux Control) an Proxmox senden.

                          a200A Offline
                          a200A Offline
                          a200
                          schrieb am zuletzt editiert von
                          #27

                          @david-g Habe auf dem NUC ein Script gebaut:

                          #!/bin/bash
                          
                          ROUTER_IP=192.168.10.1
                          LOGFILE="/var/log/network_check/network_check.log"
                          
                          if ( ping -c3 $ROUTER_IP >/dev/null 2>&1 )
                          then
                             echo "$(date '+%Y-%m-%d %H:%M:%S') - ping $ROUTER_IP - OK" >> $LOGFILE
                          else
                             echo "$(date '+%Y-%m-%d %H:%M:%S') - ping $ROUTER_IP - ERROR" >> $LOGFILE
                             service networking restart  >> $LOGFILE 2>&1
                             echo "$(date '+%Y-%m-%d %H:%M:%S') - service networking restart - done" >> $LOGFILE
                          fi
                          

                          Auf einem zweiten Proxmox habe ich Gatus: https://gatus.io installiert, dann bekomme ich wenigstens eine Telegram Nachricht geschickt.

                          IoBroker auf QNAP TS-451, Raspi und NUC

                          1 Antwort Letzte Antwort
                          0
                          Antworten
                          • In einem neuen Thema antworten
                          Anmelden zum Antworten
                          • Älteste zuerst
                          • Neuste zuerst
                          • Meiste Stimmen


                          Support us

                          ioBroker
                          Community Adapters
                          Donate
                          FAQ Cloud / IOT
                          HowTo: Node.js-Update
                          HowTo: Backup/Restore
                          Downloads
                          BLOG

                          588

                          Online

                          32.7k

                          Benutzer

                          82.4k

                          Themen

                          1.3m

                          Beiträge
                          Community
                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                          ioBroker Community 2014-2025
                          logo
                          • Anmelden

                          • Du hast noch kein Konto? Registrieren

                          • Anmelden oder registrieren, um zu suchen
                          • Erster Beitrag
                            Letzter Beitrag
                          0
                          • Home
                          • Aktuell
                          • Tags
                          • Ungelesen 0
                          • Kategorien
                          • Unreplied
                          • Beliebt
                          • GitHub
                          • Docu
                          • Hilfe