Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. Proxmox
  5. Neuer Proxmox Kernel verfügbar

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    14
    1
    429

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    613

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    1.8k

Neuer Proxmox Kernel verfügbar

Geplant Angeheftet Gesperrt Verschoben Proxmox
21 Beiträge 12 Kommentatoren 2.7k Aufrufe 10 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • MartinPM MartinP

    Keine Probleme beim Update

    Linux pve 6.8.12-10-pve #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-10 (2025-04-18T07:39Z) x86_64

    arteckA Offline
    arteckA Offline
    arteck
    Developer Most Active
    schrieb am zuletzt editiert von
    #2

    @martinp sagte in Neuer Proxmox Kernel verfügbar:

    Keine Probleme beim Update

    Linux pve 6.8.12-10-pve #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-10 (2025-04-18T07:39Z) x86_64

    na und jetzt ???

    zigbee hab ich, zwave auch, nuc's genauso und HA auch

    S 1 Antwort Letzte Antwort
    1
    • arteckA arteck

      @martinp sagte in Neuer Proxmox Kernel verfügbar:

      Keine Probleme beim Update

      Linux pve 6.8.12-10-pve #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-10 (2025-04-18T07:39Z) x86_64

      na und jetzt ???

      S Abwesend
      S Abwesend
      Shadowhunter23
      schrieb am zuletzt editiert von
      #3

      @arteck sagte in Neuer Proxmox Kernel verfügbar:

      na und jetzt ???

      :+1: nach oben das bei @MartinP alles bestens ist :innocent:

      Proxmox 9 HA-Cluster mit 3x HP prodesk 400 G6 i5
      Bei einem downvote bitte melden, es könnte sein, dass dieser ungewollt ist!

      haselchenH 1 Antwort Letzte Antwort
      0
      • S Shadowhunter23

        @arteck sagte in Neuer Proxmox Kernel verfügbar:

        na und jetzt ???

        :+1: nach oben das bei @MartinP alles bestens ist :innocent:

        haselchenH Offline
        haselchenH Offline
        haselchen
        Most Active
        schrieb am zuletzt editiert von haselchen
        #4

        @shadowhunter23

        Das mag bei seinem System so sein ….. 😎😉

        • duckundwech •

        Synology DS218+ & 2 x Fujitsu Esprimo (VM/Container) + FritzBox7590 + 2 AVM 3000 Repeater & Homematic & HUE & Osram & Xiaomi, NPM 10.9.4, Nodejs 22.21.0 ,JS Controller 7.0.7 ,Admin 7.7.19

        1 Antwort Letzte Antwort
        0
        • MartinPM MartinP

          Keine Probleme beim Update

          Linux pve 6.8.12-10-pve #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-10 (2025-04-18T07:39Z) x86_64

          Meister MopperM Offline
          Meister MopperM Offline
          Meister Mopper
          schrieb am zuletzt editiert von
          #5

          @martinp sagte in Neuer Proxmox Kernel verfügbar:

          Keine Probleme beim Update

          Woher willst du das wissen.

          Beim vorletzten Kernel-Update bekam ich erst nach Tagen Probleme mit der Netzwerkkarte und alle Maschinen eines node migrierten auf andere nodes.

          Proxmox und HA

          1 Antwort Letzte Antwort
          1
          • Dr. BakteriusD Offline
            Dr. BakteriusD Offline
            Dr. Bakterius
            Most Active
            schrieb am zuletzt editiert von
            #6

            Läuft bei mir seit drei Tagen ohne Probleme. Hatte aber auch bisher nie welche.

            1 Antwort Letzte Antwort
            1
            • MartinPM MartinP

              Keine Probleme beim Update

              Linux pve 6.8.12-10-pve #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-10 (2025-04-18T07:39Z) x86_64

              AgrippinenserA Offline
              AgrippinenserA Offline
              Agrippinenser
              schrieb am zuletzt editiert von
              #7

              @martinp

              vor ca. 3 Wochen habe Proxmox auf 8.4.1 gesetzt. Seitdem war der NUC mittlerweile 6x nicht erreichbar.
              Kernel ist 6.8.12-9-pve. Nach Neustart des NUC läuft dieser erst einmal wieder.

              Da ich nicht gerade über tiefgreifende Linuxkentnisse verfüge habe ich von weiteren Upgrades erst mal die Finger gelassen. Ich sehe aber jetzt das du 6.8.12-10-pve verwendest. Vielleicht sollte ich doch noch einmal upgraden.

              May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Deactivated successfully.
              May 02 11:15:18 pve systemd[1]: Stopped pve-ha-crm.service - PVE Cluster HA Resource Manager Daemon.
              May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Consumed 1min 17.903s CPU time.
              May 02 11:15:18 pve systemd[1]: Stopping watchdog-mux.service - Proxmox VE watchdog multiplexer...
              May 02 11:15:18 pve watchdog-mux[594]: got terminate request
              May 02 11:15:18 pve watchdog-mux[594]: clean exit
              May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Deactivated successfully.
              May 02 11:15:18 pve systemd[1]: Stopped watchdog-mux.service - Proxmox VE watchdog multiplexer.
              May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Consumed 23.028s CPU time.
              May 02 11:15:18 pve systemd[1]: pveproxy.service: Deactivated successfully.
              May 02 11:15:18 pve systemd[1]: Stopped pveproxy.service - PVE API Proxy Server.
              May 02 11:15:18 pve systemd[1]: pveproxy.service: Consumed 54min 15.066s CPU time.
              May 02 11:15:18 pve systemd[1]: Stopped target pve-storage.target - PVE Storage Target.
              May 02 11:15:18 pve systemd[1]: Stopped target ceph.target - ceph target allowing to start/stop all ceph*@.service instances at once.
              May 02 11:15:18 pve systemd[1]: Stopped target ceph-fuse.target - ceph target allowing to start/stop all ceph-fuse@.service instances at once.
              May 02 11:15:18 pve systemd[1]: Stopping pvedaemon.service - PVE API Daemon...
              May 02 11:15:18 pve systemd[1]: Stopping ssh.service - OpenBSD Secure Shell server...
              May 02 11:15:18 pve sshd[712]: Received signal 15; terminating.
              May 02 11:15:18 pve systemd[1]: ssh.service: Deactivated successfully.
              May 02 11:15:18 pve systemd[1]: Stopped ssh.service - OpenBSD Secure Shell server.
              May 02 11:15:19 pve pvedaemon[933]: received signal TERM
              May 02 11:15:19 pve pvedaemon[933]: server closing
              May 02 11:15:19 pve pvedaemon[1879148]: worker exit
              May 02 11:15:19 pve pvedaemon[1904628]: worker exit
              May 02 11:15:19 pve pvedaemon[1883231]: worker exit
              May 02 11:15:19 pve pvedaemon[933]: worker 1904628 finished
              May 02 11:15:19 pve pvedaemon[933]: worker 1879148 finished
              May 02 11:15:19 pve pvedaemon[933]: worker 1883231 finished
              May 02 11:15:19 pve pvedaemon[933]: server stopped
              May 02 11:15:19 pve kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
                TDH                  <92>
                TDT                  <c9>
                next_to_use          <c9>
                next_to_clean        <91>
              buffer_info[next_to_clean]:
                time_stamp           <13c7893cf>
                next_to_watch        <92>
                jiffies              <13dc1b400>
                next_to_watch.status <0>
              MAC Status             <40080083>
              PHY Status             <796d>
              PHY 1000BASE-T Status  <7c00>
              PHY Extended Status    <3000>
              PCI Status             <10>
              

              Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

              Thomas BraunT da_WoodyD David G.D 3 Antworten Letzte Antwort
              0
              • AgrippinenserA Agrippinenser

                @martinp

                vor ca. 3 Wochen habe Proxmox auf 8.4.1 gesetzt. Seitdem war der NUC mittlerweile 6x nicht erreichbar.
                Kernel ist 6.8.12-9-pve. Nach Neustart des NUC läuft dieser erst einmal wieder.

                Da ich nicht gerade über tiefgreifende Linuxkentnisse verfüge habe ich von weiteren Upgrades erst mal die Finger gelassen. Ich sehe aber jetzt das du 6.8.12-10-pve verwendest. Vielleicht sollte ich doch noch einmal upgraden.

                May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Deactivated successfully.
                May 02 11:15:18 pve systemd[1]: Stopped pve-ha-crm.service - PVE Cluster HA Resource Manager Daemon.
                May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Consumed 1min 17.903s CPU time.
                May 02 11:15:18 pve systemd[1]: Stopping watchdog-mux.service - Proxmox VE watchdog multiplexer...
                May 02 11:15:18 pve watchdog-mux[594]: got terminate request
                May 02 11:15:18 pve watchdog-mux[594]: clean exit
                May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Deactivated successfully.
                May 02 11:15:18 pve systemd[1]: Stopped watchdog-mux.service - Proxmox VE watchdog multiplexer.
                May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Consumed 23.028s CPU time.
                May 02 11:15:18 pve systemd[1]: pveproxy.service: Deactivated successfully.
                May 02 11:15:18 pve systemd[1]: Stopped pveproxy.service - PVE API Proxy Server.
                May 02 11:15:18 pve systemd[1]: pveproxy.service: Consumed 54min 15.066s CPU time.
                May 02 11:15:18 pve systemd[1]: Stopped target pve-storage.target - PVE Storage Target.
                May 02 11:15:18 pve systemd[1]: Stopped target ceph.target - ceph target allowing to start/stop all ceph*@.service instances at once.
                May 02 11:15:18 pve systemd[1]: Stopped target ceph-fuse.target - ceph target allowing to start/stop all ceph-fuse@.service instances at once.
                May 02 11:15:18 pve systemd[1]: Stopping pvedaemon.service - PVE API Daemon...
                May 02 11:15:18 pve systemd[1]: Stopping ssh.service - OpenBSD Secure Shell server...
                May 02 11:15:18 pve sshd[712]: Received signal 15; terminating.
                May 02 11:15:18 pve systemd[1]: ssh.service: Deactivated successfully.
                May 02 11:15:18 pve systemd[1]: Stopped ssh.service - OpenBSD Secure Shell server.
                May 02 11:15:19 pve pvedaemon[933]: received signal TERM
                May 02 11:15:19 pve pvedaemon[933]: server closing
                May 02 11:15:19 pve pvedaemon[1879148]: worker exit
                May 02 11:15:19 pve pvedaemon[1904628]: worker exit
                May 02 11:15:19 pve pvedaemon[1883231]: worker exit
                May 02 11:15:19 pve pvedaemon[933]: worker 1904628 finished
                May 02 11:15:19 pve pvedaemon[933]: worker 1879148 finished
                May 02 11:15:19 pve pvedaemon[933]: worker 1883231 finished
                May 02 11:15:19 pve pvedaemon[933]: server stopped
                May 02 11:15:19 pve kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
                  TDH                  <92>
                  TDT                  <c9>
                  next_to_use          <c9>
                  next_to_clean        <91>
                buffer_info[next_to_clean]:
                  time_stamp           <13c7893cf>
                  next_to_watch        <92>
                  jiffies              <13dc1b400>
                  next_to_watch.status <0>
                MAC Status             <40080083>
                PHY Status             <796d>
                PHY 1000BASE-T Status  <7c00>
                PHY Extended Status    <3000>
                PCI Status             <10>
                
                Thomas BraunT Online
                Thomas BraunT Online
                Thomas Braun
                Most Active
                schrieb am zuletzt editiert von
                #8

                @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                Da ich nicht gerade über tiefgreifende Linuxkentnisse verfüge habe ich von weiteren Upgrades erst mal die Finger gelassen.

                Gerade DANN spielt man die aktuelsten Updates/Upgrades ein.

                Linux-Werkzeugkasten:
                https://forum.iobroker.net/topic/42952/der-kleine-iobroker-linux-werkzeugkasten
                NodeJS Fixer Skript:
                https://forum.iobroker.net/topic/68035/iob-node-fix-skript
                iob_diag: curl -sLf -o diag.sh https://iobroker.net/diag.sh && bash diag.sh

                AgrippinenserA 1 Antwort Letzte Antwort
                0
                • AgrippinenserA Agrippinenser

                  @martinp

                  vor ca. 3 Wochen habe Proxmox auf 8.4.1 gesetzt. Seitdem war der NUC mittlerweile 6x nicht erreichbar.
                  Kernel ist 6.8.12-9-pve. Nach Neustart des NUC läuft dieser erst einmal wieder.

                  Da ich nicht gerade über tiefgreifende Linuxkentnisse verfüge habe ich von weiteren Upgrades erst mal die Finger gelassen. Ich sehe aber jetzt das du 6.8.12-10-pve verwendest. Vielleicht sollte ich doch noch einmal upgraden.

                  May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Deactivated successfully.
                  May 02 11:15:18 pve systemd[1]: Stopped pve-ha-crm.service - PVE Cluster HA Resource Manager Daemon.
                  May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Consumed 1min 17.903s CPU time.
                  May 02 11:15:18 pve systemd[1]: Stopping watchdog-mux.service - Proxmox VE watchdog multiplexer...
                  May 02 11:15:18 pve watchdog-mux[594]: got terminate request
                  May 02 11:15:18 pve watchdog-mux[594]: clean exit
                  May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Deactivated successfully.
                  May 02 11:15:18 pve systemd[1]: Stopped watchdog-mux.service - Proxmox VE watchdog multiplexer.
                  May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Consumed 23.028s CPU time.
                  May 02 11:15:18 pve systemd[1]: pveproxy.service: Deactivated successfully.
                  May 02 11:15:18 pve systemd[1]: Stopped pveproxy.service - PVE API Proxy Server.
                  May 02 11:15:18 pve systemd[1]: pveproxy.service: Consumed 54min 15.066s CPU time.
                  May 02 11:15:18 pve systemd[1]: Stopped target pve-storage.target - PVE Storage Target.
                  May 02 11:15:18 pve systemd[1]: Stopped target ceph.target - ceph target allowing to start/stop all ceph*@.service instances at once.
                  May 02 11:15:18 pve systemd[1]: Stopped target ceph-fuse.target - ceph target allowing to start/stop all ceph-fuse@.service instances at once.
                  May 02 11:15:18 pve systemd[1]: Stopping pvedaemon.service - PVE API Daemon...
                  May 02 11:15:18 pve systemd[1]: Stopping ssh.service - OpenBSD Secure Shell server...
                  May 02 11:15:18 pve sshd[712]: Received signal 15; terminating.
                  May 02 11:15:18 pve systemd[1]: ssh.service: Deactivated successfully.
                  May 02 11:15:18 pve systemd[1]: Stopped ssh.service - OpenBSD Secure Shell server.
                  May 02 11:15:19 pve pvedaemon[933]: received signal TERM
                  May 02 11:15:19 pve pvedaemon[933]: server closing
                  May 02 11:15:19 pve pvedaemon[1879148]: worker exit
                  May 02 11:15:19 pve pvedaemon[1904628]: worker exit
                  May 02 11:15:19 pve pvedaemon[1883231]: worker exit
                  May 02 11:15:19 pve pvedaemon[933]: worker 1904628 finished
                  May 02 11:15:19 pve pvedaemon[933]: worker 1879148 finished
                  May 02 11:15:19 pve pvedaemon[933]: worker 1883231 finished
                  May 02 11:15:19 pve pvedaemon[933]: server stopped
                  May 02 11:15:19 pve kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
                    TDH                  <92>
                    TDT                  <c9>
                    next_to_use          <c9>
                    next_to_clean        <91>
                  buffer_info[next_to_clean]:
                    time_stamp           <13c7893cf>
                    next_to_watch        <92>
                    jiffies              <13dc1b400>
                    next_to_watch.status <0>
                  MAC Status             <40080083>
                  PHY Status             <796d>
                  PHY 1000BASE-T Status  <7c00>
                  PHY Extended Status    <3000>
                  PCI Status             <10>
                  
                  da_WoodyD Offline
                  da_WoodyD Offline
                  da_Woody
                  schrieb am zuletzt editiert von
                  #9

                  @agrippinenser zurück in die steinzeit?
                  8.4.1 flutscht ohne probleme...

                  gruß vom Woody
                  HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                  1 Antwort Letzte Antwort
                  0
                  • AgrippinenserA Agrippinenser

                    @martinp

                    vor ca. 3 Wochen habe Proxmox auf 8.4.1 gesetzt. Seitdem war der NUC mittlerweile 6x nicht erreichbar.
                    Kernel ist 6.8.12-9-pve. Nach Neustart des NUC läuft dieser erst einmal wieder.

                    Da ich nicht gerade über tiefgreifende Linuxkentnisse verfüge habe ich von weiteren Upgrades erst mal die Finger gelassen. Ich sehe aber jetzt das du 6.8.12-10-pve verwendest. Vielleicht sollte ich doch noch einmal upgraden.

                    May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Deactivated successfully.
                    May 02 11:15:18 pve systemd[1]: Stopped pve-ha-crm.service - PVE Cluster HA Resource Manager Daemon.
                    May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Consumed 1min 17.903s CPU time.
                    May 02 11:15:18 pve systemd[1]: Stopping watchdog-mux.service - Proxmox VE watchdog multiplexer...
                    May 02 11:15:18 pve watchdog-mux[594]: got terminate request
                    May 02 11:15:18 pve watchdog-mux[594]: clean exit
                    May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Deactivated successfully.
                    May 02 11:15:18 pve systemd[1]: Stopped watchdog-mux.service - Proxmox VE watchdog multiplexer.
                    May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Consumed 23.028s CPU time.
                    May 02 11:15:18 pve systemd[1]: pveproxy.service: Deactivated successfully.
                    May 02 11:15:18 pve systemd[1]: Stopped pveproxy.service - PVE API Proxy Server.
                    May 02 11:15:18 pve systemd[1]: pveproxy.service: Consumed 54min 15.066s CPU time.
                    May 02 11:15:18 pve systemd[1]: Stopped target pve-storage.target - PVE Storage Target.
                    May 02 11:15:18 pve systemd[1]: Stopped target ceph.target - ceph target allowing to start/stop all ceph*@.service instances at once.
                    May 02 11:15:18 pve systemd[1]: Stopped target ceph-fuse.target - ceph target allowing to start/stop all ceph-fuse@.service instances at once.
                    May 02 11:15:18 pve systemd[1]: Stopping pvedaemon.service - PVE API Daemon...
                    May 02 11:15:18 pve systemd[1]: Stopping ssh.service - OpenBSD Secure Shell server...
                    May 02 11:15:18 pve sshd[712]: Received signal 15; terminating.
                    May 02 11:15:18 pve systemd[1]: ssh.service: Deactivated successfully.
                    May 02 11:15:18 pve systemd[1]: Stopped ssh.service - OpenBSD Secure Shell server.
                    May 02 11:15:19 pve pvedaemon[933]: received signal TERM
                    May 02 11:15:19 pve pvedaemon[933]: server closing
                    May 02 11:15:19 pve pvedaemon[1879148]: worker exit
                    May 02 11:15:19 pve pvedaemon[1904628]: worker exit
                    May 02 11:15:19 pve pvedaemon[1883231]: worker exit
                    May 02 11:15:19 pve pvedaemon[933]: worker 1904628 finished
                    May 02 11:15:19 pve pvedaemon[933]: worker 1879148 finished
                    May 02 11:15:19 pve pvedaemon[933]: worker 1883231 finished
                    May 02 11:15:19 pve pvedaemon[933]: server stopped
                    May 02 11:15:19 pve kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
                      TDH                  <92>
                      TDT                  <c9>
                      next_to_use          <c9>
                      next_to_clean        <91>
                    buffer_info[next_to_clean]:
                      time_stamp           <13c7893cf>
                      next_to_watch        <92>
                      jiffies              <13dc1b400>
                      next_to_watch.status <0>
                    MAC Status             <40080083>
                    PHY Status             <796d>
                    PHY 1000BASE-T Status  <7c00>
                    PHY Extended Status    <3000>
                    PCI Status             <10>
                    
                    David G.D Offline
                    David G.D Offline
                    David G.
                    schrieb am zuletzt editiert von David G.
                    #10

                    @agrippinenser

                    Ist ein bekannter Bug.
                    Findet man sehr viel zu.

                    Zb
                    https://forum.proxmox.com/threads/e1000e-network-issue-on-proxmox.139141/

                    https://forum.proxmox.com/threads/nach-update-auf-8-3-5-regelmäßige-abstürze-edit-cause-intel-e1000e-networkcard.164577/

                    Einfach in er Console

                    ethtool -K enp0s31f6 tso off gso off gro off
                    

                    (Name von Netzwerkkarte anpassen)

                    Überlebt ao aber kein reboot. Aber das bekommt man bei Bedarf ja auch hin.

                    Zeigt eure Lovelace-Visualisierung klick
                    (Auch ideal um sich Anregungen zu holen)

                    Meine Tabellen für eure Visualisierung klick

                    Meister MopperM AgrippinenserA 2 Antworten Letzte Antwort
                    0
                    • David G.D David G.

                      @agrippinenser

                      Ist ein bekannter Bug.
                      Findet man sehr viel zu.

                      Zb
                      https://forum.proxmox.com/threads/e1000e-network-issue-on-proxmox.139141/

                      https://forum.proxmox.com/threads/nach-update-auf-8-3-5-regelmäßige-abstürze-edit-cause-intel-e1000e-networkcard.164577/

                      Einfach in er Console

                      ethtool -K enp0s31f6 tso off gso off gro off
                      

                      (Name von Netzwerkkarte anpassen)

                      Überlebt ao aber kein reboot. Aber das bekommt man bei Bedarf ja auch hin.

                      Meister MopperM Offline
                      Meister MopperM Offline
                      Meister Mopper
                      schrieb am zuletzt editiert von
                      #11

                      @david-g sagte in Neuer Proxmox Kernel verfügbar:

                      ethtool -K enp0s31f6 tso off gso off gro off

                      Damit hatte ich es beim vorigen Kernel auch hinbekommen.

                      Mit dem neuen Kernel Linux HA-PVE-01 6.8.12-10-pve #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-10 (2025-04-18T07:39Z) x86_64 GNU/Linux hatte ich bisher noch keine Probleme.

                      Proxmox und HA

                      1 Antwort Letzte Antwort
                      0
                      • Thomas BraunT Thomas Braun

                        @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                        Da ich nicht gerade über tiefgreifende Linuxkentnisse verfüge habe ich von weiteren Upgrades erst mal die Finger gelassen.

                        Gerade DANN spielt man die aktuelsten Updates/Upgrades ein.

                        AgrippinenserA Offline
                        AgrippinenserA Offline
                        Agrippinenser
                        schrieb am zuletzt editiert von Agrippinenser
                        #12

                        @thomas-braun sagte in Neuer Proxmox Kernel verfügbar:

                        Gerade DANN spielt man die aktuelsten Updates/Upgrades ein.

                        das mag jetzt total unlogisch erscheinen aber ich habe da im dunklen gestanden. Ich war froh das der NUC nach Neustart wieder erreichbar war. Hätte ich nicht den Eingangspost gelesen wäre als nächstes Neuinstallation dran gewesen.

                        Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

                        1 Antwort Letzte Antwort
                        0
                        • David G.D David G.

                          @agrippinenser

                          Ist ein bekannter Bug.
                          Findet man sehr viel zu.

                          Zb
                          https://forum.proxmox.com/threads/e1000e-network-issue-on-proxmox.139141/

                          https://forum.proxmox.com/threads/nach-update-auf-8-3-5-regelmäßige-abstürze-edit-cause-intel-e1000e-networkcard.164577/

                          Einfach in er Console

                          ethtool -K enp0s31f6 tso off gso off gro off
                          

                          (Name von Netzwerkkarte anpassen)

                          Überlebt ao aber kein reboot. Aber das bekommt man bei Bedarf ja auch hin.

                          AgrippinenserA Offline
                          AgrippinenserA Offline
                          Agrippinenser
                          schrieb am zuletzt editiert von
                          #13

                          @david-g sagte in Neuer Proxmox Kernel verfügbar:

                          ethtool -K enp0s31f6 tso off gso off gro off

                          Vielen Dank, ich habe es mit Netzwerkname "vmbr0" ausgeführt. Keine Ahnung was "eno1" hier macht

                          auto lo
                          iface lo inet loopback
                          
                          iface eno1 inet manual
                          
                          auto vmbr0
                          iface vmbr0 inet static
                                  address 192.168.0.130/24
                                  gateway 192.168.0.1
                                  bridge-ports eno1
                                  bridge-stp off
                                  bridge-fd 0
                          
                          source /etc/network/interfaces.d/*
                          
                          

                          Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

                          uweklattU Meister MopperM 2 Antworten Letzte Antwort
                          0
                          • AgrippinenserA Agrippinenser

                            @david-g sagte in Neuer Proxmox Kernel verfügbar:

                            ethtool -K enp0s31f6 tso off gso off gro off

                            Vielen Dank, ich habe es mit Netzwerkname "vmbr0" ausgeführt. Keine Ahnung was "eno1" hier macht

                            auto lo
                            iface lo inet loopback
                            
                            iface eno1 inet manual
                            
                            auto vmbr0
                            iface vmbr0 inet static
                                    address 192.168.0.130/24
                                    gateway 192.168.0.1
                                    bridge-ports eno1
                                    bridge-stp off
                                    bridge-fd 0
                            
                            source /etc/network/interfaces.d/*
                            
                            
                            uweklattU Offline
                            uweklattU Offline
                            uweklatt
                            schrieb am zuletzt editiert von
                            #14

                            @agrippinenser eno1 ist vermutlich das physikalische Netzwerkinterface.
                            vmbr0 eine Bridge damit die VMs mit dem physikalischen Interface verbunden werden können.

                            Tschau
                            Uwe

                            Proxmox/LXC/Docker

                            Thomas BraunT 1 Antwort Letzte Antwort
                            0
                            • uweklattU uweklatt

                              @agrippinenser eno1 ist vermutlich das physikalische Netzwerkinterface.
                              vmbr0 eine Bridge damit die VMs mit dem physikalischen Interface verbunden werden können.

                              Tschau
                              Uwe

                              Thomas BraunT Online
                              Thomas BraunT Online
                              Thomas Braun
                              Most Active
                              schrieb am zuletzt editiert von
                              #15

                              @uweklatt

                              Wenn die Nomenklatur der Interfaces interessiert:

                              https://www.thomas-krenn.com/en/wiki/Predictable_Network_Interface_Names

                              Linux-Werkzeugkasten:
                              https://forum.iobroker.net/topic/42952/der-kleine-iobroker-linux-werkzeugkasten
                              NodeJS Fixer Skript:
                              https://forum.iobroker.net/topic/68035/iob-node-fix-skript
                              iob_diag: curl -sLf -o diag.sh https://iobroker.net/diag.sh && bash diag.sh

                              1 Antwort Letzte Antwort
                              0
                              • AgrippinenserA Agrippinenser

                                @david-g sagte in Neuer Proxmox Kernel verfügbar:

                                ethtool -K enp0s31f6 tso off gso off gro off

                                Vielen Dank, ich habe es mit Netzwerkname "vmbr0" ausgeführt. Keine Ahnung was "eno1" hier macht

                                auto lo
                                iface lo inet loopback
                                
                                iface eno1 inet manual
                                
                                auto vmbr0
                                iface vmbr0 inet static
                                        address 192.168.0.130/24
                                        gateway 192.168.0.1
                                        bridge-ports eno1
                                        bridge-stp off
                                        bridge-fd 0
                                
                                source /etc/network/interfaces.d/*
                                
                                
                                Meister MopperM Offline
                                Meister MopperM Offline
                                Meister Mopper
                                schrieb am zuletzt editiert von
                                #16

                                @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                                @david-g sagte in Neuer Proxmox Kernel verfügbar:

                                ethtool -K enp0s31f6 tso off gso off gro off

                                Vielen Dank, ich habe es mit Netzwerkname "vmbr0" ausgeführt. Keine Ahnung was "eno1" hier macht

                                auto lo
                                iface lo inet loopback
                                
                                iface eno1 inet manual
                                
                                auto vmbr0
                                iface vmbr0 inet static
                                        address 192.168.0.130/24
                                        gateway 192.168.0.1
                                        bridge-ports eno1
                                        bridge-stp off
                                        bridge-fd 0
                                
                                source /etc/network/interfaces.d/*
                                
                                

                                eno1 wäre in deinem Fall richtig.

                                Proxmox und HA

                                AgrippinenserA 1 Antwort Letzte Antwort
                                0
                                • Meister MopperM Meister Mopper

                                  @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                                  @david-g sagte in Neuer Proxmox Kernel verfügbar:

                                  ethtool -K enp0s31f6 tso off gso off gro off

                                  Vielen Dank, ich habe es mit Netzwerkname "vmbr0" ausgeführt. Keine Ahnung was "eno1" hier macht

                                  auto lo
                                  iface lo inet loopback
                                  
                                  iface eno1 inet manual
                                  
                                  auto vmbr0
                                  iface vmbr0 inet static
                                          address 192.168.0.130/24
                                          gateway 192.168.0.1
                                          bridge-ports eno1
                                          bridge-stp off
                                          bridge-fd 0
                                  
                                  source /etc/network/interfaces.d/*
                                  
                                  

                                  eno1 wäre in deinem Fall richtig.

                                  AgrippinenserA Offline
                                  AgrippinenserA Offline
                                  Agrippinenser
                                  schrieb am zuletzt editiert von
                                  #17

                                  @meister-mopper sagte in Neuer Proxmox Kernel verfügbar:

                                  eno1 wäre in deinem Fall richtig.

                                  ach was stell ich mich blöd an. Danke !

                                  Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

                                  Meister MopperM 1 Antwort Letzte Antwort
                                  0
                                  • AgrippinenserA Agrippinenser

                                    @meister-mopper sagte in Neuer Proxmox Kernel verfügbar:

                                    eno1 wäre in deinem Fall richtig.

                                    ach was stell ich mich blöd an. Danke !

                                    Meister MopperM Offline
                                    Meister MopperM Offline
                                    Meister Mopper
                                    schrieb am zuletzt editiert von Meister Mopper
                                    #18

                                    @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                                    @meister-mopper sagte in Neuer Proxmox Kernel verfügbar:

                                    eno1 wäre in deinem Fall richtig.

                                    ach was stell ich mich blöd an. Danke !

                                    Egal, et hätt noch emmer joot jejange. :grinning:

                                    Edit Ergänzung:

                                    Was bewirkt der Befehl?
                                    Die Deaktivierung von Offloading-Funktionen kann die CPU-Auslastung erhöhen, da das Betriebssystem die Aufgaben der Netzwerkarte (NIC) übernehmen muss (das solltest du beobachten, ich denke aber nicht, dass es problematisch sein wird).

                                    Es kann die Netzwerkstabilität erhöhen wenn Problemen mit dem Netzwerkkartentreiber auftreten.

                                    Soweit meine Recherchen zum Problem.

                                    Proxmox und HA

                                    AgrippinenserA 1 Antwort Letzte Antwort
                                    1
                                    • Meister MopperM Meister Mopper

                                      @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                                      @meister-mopper sagte in Neuer Proxmox Kernel verfügbar:

                                      eno1 wäre in deinem Fall richtig.

                                      ach was stell ich mich blöd an. Danke !

                                      Egal, et hätt noch emmer joot jejange. :grinning:

                                      Edit Ergänzung:

                                      Was bewirkt der Befehl?
                                      Die Deaktivierung von Offloading-Funktionen kann die CPU-Auslastung erhöhen, da das Betriebssystem die Aufgaben der Netzwerkarte (NIC) übernehmen muss (das solltest du beobachten, ich denke aber nicht, dass es problematisch sein wird).

                                      Es kann die Netzwerkstabilität erhöhen wenn Problemen mit dem Netzwerkkartentreiber auftreten.

                                      Soweit meine Recherchen zum Problem.

                                      AgrippinenserA Offline
                                      AgrippinenserA Offline
                                      Agrippinenser
                                      schrieb am zuletzt editiert von Agrippinenser
                                      #19

                                      @meister-mopper sagte in Neuer Proxmox Kernel verfügbar:

                                      Was bewirkt der Befehl?

                                      Mit deinen Informationen habe ich auch noch mal recherchiert. Dieses Offloading macht sich insbesondere bei schnellen Netzwerk-Verbindungen bemerkbar .. logisch. Ich bemerke hier keine nennenswerte CPU-Laständerung.

                                      EDIT: wahrscheinlich macht es sich dann auch bei Übertragung größerer Datenmengen bemerkbar .. backup oder ähnliches

                                      Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

                                      Meister MopperM 1 Antwort Letzte Antwort
                                      0
                                      • AgrippinenserA Agrippinenser

                                        @meister-mopper sagte in Neuer Proxmox Kernel verfügbar:

                                        Was bewirkt der Befehl?

                                        Mit deinen Informationen habe ich auch noch mal recherchiert. Dieses Offloading macht sich insbesondere bei schnellen Netzwerk-Verbindungen bemerkbar .. logisch. Ich bemerke hier keine nennenswerte CPU-Laständerung.

                                        EDIT: wahrscheinlich macht es sich dann auch bei Übertragung größerer Datenmengen bemerkbar .. backup oder ähnliches

                                        Meister MopperM Offline
                                        Meister MopperM Offline
                                        Meister Mopper
                                        schrieb am zuletzt editiert von
                                        #20

                                        @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                                        wahrscheinlich macht es sich dann auch bei Übertragung größerer Datenmengen bemerkbar

                                        Keine Erkenntnis. Ich sichere Daten inkrementell mit dem Proxmox Backup Server. Das funktioniert mit dem aktellen Kernel sehr gut.

                                        Proxmox und HA

                                        P 1 Antwort Letzte Antwort
                                        0
                                        • Meister MopperM Meister Mopper

                                          @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                                          wahrscheinlich macht es sich dann auch bei Übertragung größerer Datenmengen bemerkbar

                                          Keine Erkenntnis. Ich sichere Daten inkrementell mit dem Proxmox Backup Server. Das funktioniert mit dem aktellen Kernel sehr gut.

                                          P Offline
                                          P Offline
                                          peterfido
                                          schrieb am zuletzt editiert von
                                          #21

                                          @meister-mopper Bei den Intel NUCs mit bestimmten Intel-Netzwerkadaptern war die Verbindung nach einiger Zeit problematisch. Abhilfe hatten da die Befehle gebracht, welche die (eigentlich) per Hardware durchgeführten Vorgänge (Handshaking und Co) CPU belastender in Software erledigen lassen. Für Windows hatte Intel neue Treiber (inkl. Firmware) herausgebracht.

                                          Bei mir trat das Problem allerdings hauptsächlich auf dem NUC6CAYH auf.

                                          Gruß

                                          Peterfido


                                          Proxmox auf Intel NUC12WSHi5
                                          ioBroker: Debian (VM)
                                          CCU: Debmatic (VM)
                                          Influx: Debian (VM)
                                          Grafana: Debian (VM)
                                          eBus: Debian (VM)
                                          Zigbee: Debian (VM) mit zigbee2mqtt

                                          1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          396

                                          Online

                                          32.6k

                                          Benutzer

                                          81.9k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe