Skip to content
  • Home
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. Proxmox
  5. Neuer Proxmox Kernel verfügbar

NEWS

  • Monatsrückblick Januar/Februar 2026 ist online!
    BluefoxB
    Bluefox
    17
    1
    578

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    5.5k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.4k

Neuer Proxmox Kernel verfügbar

Scheduled Pinned Locked Moved Proxmox
21 Posts 12 Posters 3.0k Views 10 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • MartinPM MartinP

    Keine Probleme beim Update

    Linux pve 6.8.12-10-pve #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-10 (2025-04-18T07:39Z) x86_64

    Meister MopperM Online
    Meister MopperM Online
    Meister Mopper
    wrote on last edited by
    #5

    @martinp sagte in Neuer Proxmox Kernel verfügbar:

    Keine Probleme beim Update

    Woher willst du das wissen.

    Beim vorletzten Kernel-Update bekam ich erst nach Tagen Probleme mit der Netzwerkkarte und alle Maschinen eines node migrierten auf andere nodes.

    Proxmox und HA - dank KI/AI endlich "blocklyfrei"

    1 Reply Last reply
    1
    • Dr. BakteriusD Online
      Dr. BakteriusD Online
      Dr. Bakterius
      Most Active
      wrote on last edited by
      #6

      Läuft bei mir seit drei Tagen ohne Probleme. Hatte aber auch bisher nie welche.

      1 Reply Last reply
      1
      • MartinPM MartinP

        Keine Probleme beim Update

        Linux pve 6.8.12-10-pve #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-10 (2025-04-18T07:39Z) x86_64

        AgrippinenserA Offline
        AgrippinenserA Offline
        Agrippinenser
        wrote on last edited by
        #7

        @martinp

        vor ca. 3 Wochen habe Proxmox auf 8.4.1 gesetzt. Seitdem war der NUC mittlerweile 6x nicht erreichbar.
        Kernel ist 6.8.12-9-pve. Nach Neustart des NUC läuft dieser erst einmal wieder.

        Da ich nicht gerade über tiefgreifende Linuxkentnisse verfüge habe ich von weiteren Upgrades erst mal die Finger gelassen. Ich sehe aber jetzt das du 6.8.12-10-pve verwendest. Vielleicht sollte ich doch noch einmal upgraden.

        May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Deactivated successfully.
        May 02 11:15:18 pve systemd[1]: Stopped pve-ha-crm.service - PVE Cluster HA Resource Manager Daemon.
        May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Consumed 1min 17.903s CPU time.
        May 02 11:15:18 pve systemd[1]: Stopping watchdog-mux.service - Proxmox VE watchdog multiplexer...
        May 02 11:15:18 pve watchdog-mux[594]: got terminate request
        May 02 11:15:18 pve watchdog-mux[594]: clean exit
        May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Deactivated successfully.
        May 02 11:15:18 pve systemd[1]: Stopped watchdog-mux.service - Proxmox VE watchdog multiplexer.
        May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Consumed 23.028s CPU time.
        May 02 11:15:18 pve systemd[1]: pveproxy.service: Deactivated successfully.
        May 02 11:15:18 pve systemd[1]: Stopped pveproxy.service - PVE API Proxy Server.
        May 02 11:15:18 pve systemd[1]: pveproxy.service: Consumed 54min 15.066s CPU time.
        May 02 11:15:18 pve systemd[1]: Stopped target pve-storage.target - PVE Storage Target.
        May 02 11:15:18 pve systemd[1]: Stopped target ceph.target - ceph target allowing to start/stop all ceph*@.service instances at once.
        May 02 11:15:18 pve systemd[1]: Stopped target ceph-fuse.target - ceph target allowing to start/stop all ceph-fuse@.service instances at once.
        May 02 11:15:18 pve systemd[1]: Stopping pvedaemon.service - PVE API Daemon...
        May 02 11:15:18 pve systemd[1]: Stopping ssh.service - OpenBSD Secure Shell server...
        May 02 11:15:18 pve sshd[712]: Received signal 15; terminating.
        May 02 11:15:18 pve systemd[1]: ssh.service: Deactivated successfully.
        May 02 11:15:18 pve systemd[1]: Stopped ssh.service - OpenBSD Secure Shell server.
        May 02 11:15:19 pve pvedaemon[933]: received signal TERM
        May 02 11:15:19 pve pvedaemon[933]: server closing
        May 02 11:15:19 pve pvedaemon[1879148]: worker exit
        May 02 11:15:19 pve pvedaemon[1904628]: worker exit
        May 02 11:15:19 pve pvedaemon[1883231]: worker exit
        May 02 11:15:19 pve pvedaemon[933]: worker 1904628 finished
        May 02 11:15:19 pve pvedaemon[933]: worker 1879148 finished
        May 02 11:15:19 pve pvedaemon[933]: worker 1883231 finished
        May 02 11:15:19 pve pvedaemon[933]: server stopped
        May 02 11:15:19 pve kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
          TDH                  <92>
          TDT                  <c9>
          next_to_use          <c9>
          next_to_clean        <91>
        buffer_info[next_to_clean]:
          time_stamp           <13c7893cf>
          next_to_watch        <92>
          jiffies              <13dc1b400>
          next_to_watch.status <0>
        MAC Status             <40080083>
        PHY Status             <796d>
        PHY 1000BASE-T Status  <7c00>
        PHY Extended Status    <3000>
        PCI Status             <10>
        

        Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

        Thomas BraunT da_WoodyD David G.D 3 Replies Last reply
        0
        • AgrippinenserA Agrippinenser

          @martinp

          vor ca. 3 Wochen habe Proxmox auf 8.4.1 gesetzt. Seitdem war der NUC mittlerweile 6x nicht erreichbar.
          Kernel ist 6.8.12-9-pve. Nach Neustart des NUC läuft dieser erst einmal wieder.

          Da ich nicht gerade über tiefgreifende Linuxkentnisse verfüge habe ich von weiteren Upgrades erst mal die Finger gelassen. Ich sehe aber jetzt das du 6.8.12-10-pve verwendest. Vielleicht sollte ich doch noch einmal upgraden.

          May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Deactivated successfully.
          May 02 11:15:18 pve systemd[1]: Stopped pve-ha-crm.service - PVE Cluster HA Resource Manager Daemon.
          May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Consumed 1min 17.903s CPU time.
          May 02 11:15:18 pve systemd[1]: Stopping watchdog-mux.service - Proxmox VE watchdog multiplexer...
          May 02 11:15:18 pve watchdog-mux[594]: got terminate request
          May 02 11:15:18 pve watchdog-mux[594]: clean exit
          May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Deactivated successfully.
          May 02 11:15:18 pve systemd[1]: Stopped watchdog-mux.service - Proxmox VE watchdog multiplexer.
          May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Consumed 23.028s CPU time.
          May 02 11:15:18 pve systemd[1]: pveproxy.service: Deactivated successfully.
          May 02 11:15:18 pve systemd[1]: Stopped pveproxy.service - PVE API Proxy Server.
          May 02 11:15:18 pve systemd[1]: pveproxy.service: Consumed 54min 15.066s CPU time.
          May 02 11:15:18 pve systemd[1]: Stopped target pve-storage.target - PVE Storage Target.
          May 02 11:15:18 pve systemd[1]: Stopped target ceph.target - ceph target allowing to start/stop all ceph*@.service instances at once.
          May 02 11:15:18 pve systemd[1]: Stopped target ceph-fuse.target - ceph target allowing to start/stop all ceph-fuse@.service instances at once.
          May 02 11:15:18 pve systemd[1]: Stopping pvedaemon.service - PVE API Daemon...
          May 02 11:15:18 pve systemd[1]: Stopping ssh.service - OpenBSD Secure Shell server...
          May 02 11:15:18 pve sshd[712]: Received signal 15; terminating.
          May 02 11:15:18 pve systemd[1]: ssh.service: Deactivated successfully.
          May 02 11:15:18 pve systemd[1]: Stopped ssh.service - OpenBSD Secure Shell server.
          May 02 11:15:19 pve pvedaemon[933]: received signal TERM
          May 02 11:15:19 pve pvedaemon[933]: server closing
          May 02 11:15:19 pve pvedaemon[1879148]: worker exit
          May 02 11:15:19 pve pvedaemon[1904628]: worker exit
          May 02 11:15:19 pve pvedaemon[1883231]: worker exit
          May 02 11:15:19 pve pvedaemon[933]: worker 1904628 finished
          May 02 11:15:19 pve pvedaemon[933]: worker 1879148 finished
          May 02 11:15:19 pve pvedaemon[933]: worker 1883231 finished
          May 02 11:15:19 pve pvedaemon[933]: server stopped
          May 02 11:15:19 pve kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
            TDH                  <92>
            TDT                  <c9>
            next_to_use          <c9>
            next_to_clean        <91>
          buffer_info[next_to_clean]:
            time_stamp           <13c7893cf>
            next_to_watch        <92>
            jiffies              <13dc1b400>
            next_to_watch.status <0>
          MAC Status             <40080083>
          PHY Status             <796d>
          PHY 1000BASE-T Status  <7c00>
          PHY Extended Status    <3000>
          PCI Status             <10>
          
          Thomas BraunT Online
          Thomas BraunT Online
          Thomas Braun
          Most Active
          wrote on last edited by
          #8

          @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

          Da ich nicht gerade über tiefgreifende Linuxkentnisse verfüge habe ich von weiteren Upgrades erst mal die Finger gelassen.

          Gerade DANN spielt man die aktuelsten Updates/Upgrades ein.

          Linux-Werkzeugkasten:
          https://forum.iobroker.net/topic/42952/der-kleine-iobroker-linux-werkzeugkasten
          NodeJS Fixer Skript:
          https://forum.iobroker.net/topic/68035/iob-node-fix-skript
          iob_diag: curl -sLf -o diag.sh https://iobroker.net/diag.sh && bash diag.sh

          AgrippinenserA 1 Reply Last reply
          0
          • AgrippinenserA Agrippinenser

            @martinp

            vor ca. 3 Wochen habe Proxmox auf 8.4.1 gesetzt. Seitdem war der NUC mittlerweile 6x nicht erreichbar.
            Kernel ist 6.8.12-9-pve. Nach Neustart des NUC läuft dieser erst einmal wieder.

            Da ich nicht gerade über tiefgreifende Linuxkentnisse verfüge habe ich von weiteren Upgrades erst mal die Finger gelassen. Ich sehe aber jetzt das du 6.8.12-10-pve verwendest. Vielleicht sollte ich doch noch einmal upgraden.

            May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Deactivated successfully.
            May 02 11:15:18 pve systemd[1]: Stopped pve-ha-crm.service - PVE Cluster HA Resource Manager Daemon.
            May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Consumed 1min 17.903s CPU time.
            May 02 11:15:18 pve systemd[1]: Stopping watchdog-mux.service - Proxmox VE watchdog multiplexer...
            May 02 11:15:18 pve watchdog-mux[594]: got terminate request
            May 02 11:15:18 pve watchdog-mux[594]: clean exit
            May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Deactivated successfully.
            May 02 11:15:18 pve systemd[1]: Stopped watchdog-mux.service - Proxmox VE watchdog multiplexer.
            May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Consumed 23.028s CPU time.
            May 02 11:15:18 pve systemd[1]: pveproxy.service: Deactivated successfully.
            May 02 11:15:18 pve systemd[1]: Stopped pveproxy.service - PVE API Proxy Server.
            May 02 11:15:18 pve systemd[1]: pveproxy.service: Consumed 54min 15.066s CPU time.
            May 02 11:15:18 pve systemd[1]: Stopped target pve-storage.target - PVE Storage Target.
            May 02 11:15:18 pve systemd[1]: Stopped target ceph.target - ceph target allowing to start/stop all ceph*@.service instances at once.
            May 02 11:15:18 pve systemd[1]: Stopped target ceph-fuse.target - ceph target allowing to start/stop all ceph-fuse@.service instances at once.
            May 02 11:15:18 pve systemd[1]: Stopping pvedaemon.service - PVE API Daemon...
            May 02 11:15:18 pve systemd[1]: Stopping ssh.service - OpenBSD Secure Shell server...
            May 02 11:15:18 pve sshd[712]: Received signal 15; terminating.
            May 02 11:15:18 pve systemd[1]: ssh.service: Deactivated successfully.
            May 02 11:15:18 pve systemd[1]: Stopped ssh.service - OpenBSD Secure Shell server.
            May 02 11:15:19 pve pvedaemon[933]: received signal TERM
            May 02 11:15:19 pve pvedaemon[933]: server closing
            May 02 11:15:19 pve pvedaemon[1879148]: worker exit
            May 02 11:15:19 pve pvedaemon[1904628]: worker exit
            May 02 11:15:19 pve pvedaemon[1883231]: worker exit
            May 02 11:15:19 pve pvedaemon[933]: worker 1904628 finished
            May 02 11:15:19 pve pvedaemon[933]: worker 1879148 finished
            May 02 11:15:19 pve pvedaemon[933]: worker 1883231 finished
            May 02 11:15:19 pve pvedaemon[933]: server stopped
            May 02 11:15:19 pve kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
              TDH                  <92>
              TDT                  <c9>
              next_to_use          <c9>
              next_to_clean        <91>
            buffer_info[next_to_clean]:
              time_stamp           <13c7893cf>
              next_to_watch        <92>
              jiffies              <13dc1b400>
              next_to_watch.status <0>
            MAC Status             <40080083>
            PHY Status             <796d>
            PHY 1000BASE-T Status  <7c00>
            PHY Extended Status    <3000>
            PCI Status             <10>
            
            da_WoodyD Online
            da_WoodyD Online
            da_Woody
            wrote on last edited by
            #9

            @agrippinenser zurück in die steinzeit?
            8.4.1 flutscht ohne probleme...

            gruß vom Woody
            HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

            1 Reply Last reply
            0
            • AgrippinenserA Agrippinenser

              @martinp

              vor ca. 3 Wochen habe Proxmox auf 8.4.1 gesetzt. Seitdem war der NUC mittlerweile 6x nicht erreichbar.
              Kernel ist 6.8.12-9-pve. Nach Neustart des NUC läuft dieser erst einmal wieder.

              Da ich nicht gerade über tiefgreifende Linuxkentnisse verfüge habe ich von weiteren Upgrades erst mal die Finger gelassen. Ich sehe aber jetzt das du 6.8.12-10-pve verwendest. Vielleicht sollte ich doch noch einmal upgraden.

              May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Deactivated successfully.
              May 02 11:15:18 pve systemd[1]: Stopped pve-ha-crm.service - PVE Cluster HA Resource Manager Daemon.
              May 02 11:15:18 pve systemd[1]: pve-ha-crm.service: Consumed 1min 17.903s CPU time.
              May 02 11:15:18 pve systemd[1]: Stopping watchdog-mux.service - Proxmox VE watchdog multiplexer...
              May 02 11:15:18 pve watchdog-mux[594]: got terminate request
              May 02 11:15:18 pve watchdog-mux[594]: clean exit
              May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Deactivated successfully.
              May 02 11:15:18 pve systemd[1]: Stopped watchdog-mux.service - Proxmox VE watchdog multiplexer.
              May 02 11:15:18 pve systemd[1]: watchdog-mux.service: Consumed 23.028s CPU time.
              May 02 11:15:18 pve systemd[1]: pveproxy.service: Deactivated successfully.
              May 02 11:15:18 pve systemd[1]: Stopped pveproxy.service - PVE API Proxy Server.
              May 02 11:15:18 pve systemd[1]: pveproxy.service: Consumed 54min 15.066s CPU time.
              May 02 11:15:18 pve systemd[1]: Stopped target pve-storage.target - PVE Storage Target.
              May 02 11:15:18 pve systemd[1]: Stopped target ceph.target - ceph target allowing to start/stop all ceph*@.service instances at once.
              May 02 11:15:18 pve systemd[1]: Stopped target ceph-fuse.target - ceph target allowing to start/stop all ceph-fuse@.service instances at once.
              May 02 11:15:18 pve systemd[1]: Stopping pvedaemon.service - PVE API Daemon...
              May 02 11:15:18 pve systemd[1]: Stopping ssh.service - OpenBSD Secure Shell server...
              May 02 11:15:18 pve sshd[712]: Received signal 15; terminating.
              May 02 11:15:18 pve systemd[1]: ssh.service: Deactivated successfully.
              May 02 11:15:18 pve systemd[1]: Stopped ssh.service - OpenBSD Secure Shell server.
              May 02 11:15:19 pve pvedaemon[933]: received signal TERM
              May 02 11:15:19 pve pvedaemon[933]: server closing
              May 02 11:15:19 pve pvedaemon[1879148]: worker exit
              May 02 11:15:19 pve pvedaemon[1904628]: worker exit
              May 02 11:15:19 pve pvedaemon[1883231]: worker exit
              May 02 11:15:19 pve pvedaemon[933]: worker 1904628 finished
              May 02 11:15:19 pve pvedaemon[933]: worker 1879148 finished
              May 02 11:15:19 pve pvedaemon[933]: worker 1883231 finished
              May 02 11:15:19 pve pvedaemon[933]: server stopped
              May 02 11:15:19 pve kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
                TDH                  <92>
                TDT                  <c9>
                next_to_use          <c9>
                next_to_clean        <91>
              buffer_info[next_to_clean]:
                time_stamp           <13c7893cf>
                next_to_watch        <92>
                jiffies              <13dc1b400>
                next_to_watch.status <0>
              MAC Status             <40080083>
              PHY Status             <796d>
              PHY 1000BASE-T Status  <7c00>
              PHY Extended Status    <3000>
              PCI Status             <10>
              
              David G.D Online
              David G.D Online
              David G.
              wrote on last edited by David G.
              #10

              @agrippinenser

              Ist ein bekannter Bug.
              Findet man sehr viel zu.

              Zb
              https://forum.proxmox.com/threads/e1000e-network-issue-on-proxmox.139141/

              https://forum.proxmox.com/threads/nach-update-auf-8-3-5-regelmäßige-abstürze-edit-cause-intel-e1000e-networkcard.164577/

              Einfach in er Console

              ethtool -K enp0s31f6 tso off gso off gro off
              

              (Name von Netzwerkkarte anpassen)

              Überlebt ao aber kein reboot. Aber das bekommt man bei Bedarf ja auch hin.

              Zeigt eure Lovelace-Visualisierung klick
              (Auch ideal um sich Anregungen zu holen)

              Meine Tabellen für eure Visualisierung klick

              Meister MopperM AgrippinenserA 2 Replies Last reply
              0
              • David G.D David G.

                @agrippinenser

                Ist ein bekannter Bug.
                Findet man sehr viel zu.

                Zb
                https://forum.proxmox.com/threads/e1000e-network-issue-on-proxmox.139141/

                https://forum.proxmox.com/threads/nach-update-auf-8-3-5-regelmäßige-abstürze-edit-cause-intel-e1000e-networkcard.164577/

                Einfach in er Console

                ethtool -K enp0s31f6 tso off gso off gro off
                

                (Name von Netzwerkkarte anpassen)

                Überlebt ao aber kein reboot. Aber das bekommt man bei Bedarf ja auch hin.

                Meister MopperM Online
                Meister MopperM Online
                Meister Mopper
                wrote on last edited by
                #11

                @david-g sagte in Neuer Proxmox Kernel verfügbar:

                ethtool -K enp0s31f6 tso off gso off gro off

                Damit hatte ich es beim vorigen Kernel auch hinbekommen.

                Mit dem neuen Kernel Linux HA-PVE-01 6.8.12-10-pve #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-10 (2025-04-18T07:39Z) x86_64 GNU/Linux hatte ich bisher noch keine Probleme.

                Proxmox und HA - dank KI/AI endlich "blocklyfrei"

                1 Reply Last reply
                0
                • Thomas BraunT Thomas Braun

                  @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                  Da ich nicht gerade über tiefgreifende Linuxkentnisse verfüge habe ich von weiteren Upgrades erst mal die Finger gelassen.

                  Gerade DANN spielt man die aktuelsten Updates/Upgrades ein.

                  AgrippinenserA Offline
                  AgrippinenserA Offline
                  Agrippinenser
                  wrote on last edited by Agrippinenser
                  #12

                  @thomas-braun sagte in Neuer Proxmox Kernel verfügbar:

                  Gerade DANN spielt man die aktuelsten Updates/Upgrades ein.

                  das mag jetzt total unlogisch erscheinen aber ich habe da im dunklen gestanden. Ich war froh das der NUC nach Neustart wieder erreichbar war. Hätte ich nicht den Eingangspost gelesen wäre als nächstes Neuinstallation dran gewesen.

                  Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

                  1 Reply Last reply
                  0
                  • David G.D David G.

                    @agrippinenser

                    Ist ein bekannter Bug.
                    Findet man sehr viel zu.

                    Zb
                    https://forum.proxmox.com/threads/e1000e-network-issue-on-proxmox.139141/

                    https://forum.proxmox.com/threads/nach-update-auf-8-3-5-regelmäßige-abstürze-edit-cause-intel-e1000e-networkcard.164577/

                    Einfach in er Console

                    ethtool -K enp0s31f6 tso off gso off gro off
                    

                    (Name von Netzwerkkarte anpassen)

                    Überlebt ao aber kein reboot. Aber das bekommt man bei Bedarf ja auch hin.

                    AgrippinenserA Offline
                    AgrippinenserA Offline
                    Agrippinenser
                    wrote on last edited by
                    #13

                    @david-g sagte in Neuer Proxmox Kernel verfügbar:

                    ethtool -K enp0s31f6 tso off gso off gro off

                    Vielen Dank, ich habe es mit Netzwerkname "vmbr0" ausgeführt. Keine Ahnung was "eno1" hier macht

                    auto lo
                    iface lo inet loopback
                    
                    iface eno1 inet manual
                    
                    auto vmbr0
                    iface vmbr0 inet static
                            address 192.168.0.130/24
                            gateway 192.168.0.1
                            bridge-ports eno1
                            bridge-stp off
                            bridge-fd 0
                    
                    source /etc/network/interfaces.d/*
                    
                    

                    Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

                    uweklattU Meister MopperM 2 Replies Last reply
                    0
                    • AgrippinenserA Agrippinenser

                      @david-g sagte in Neuer Proxmox Kernel verfügbar:

                      ethtool -K enp0s31f6 tso off gso off gro off

                      Vielen Dank, ich habe es mit Netzwerkname "vmbr0" ausgeführt. Keine Ahnung was "eno1" hier macht

                      auto lo
                      iface lo inet loopback
                      
                      iface eno1 inet manual
                      
                      auto vmbr0
                      iface vmbr0 inet static
                              address 192.168.0.130/24
                              gateway 192.168.0.1
                              bridge-ports eno1
                              bridge-stp off
                              bridge-fd 0
                      
                      source /etc/network/interfaces.d/*
                      
                      
                      uweklattU Offline
                      uweklattU Offline
                      uweklatt
                      wrote on last edited by
                      #14

                      @agrippinenser eno1 ist vermutlich das physikalische Netzwerkinterface.
                      vmbr0 eine Bridge damit die VMs mit dem physikalischen Interface verbunden werden können.

                      Tschau
                      Uwe

                      Proxmox/LXC/Docker

                      Thomas BraunT 1 Reply Last reply
                      0
                      • uweklattU uweklatt

                        @agrippinenser eno1 ist vermutlich das physikalische Netzwerkinterface.
                        vmbr0 eine Bridge damit die VMs mit dem physikalischen Interface verbunden werden können.

                        Tschau
                        Uwe

                        Thomas BraunT Online
                        Thomas BraunT Online
                        Thomas Braun
                        Most Active
                        wrote on last edited by
                        #15

                        @uweklatt

                        Wenn die Nomenklatur der Interfaces interessiert:

                        https://www.thomas-krenn.com/en/wiki/Predictable_Network_Interface_Names

                        Linux-Werkzeugkasten:
                        https://forum.iobroker.net/topic/42952/der-kleine-iobroker-linux-werkzeugkasten
                        NodeJS Fixer Skript:
                        https://forum.iobroker.net/topic/68035/iob-node-fix-skript
                        iob_diag: curl -sLf -o diag.sh https://iobroker.net/diag.sh && bash diag.sh

                        1 Reply Last reply
                        0
                        • AgrippinenserA Agrippinenser

                          @david-g sagte in Neuer Proxmox Kernel verfügbar:

                          ethtool -K enp0s31f6 tso off gso off gro off

                          Vielen Dank, ich habe es mit Netzwerkname "vmbr0" ausgeführt. Keine Ahnung was "eno1" hier macht

                          auto lo
                          iface lo inet loopback
                          
                          iface eno1 inet manual
                          
                          auto vmbr0
                          iface vmbr0 inet static
                                  address 192.168.0.130/24
                                  gateway 192.168.0.1
                                  bridge-ports eno1
                                  bridge-stp off
                                  bridge-fd 0
                          
                          source /etc/network/interfaces.d/*
                          
                          
                          Meister MopperM Online
                          Meister MopperM Online
                          Meister Mopper
                          wrote on last edited by
                          #16

                          @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                          @david-g sagte in Neuer Proxmox Kernel verfügbar:

                          ethtool -K enp0s31f6 tso off gso off gro off

                          Vielen Dank, ich habe es mit Netzwerkname "vmbr0" ausgeführt. Keine Ahnung was "eno1" hier macht

                          auto lo
                          iface lo inet loopback
                          
                          iface eno1 inet manual
                          
                          auto vmbr0
                          iface vmbr0 inet static
                                  address 192.168.0.130/24
                                  gateway 192.168.0.1
                                  bridge-ports eno1
                                  bridge-stp off
                                  bridge-fd 0
                          
                          source /etc/network/interfaces.d/*
                          
                          

                          eno1 wäre in deinem Fall richtig.

                          Proxmox und HA - dank KI/AI endlich "blocklyfrei"

                          AgrippinenserA 1 Reply Last reply
                          0
                          • Meister MopperM Meister Mopper

                            @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                            @david-g sagte in Neuer Proxmox Kernel verfügbar:

                            ethtool -K enp0s31f6 tso off gso off gro off

                            Vielen Dank, ich habe es mit Netzwerkname "vmbr0" ausgeführt. Keine Ahnung was "eno1" hier macht

                            auto lo
                            iface lo inet loopback
                            
                            iface eno1 inet manual
                            
                            auto vmbr0
                            iface vmbr0 inet static
                                    address 192.168.0.130/24
                                    gateway 192.168.0.1
                                    bridge-ports eno1
                                    bridge-stp off
                                    bridge-fd 0
                            
                            source /etc/network/interfaces.d/*
                            
                            

                            eno1 wäre in deinem Fall richtig.

                            AgrippinenserA Offline
                            AgrippinenserA Offline
                            Agrippinenser
                            wrote on last edited by
                            #17

                            @meister-mopper sagte in Neuer Proxmox Kernel verfügbar:

                            eno1 wäre in deinem Fall richtig.

                            ach was stell ich mich blöd an. Danke !

                            Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

                            Meister MopperM 1 Reply Last reply
                            0
                            • AgrippinenserA Agrippinenser

                              @meister-mopper sagte in Neuer Proxmox Kernel verfügbar:

                              eno1 wäre in deinem Fall richtig.

                              ach was stell ich mich blöd an. Danke !

                              Meister MopperM Online
                              Meister MopperM Online
                              Meister Mopper
                              wrote on last edited by Meister Mopper
                              #18

                              @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                              @meister-mopper sagte in Neuer Proxmox Kernel verfügbar:

                              eno1 wäre in deinem Fall richtig.

                              ach was stell ich mich blöd an. Danke !

                              Egal, et hätt noch emmer joot jejange. :grinning:

                              Edit Ergänzung:

                              Was bewirkt der Befehl?
                              Die Deaktivierung von Offloading-Funktionen kann die CPU-Auslastung erhöhen, da das Betriebssystem die Aufgaben der Netzwerkarte (NIC) übernehmen muss (das solltest du beobachten, ich denke aber nicht, dass es problematisch sein wird).

                              Es kann die Netzwerkstabilität erhöhen wenn Problemen mit dem Netzwerkkartentreiber auftreten.

                              Soweit meine Recherchen zum Problem.

                              Proxmox und HA - dank KI/AI endlich "blocklyfrei"

                              AgrippinenserA 1 Reply Last reply
                              1
                              • Meister MopperM Meister Mopper

                                @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                                @meister-mopper sagte in Neuer Proxmox Kernel verfügbar:

                                eno1 wäre in deinem Fall richtig.

                                ach was stell ich mich blöd an. Danke !

                                Egal, et hätt noch emmer joot jejange. :grinning:

                                Edit Ergänzung:

                                Was bewirkt der Befehl?
                                Die Deaktivierung von Offloading-Funktionen kann die CPU-Auslastung erhöhen, da das Betriebssystem die Aufgaben der Netzwerkarte (NIC) übernehmen muss (das solltest du beobachten, ich denke aber nicht, dass es problematisch sein wird).

                                Es kann die Netzwerkstabilität erhöhen wenn Problemen mit dem Netzwerkkartentreiber auftreten.

                                Soweit meine Recherchen zum Problem.

                                AgrippinenserA Offline
                                AgrippinenserA Offline
                                Agrippinenser
                                wrote on last edited by Agrippinenser
                                #19

                                @meister-mopper sagte in Neuer Proxmox Kernel verfügbar:

                                Was bewirkt der Befehl?

                                Mit deinen Informationen habe ich auch noch mal recherchiert. Dieses Offloading macht sich insbesondere bei schnellen Netzwerk-Verbindungen bemerkbar .. logisch. Ich bemerke hier keine nennenswerte CPU-Laständerung.

                                EDIT: wahrscheinlich macht es sich dann auch bei Übertragung größerer Datenmengen bemerkbar .. backup oder ähnliches

                                Grüße vom Rhein @Colonia Claudia Ara Agrippinensium

                                Meister MopperM 1 Reply Last reply
                                0
                                • AgrippinenserA Agrippinenser

                                  @meister-mopper sagte in Neuer Proxmox Kernel verfügbar:

                                  Was bewirkt der Befehl?

                                  Mit deinen Informationen habe ich auch noch mal recherchiert. Dieses Offloading macht sich insbesondere bei schnellen Netzwerk-Verbindungen bemerkbar .. logisch. Ich bemerke hier keine nennenswerte CPU-Laständerung.

                                  EDIT: wahrscheinlich macht es sich dann auch bei Übertragung größerer Datenmengen bemerkbar .. backup oder ähnliches

                                  Meister MopperM Online
                                  Meister MopperM Online
                                  Meister Mopper
                                  wrote on last edited by
                                  #20

                                  @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                                  wahrscheinlich macht es sich dann auch bei Übertragung größerer Datenmengen bemerkbar

                                  Keine Erkenntnis. Ich sichere Daten inkrementell mit dem Proxmox Backup Server. Das funktioniert mit dem aktellen Kernel sehr gut.

                                  Proxmox und HA - dank KI/AI endlich "blocklyfrei"

                                  P 1 Reply Last reply
                                  0
                                  • Meister MopperM Meister Mopper

                                    @agrippinenser sagte in Neuer Proxmox Kernel verfügbar:

                                    wahrscheinlich macht es sich dann auch bei Übertragung größerer Datenmengen bemerkbar

                                    Keine Erkenntnis. Ich sichere Daten inkrementell mit dem Proxmox Backup Server. Das funktioniert mit dem aktellen Kernel sehr gut.

                                    P Offline
                                    P Offline
                                    peterfido
                                    wrote on last edited by
                                    #21

                                    @meister-mopper Bei den Intel NUCs mit bestimmten Intel-Netzwerkadaptern war die Verbindung nach einiger Zeit problematisch. Abhilfe hatten da die Befehle gebracht, welche die (eigentlich) per Hardware durchgeführten Vorgänge (Handshaking und Co) CPU belastender in Software erledigen lassen. Für Windows hatte Intel neue Treiber (inkl. Firmware) herausgebracht.

                                    Bei mir trat das Problem allerdings hauptsächlich auf dem NUC6CAYH auf.

                                    Gruß

                                    Peterfido


                                    Proxmox auf Intel NUC12WSHi5
                                    ioBroker: Debian (VM)
                                    CCU: Debmatic (VM)
                                    Influx: Debian (VM)
                                    Grafana: Debian (VM)
                                    eBus: Debian (VM)
                                    Zigbee: Debian (VM) mit zigbee2mqtt

                                    1 Reply Last reply
                                    0
                                    Reply
                                    • Reply as topic
                                    Log in to reply
                                    • Oldest to Newest
                                    • Newest to Oldest
                                    • Most Votes


                                    Support us

                                    ioBroker
                                    Community Adapters
                                    Donate

                                    575

                                    Online

                                    32.7k

                                    Users

                                    82.6k

                                    Topics

                                    1.3m

                                    Posts
                                    Community
                                    Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                    ioBroker Community 2014-2025
                                    logo
                                    • Login

                                    • Don't have an account? Register

                                    • Login or register to search.
                                    • First post
                                      Last post
                                    0
                                    • Home
                                    • Recent
                                    • Tags
                                    • Unread 0
                                    • Categories
                                    • Unreplied
                                    • Popular
                                    • GitHub
                                    • Docu
                                    • Hilfe