Weiter zum Inhalt
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Hell
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dunkel
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. ioBroker Allgemein
  4. Durch proxmox VM neustart 1,5 GB mehr RAM

NEWS

  • Neuer ioBroker-Blog online: Monatsrückblick März/April 2026
    BluefoxB
    Bluefox
    8
    1
    314

  • Verwendung von KI bitte immer deutlich kennzeichnen
    HomoranH
    Homoran
    9
    1
    290

  • Monatsrückblick Januar/Februar 2026 ist online!
    BluefoxB
    Bluefox
    18
    1
    922

Durch proxmox VM neustart 1,5 GB mehr RAM

Geplant Angeheftet Gesperrt Verschoben ioBroker Allgemein
proxmox
17 Beiträge 5 Kommentatoren 1.4k Aufrufe 5 Beobachtet
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • BBTownB BBTown

    @saeft_2003 Hast Du denn eine Idee welches der 5 VMs sich scheinbar aufbläht?

    Wenn Du im "Rechnzentrum" auf den Knoten von Proxmox gehst solltet Du unter "Suche" eine Liste der VMs mit u.a. der Disk-Auslastung sehen können

    S Offline
    S Offline
    saeft_2003
    Most Active
    schrieb am zuletzt editiert von
    #8

    @BBTown

    evtl vielleicht debian mit tasmoadmin. Aber diese VM hat nur eine boot disk größe von 5GB, wie kann das immer mehr werden?

    root@tasmoadmin:~# df -h
    Dateisystem Größe Benutzt Verf. Verw% Eingehängt auf
    udev 230M 0 230M 0% /dev
    tmpfs 49M 3,5M 45M 8% /run
    /dev/sda1 4,4G 2,5G 1,7G 61% /
    tmpfs 241M 0 241M 0% /dev/shm
    tmpfs 5,0M 0 5,0M 0% /run/lock
    tmpfs 241M 0 241M 0% /sys/fs/cgroup
    tmpfs 49M 0 49M 0% /run/user/0

    1 Antwort Letzte Antwort
    0
    • BBTownB BBTown

      @saeft_2003 Hast Du denn eine Idee welches der 5 VMs sich scheinbar aufbläht?

      Wenn Du im "Rechnzentrum" auf den Knoten von Proxmox gehst solltet Du unter "Suche" eine Liste der VMs mit u.a. der Disk-Auslastung sehen können

      S Offline
      S Offline
      saeft_2003
      Most Active
      schrieb am zuletzt editiert von
      #9

      @BBTown

      die Diskauslastung wird unter Suche nicht angezeigt.

      disk.jpg

      1 Antwort Letzte Antwort
      0
      • S saeft_2003

        @Homoran @liv-in-sky

        ich weiß nicht ob ihr proxmox nutzt oder nicht, aber vielleicht könnt ihr mir trotzdem weiter helfen. Mein Problem ist der sich der local-lvm Speicher von "alleine" füllt. Ich habe 5 VMs laufen mit 32, 10, 10, 5 und 5 GB Boot Disk größe macht zusammen 62 GB. Am 2.7. um 23:00 war die Auslastung von local-lvm bei 100% und zwei VMs liefen nicht mehr wegen IO Error.

        Darauf hin habe ich eine VM gelöscht, dann war wieder genügend Speicher vorhanden, der sich aber jetzt wieder füllt obwohl ich gar nichts mache außer das die VMs laufen. Backups werden auf einem NAS gespeichert. Ich habe bedenken das die Auslastung wieder bis 100% steigt, oder will Linux auch hier einfach so viel Speicher wie möglich nutzen!?

        Wenn ich mir über putty mit df -h den genutzen Speicher der einzelen VMs einzeigen lasse, dann wird nur ungefähr 1/3 von den 62GB verwendet. Wieso zeigt mir proxmox aber eine Auslastung von 90% an?

        lvm.jpg

        liv-in-skyL Offline
        liv-in-skyL Offline
        liv-in-sky
        schrieb am zuletzt editiert von
        #10

        @saeft_2003
        was sagt df -h auf dem server mit proxmox - nicht einzelne vms

        nach einem gelösten Thread wäre es sinnvoll dies in der Überschrift des ersten Posts einzutragen [gelöst]-... Bitte benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat. Forum-Tools: PicPick https://picpick.app/en/download/ und ScreenToGif https://www.screentogif.com/downloads.html

        S 1 Antwort Letzte Antwort
        0
        • liv-in-skyL liv-in-sky

          @saeft_2003
          was sagt df -h auf dem server mit proxmox - nicht einzelne vms

          S Offline
          S Offline
          saeft_2003
          Most Active
          schrieb am zuletzt editiert von saeft_2003
          #11

          @liv-in-sky

          root@pve:~# df -h
          Filesystem Size Used Avail Use % Mounted on
          udev 3.9G 0 3.9G 0 % /dev
          tmpfs 783M 78M 706M 10 % /run
          /dev/mapper/pve-root 25G 12G 12G 51 % /
          tmpfs 3.9G 43M 3.8G 2 % /dev/shm
          tmpfs 5.0M 0 5.0M 0 % /run/lock
          tmpfs 3.9G 0 3.9G 0 % /sys/fs/cgroup
          /dev/sda2 511M 304K 511M 1 % /boot/efi
          /dev/fuse 30M 20K 30M 1 % /etc/pve
          192.168.178.97:/volume1/homes/Patrick/Drive/Backup proxmox 2.7T 924G 1.8T 34 % /mnt/pve/Diskstation

          das habe ich gerade im proxmox forum gelesen:

          Der Screenshot im ersten Post sagt lediglich aus, dass die Volume Group "pve" bereits 88% der darunterliegenden Disk in Anspruch nimmt was ja grundsätzlich nicht bedeutet, dass die Disk "voll" ist im Sinne von ich kann dort keine Daten mehr ablegen.
          Am besten einmal den Output von folgenden Kommandos vergleichen:

          vgs

          pvs

          lvs

          Thin provisioning heißt eigentlich lediglich, dass nur der tatsächlich genutzte Speicher auch wirklich reserviert wird. Das ganze hat eigentlich hauptsächlich damit zu tun, dass man generell dazu verleitet ist zu viel Speicherplatz zuzuweisen und dieser eigentlich effizienter genutzt werden könnte. Sprich ich hätte gerne 1TB, genutzt wird aber nur 200GB, ergo werden nur 200GB zur Verfügung gestellt. Am Ende muss man natürlich immer darauf achten, dass auch wirklich genug physischer Speicherplatz vorhanden ist auch wenn man virtuell über den tatsächlichen verfügbaren hinausgehen kann solange er nicht genutzt wird.

          Das sagt lvs:

          root@pve:~# lvs
          LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
          data pve twi-aotz-- 62.42g 90.19 2.61
          root pve -wi-ao---- 25.00g
          snap_vm-100-disk-0_autodaily190701000004 pve Vri---tz-k 32.00g data vm-100-disk-0
          snap_vm-100-disk-0_autodaily190702000004 pve Vri---tz-k 32.00g data vm-100-disk-0
          snap_vm-100-disk-0_autodaily190703000004 pve Vri---tz-k 32.00g data vm-100-disk-0
          snap_vm-100-disk-0_autodaily190704000004 pve Vri---tz-k 32.00g data vm-100-disk-0
          snap_vm-100-disk-0_autodaily190705000004 pve Vri---tz-k 32.00g data vm-100-disk-0
          swap pve -wi-ao---- 8.00g
          vm-100-disk-0 pve Vwi-aotz-- 32.00g data 78.94
          vm-300-disk-0 pve Vwi-aotz-- 10.00g data 24.83
          vm-400-disk-0 pve Vwi-aotz-- 10.00g data 40.74
          vm-500-disk-0 pve Vwi-aotz-- 5.00g data 59.26
          vm-600-disk-0 pve Vwi-a-tz-- 5.00g data 52.41

          liv-in-skyL 1 Antwort Letzte Antwort
          0
          • S saeft_2003

            @liv-in-sky

            root@pve:~# df -h
            Filesystem Size Used Avail Use % Mounted on
            udev 3.9G 0 3.9G 0 % /dev
            tmpfs 783M 78M 706M 10 % /run
            /dev/mapper/pve-root 25G 12G 12G 51 % /
            tmpfs 3.9G 43M 3.8G 2 % /dev/shm
            tmpfs 5.0M 0 5.0M 0 % /run/lock
            tmpfs 3.9G 0 3.9G 0 % /sys/fs/cgroup
            /dev/sda2 511M 304K 511M 1 % /boot/efi
            /dev/fuse 30M 20K 30M 1 % /etc/pve
            192.168.178.97:/volume1/homes/Patrick/Drive/Backup proxmox 2.7T 924G 1.8T 34 % /mnt/pve/Diskstation

            das habe ich gerade im proxmox forum gelesen:

            Der Screenshot im ersten Post sagt lediglich aus, dass die Volume Group "pve" bereits 88% der darunterliegenden Disk in Anspruch nimmt was ja grundsätzlich nicht bedeutet, dass die Disk "voll" ist im Sinne von ich kann dort keine Daten mehr ablegen.
            Am besten einmal den Output von folgenden Kommandos vergleichen:

            vgs

            pvs

            lvs

            Thin provisioning heißt eigentlich lediglich, dass nur der tatsächlich genutzte Speicher auch wirklich reserviert wird. Das ganze hat eigentlich hauptsächlich damit zu tun, dass man generell dazu verleitet ist zu viel Speicherplatz zuzuweisen und dieser eigentlich effizienter genutzt werden könnte. Sprich ich hätte gerne 1TB, genutzt wird aber nur 200GB, ergo werden nur 200GB zur Verfügung gestellt. Am Ende muss man natürlich immer darauf achten, dass auch wirklich genug physischer Speicherplatz vorhanden ist auch wenn man virtuell über den tatsächlichen verfügbaren hinausgehen kann solange er nicht genutzt wird.

            Das sagt lvs:

            root@pve:~# lvs
            LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
            data pve twi-aotz-- 62.42g 90.19 2.61
            root pve -wi-ao---- 25.00g
            snap_vm-100-disk-0_autodaily190701000004 pve Vri---tz-k 32.00g data vm-100-disk-0
            snap_vm-100-disk-0_autodaily190702000004 pve Vri---tz-k 32.00g data vm-100-disk-0
            snap_vm-100-disk-0_autodaily190703000004 pve Vri---tz-k 32.00g data vm-100-disk-0
            snap_vm-100-disk-0_autodaily190704000004 pve Vri---tz-k 32.00g data vm-100-disk-0
            snap_vm-100-disk-0_autodaily190705000004 pve Vri---tz-k 32.00g data vm-100-disk-0
            swap pve -wi-ao---- 8.00g
            vm-100-disk-0 pve Vwi-aotz-- 32.00g data 78.94
            vm-300-disk-0 pve Vwi-aotz-- 10.00g data 24.83
            vm-400-disk-0 pve Vwi-aotz-- 10.00g data 40.74
            vm-500-disk-0 pve Vwi-aotz-- 5.00g data 59.26
            vm-600-disk-0 pve Vwi-a-tz-- 5.00g data 52.41

            liv-in-skyL Offline
            liv-in-skyL Offline
            liv-in-sky
            schrieb am zuletzt editiert von liv-in-sky
            #12

            @saeft_2003

            sorry aber ich denke, da kann ich keine hilfe sein - bei mir sieht das alles ganz anders aus - da reicht meine kenntnis über proxmox nicht aus

            könnte es irgendein log sein, dass explodiert - hatte das vor kurzem: var/log/daemon.log und syslog waren jeweils 5GB groß - platte voll - server tot - der simple-api adapter (nach update) hat plötzlich mehr ins syslog geschrieben - wurde in neuer version dank apollon gefixt

            mehr fällt mir leider dazu nicht ein (was aber df -h aufzeigen müßte)

            nach einem gelösten Thread wäre es sinnvoll dies in der Überschrift des ersten Posts einzutragen [gelöst]-... Bitte benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat. Forum-Tools: PicPick https://picpick.app/en/download/ und ScreenToGif https://www.screentogif.com/downloads.html

            S 1 Antwort Letzte Antwort
            0
            • liv-in-skyL liv-in-sky

              @saeft_2003

              sorry aber ich denke, da kann ich keine hilfe sein - bei mir sieht das alles ganz anders aus - da reicht meine kenntnis über proxmox nicht aus

              könnte es irgendein log sein, dass explodiert - hatte das vor kurzem: var/log/daemon.log und syslog waren jeweils 5GB groß - platte voll - server tot - der simple-api adapter (nach update) hat plötzlich mehr ins syslog geschrieben - wurde in neuer version dank apollon gefixt

              mehr fällt mir leider dazu nicht ein (was aber df -h aufzeigen müßte)

              S Offline
              S Offline
              saeft_2003
              Most Active
              schrieb am zuletzt editiert von
              #13

              @liv-in-sky

              ok danke. mit dem befehl lvs sieht man das die vm 100 größer geworden ist darauf läuft iobroker mit history und auf der vm 300 die auch größer geworden ist läuft grafana mit einer influxdb.

              Wo kann man die history daten löschen?

              lvs.jpg

              liv-in-skyL 1 Antwort Letzte Antwort
              0
              • S saeft_2003

                @liv-in-sky

                ok danke. mit dem befehl lvs sieht man das die vm 100 größer geworden ist darauf läuft iobroker mit history und auf der vm 300 die auch größer geworden ist läuft grafana mit einer influxdb.

                Wo kann man die history daten löschen?

                lvs.jpg

                liv-in-skyL Offline
                liv-in-skyL Offline
                liv-in-sky
                schrieb am zuletzt editiert von liv-in-sky
                #14

                @saeft_2003 bevor du etwas löscht

                kennst du ncdu (apt-get install ncdu) - vielleicht hilft es ja bei der suche - man kann ähnlich wie bei treesize (windows) durch die ordner "hüpfen"

                damit kannst du sehr einfach und schnell die ordnergrößen checken z.b.

                cd /opt/iobroker
                ncdu

                zu history:
                https://forum.iobroker.net/post/229496

                entweder hast du den pfad selbst angelegt im setting der history oder es ist unter /opt/iobroker/iobroker-data/history

                ps: machst du automatische backups unter /opt/iobroker/backups - evtl dort zu viele files ?

                nach einem gelösten Thread wäre es sinnvoll dies in der Überschrift des ersten Posts einzutragen [gelöst]-... Bitte benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat. Forum-Tools: PicPick https://picpick.app/en/download/ und ScreenToGif https://www.screentogif.com/downloads.html

                S 1 Antwort Letzte Antwort
                1
                • W Online
                  W Online
                  Wildbill
                  schrieb am zuletzt editiert von
                  #15

                  Hi,

                  für mich sieht es so aus, als ob Du von der VM100 (iobroker?) in Proxmox automatisch tägliche Snapshots anlegen lässt, die aber anscheindend nicht in Deinen Backup-Ordner wandern, sondern direkt in local-lvm. Da würde ich mal schauen, ob da das falsche ausgewählt wurde.

                  Gruss, Jürgen

                  S 1 Antwort Letzte Antwort
                  0
                  • W Wildbill

                    Hi,

                    für mich sieht es so aus, als ob Du von der VM100 (iobroker?) in Proxmox automatisch tägliche Snapshots anlegen lässt, die aber anscheindend nicht in Deinen Backup-Ordner wandern, sondern direkt in local-lvm. Da würde ich mal schauen, ob da das falsche ausgewählt wurde.

                    Gruss, Jürgen

                    S Offline
                    S Offline
                    saeft_2003
                    Most Active
                    schrieb am zuletzt editiert von
                    #16

                    @Wildbill

                    ich habe die snaps gelöscht, diese haben einen großen Teil ausgemacht! Danke für den Tipp...

                    lvm.jpg

                    1 Antwort Letzte Antwort
                    0
                    • liv-in-skyL liv-in-sky

                      @saeft_2003 bevor du etwas löscht

                      kennst du ncdu (apt-get install ncdu) - vielleicht hilft es ja bei der suche - man kann ähnlich wie bei treesize (windows) durch die ordner "hüpfen"

                      damit kannst du sehr einfach und schnell die ordnergrößen checken z.b.

                      cd /opt/iobroker
                      ncdu

                      zu history:
                      https://forum.iobroker.net/post/229496

                      entweder hast du den pfad selbst angelegt im setting der history oder es ist unter /opt/iobroker/iobroker-data/history

                      ps: machst du automatische backups unter /opt/iobroker/backups - evtl dort zu viele files ?

                      S Offline
                      S Offline
                      saeft_2003
                      Most Active
                      schrieb am zuletzt editiert von
                      #17

                      @liv-in-sky

                      Danke. Ne in backups liegen nur ein paar files. Die snapshots haben einen großen Teil ausgemacht.

                      1 Antwort Letzte Antwort
                      0

                      Hey! Du scheinst an dieser Unterhaltung interessiert zu sein, hast aber noch kein Konto.

                      Hast du es satt, bei jedem Besuch durch die gleichen Beiträge zu scrollen? Wenn du dich für ein Konto anmeldest, kommst du immer genau dorthin zurück, wo du zuvor warst, und kannst dich über neue Antworten benachrichtigen lassen (entweder per E-Mail oder Push-Benachrichtigung). Du kannst auch Lesezeichen speichern und Beiträge positiv bewerten, um anderen Community-Mitgliedern deine Wertschätzung zu zeigen.

                      Mit deinem Input könnte dieser Beitrag noch besser werden 💗

                      Registrieren Anmelden
                      Antworten
                      • In einem neuen Thema antworten
                      Anmelden zum Antworten
                      • Älteste zuerst
                      • Neuste zuerst
                      • Meiste Stimmen


                      Support us

                      ioBroker
                      Community Adapters
                      Donate
                      FAQ Cloud / IOT
                      HowTo: Node.js-Update
                      HowTo: Backup/Restore
                      Downloads
                      BLOG

                      456

                      Online

                      32.8k

                      Benutzer

                      82.8k

                      Themen

                      1.3m

                      Beiträge
                      Community
                      Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                      ioBroker Community 2014-2025
                      logo
                      • Anmelden

                      • Du hast noch kein Konto? Registrieren

                      • Anmelden oder registrieren, um zu suchen
                      • Erster Beitrag
                        Letzter Beitrag
                      0
                      • Home
                      • Aktuell
                      • Tags
                      • Ungelesen 0
                      • Kategorien
                      • Unreplied
                      • Beliebt
                      • GitHub
                      • Docu
                      • Hilfe