Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. Proxmox
  5. Resize Proxmox LVM um Backup zu ermöglichen

NEWS

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    22
    1
    1.0k

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    9.1k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    14
    1
    2.4k

Resize Proxmox LVM um Backup zu ermöglichen

Geplant Angeheftet Gesperrt Verschoben Proxmox
5 Beiträge 2 Kommentatoren 428 Aufrufe 1 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • S Offline
    S Offline
    seb2010
    schrieb am zuletzt editiert von
    #1

    Hallo zusammen,.
    ich verzweifle gerade an einer Situation auf meinem Proxmox 8.3.1 server, welcher 2 Debian LXC-Container mit iobroker hostet.
    Das Problem das ich lösen will ist, dass es in dieser Konfiguration seit 2 Wochen nicht mehr möglich ist für die Container im Snapshot-Modus vzdump-backups zu erstellen.
    Das Backup bricht mit dem error

    • ERROR: Backup of VM 100 failed - no lock found trying to remove 'backup' lock

    ab. Ich habe sehr viel um und mit den Locks probiert und das Problem scheint mit dem vzdump und der Speicherkalkulation zusammenzuhängen und nur durch unzureichende Error-Messages wird das Problem auf die locks geschoben. Auch ohne Lock-Dateien und Einträge in der Conf und ohne verwaiste Dumps kann kein Backup ausgeführt werden.

    Die Vermutung liegt nahe, dass für das Erstellen des dumps nicht genug Speicherplatz verfügbar ist.

    Folgendes Setup:
    Server mit 500GB SSD.
    Ein LXC-Container mit 128GB und einer mit 64GB Speicherplatz.
    Wie genau die Thin-Pools konfiguriert wurden, kann ich nicht mehr sagen, das hab ich im absoluten Newbie-Zustand durchgeführt. Vielleicht könnt ihr das in den Outputs unten sehen. Wenn ihr weitere braucht, sagt Bescheid.

    Ich GLAUBE, dass ich das pve-root von 96GB auf mindestens 128GB vergrößern muss, damit er den Snapshot der 100er VM erstellen kann. Dazu müsste ich also irgendwie an dem LVM, dem Thin-Pool oder was auch immer resizen, um das hinzubekommen. Ich habe aber null Ahnung wie das geht.
    Ich kann auch total falsch liegen oder es muss ein Umweg über einen neu zu erstellenden Thin-Pool gegangen werden. Ich kenne mich mit dem Konzept dahinter aber kaum aus und hab beim Einlesen auch irgendwie ein Brett vor dem Kopf.

    folgende Outputs kann ich schonmal liefern:

    lsblk:

    NAME                         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
    nvme0n1                      259:0    0 476.9G  0 disk
    ├─nvme0n1p1                  259:1    0  1007K  0 part
    ├─nvme0n1p2                  259:2    0     1G  0 part /boot/efi
    └─nvme0n1p3                  259:3    0 475.9G  0 part
      ├─pve-swap                 252:0    0     8G  0 lvm  [SWAP]
      ├─pve-root                 252:1    0    96G  0 lvm  /
      ├─pve-data_tmeta           252:2    0   3.6G  0 lvm
      │ └─pve-data-tpool         252:4    0 348.8G  0 lvm
      │   ├─pve-data             252:5    0 348.8G  1 lvm
      │   ├─pve-vm--100--disk--0 252:6    0   128G  0 lvm
      │   └─pve-vm--101--disk--0 252:7    0    64G  0 lvm
      └─pve-data_tdata           252:3    0 348.8G  0 lvm
        └─pve-data-tpool         252:4    0 348.8G  0 lvm
          ├─pve-data             252:5    0 348.8G  1 lvm
          ├─pve-vm--100--disk--0 252:6    0   128G  0 lvm
          └─pve-vm--101--disk--0 252:7    0    64G  0 lvm
    
    

    lvdisplay

      --- Logical volume ---
      LV Name                data
      VG Name                pve
      LV UUID                X9mSND-ir1z-rEg8-nYc5-W0rR-jzt5-CDkXku
      LV Write Access        read/write (activated read only)
      LV Creation host, time proxmox, 2023-11-30 18:48:03 +0100
      LV Pool metadata       data_tmeta
      LV Pool data           data_tdata
      LV Status              available
      # open                 0
      LV Size                <348.82 GiB
      Allocated pool data    54.37%
      Allocated metadata     2.22%
      Current LE             89297
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:5
    
      --- Logical volume ---
      LV Path                /dev/pve/swap
      LV Name                swap
      VG Name                pve
      LV UUID                wqzvbV-TwHh-MNT8-7ood-BPwz-Td2d-53r6dF
      LV Write Access        read/write
      LV Creation host, time proxmox, 2023-11-30 18:48:02 +0100
      LV Status              available
      # open                 2
      LV Size                8.00 GiB
      Current LE             2048
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:0
    
      --- Logical volume ---
      LV Path                /dev/pve/root
      LV Name                root
      VG Name                pve
      LV UUID                FZlOpt-BCsO-x10L-hnDt-eLK6-P6yY-buYtQt
      LV Write Access        read/write
      LV Creation host, time proxmox, 2023-11-30 18:48:02 +0100
      LV Status              available
      # open                 1
      LV Size                96.00 GiB
      Current LE             24576
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:1
    
      --- Logical volume ---
      LV Path                /dev/pve/vm-100-disk-0
      LV Name                vm-100-disk-0
      VG Name                pve
      LV UUID                R7iCI2-zrIb-lWi9-eoUw-Mii3-wJie-Dfy7xZ
      LV Write Access        read/write
      LV Creation host, time SJSERVER, 2023-11-30 19:19:09 +0100
      LV Pool name           data
      LV Status              available
      # open                 1
      LV Size                128.00 GiB
      Mapped size            99.95%
      Current LE             32768
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:6
    
      --- Logical volume ---
      LV Path                /dev/pve/vm-101-disk-0
      LV Name                vm-101-disk-0
      VG Name                pve
      LV UUID                6hxVC1-o1ri-DuIz-Ke7P-e3Ni-fdMe-zN35JA
      LV Write Access        read/write
      LV Creation host, time SJSERVER, 2025-03-18 20:40:00 +0100
      LV Pool name           data
      LV Status              available
      # open                 1
      LV Size                64.00 GiB
      Mapped size            96.44%
      Current LE             16384
      Segments               1
      Allocation             inherit
      Read ahead sectors     auto
      - currently set to     256
      Block device           252:7
    
    

    vzdump error text (es wird hier zwar auf ein rclone-gdrive gedumpt, aber es funktioniert auch nicht mit dem local-storage):

    INFO: starting new backup job: vzdump 101 100 --mode snapshot --fleecing 0 --node SJSERVER --prune-backups 'keep-last=3' --notes-template '{{guestname}}' --mailnotification always --quiet 1 --compress zstd --storage GDrive
    INFO: filesystem type on dumpdir is 'fuse.rclone' -using /var/tmp/vzdumptmp73646_100 for temporary files
    INFO: Starting Backup of VM 100 (lxc)
    INFO: Backup started at 2025-05-06 00:15:01
    INFO: status = running
    INFO: CT Name: sjserver01
    INFO: including mount point rootfs ('/') in backup
    INFO: excluding bind mount point mp0 ('/media/NAS') from backup (not a volume)
    INFO: backup mode: snapshot
    INFO: ionice priority: 7
    INFO: no lock found trying to remove any lock
    INFO: create storage snapshot 'vzdump'
    no lock found trying to remove 'backup'  lock
    ERROR: Backup of VM 100 failed - no lock found trying to remove 'backup'  lock
    INFO: Failed at 2025-05-06 00:15:02
    INFO: filesystem type on dumpdir is 'fuse.rclone' -using /var/tmp/vzdumptmp73646_101 for temporary files
    INFO: Starting Backup of VM 101 (lxc)
    INFO: Backup started at 2025-05-06 00:15:03
    INFO: status = running
    INFO: CT Name: wschi
    INFO: including mount point rootfs ('/') in backup
    INFO: backup mode: snapshot
    INFO: ionice priority: 7
    INFO: no lock found trying to remove any lock
    INFO: create storage snapshot 'vzdump'
    no lock found trying to remove 'backup'  lock
    ERROR: Backup of VM 101 failed - no lock found trying to remove 'backup'  lock
    INFO: Failed at 2025-05-06 00:15:05
    INFO: Backup job finished with errors
    TASK ERROR: job errors
    

    Kann mir hier irgendjemand helfen
    a) besser herauszufinden woram es jetzt genau liegt
    b) wie man es Schritt für Schritt löst

    Ein backup im stop-mode funktioniert, die VMs müssen aber rund-um-die-Uhr laufen. Ich kann da nicht stundenlang pausieren...

    Viele Grüße und Danke euch im Voraus
    SEB

    arteckA 1 Antwort Letzte Antwort
    0
    • S seb2010

      Hallo zusammen,.
      ich verzweifle gerade an einer Situation auf meinem Proxmox 8.3.1 server, welcher 2 Debian LXC-Container mit iobroker hostet.
      Das Problem das ich lösen will ist, dass es in dieser Konfiguration seit 2 Wochen nicht mehr möglich ist für die Container im Snapshot-Modus vzdump-backups zu erstellen.
      Das Backup bricht mit dem error

      • ERROR: Backup of VM 100 failed - no lock found trying to remove 'backup' lock

      ab. Ich habe sehr viel um und mit den Locks probiert und das Problem scheint mit dem vzdump und der Speicherkalkulation zusammenzuhängen und nur durch unzureichende Error-Messages wird das Problem auf die locks geschoben. Auch ohne Lock-Dateien und Einträge in der Conf und ohne verwaiste Dumps kann kein Backup ausgeführt werden.

      Die Vermutung liegt nahe, dass für das Erstellen des dumps nicht genug Speicherplatz verfügbar ist.

      Folgendes Setup:
      Server mit 500GB SSD.
      Ein LXC-Container mit 128GB und einer mit 64GB Speicherplatz.
      Wie genau die Thin-Pools konfiguriert wurden, kann ich nicht mehr sagen, das hab ich im absoluten Newbie-Zustand durchgeführt. Vielleicht könnt ihr das in den Outputs unten sehen. Wenn ihr weitere braucht, sagt Bescheid.

      Ich GLAUBE, dass ich das pve-root von 96GB auf mindestens 128GB vergrößern muss, damit er den Snapshot der 100er VM erstellen kann. Dazu müsste ich also irgendwie an dem LVM, dem Thin-Pool oder was auch immer resizen, um das hinzubekommen. Ich habe aber null Ahnung wie das geht.
      Ich kann auch total falsch liegen oder es muss ein Umweg über einen neu zu erstellenden Thin-Pool gegangen werden. Ich kenne mich mit dem Konzept dahinter aber kaum aus und hab beim Einlesen auch irgendwie ein Brett vor dem Kopf.

      folgende Outputs kann ich schonmal liefern:

      lsblk:

      NAME                         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
      nvme0n1                      259:0    0 476.9G  0 disk
      ├─nvme0n1p1                  259:1    0  1007K  0 part
      ├─nvme0n1p2                  259:2    0     1G  0 part /boot/efi
      └─nvme0n1p3                  259:3    0 475.9G  0 part
        ├─pve-swap                 252:0    0     8G  0 lvm  [SWAP]
        ├─pve-root                 252:1    0    96G  0 lvm  /
        ├─pve-data_tmeta           252:2    0   3.6G  0 lvm
        │ └─pve-data-tpool         252:4    0 348.8G  0 lvm
        │   ├─pve-data             252:5    0 348.8G  1 lvm
        │   ├─pve-vm--100--disk--0 252:6    0   128G  0 lvm
        │   └─pve-vm--101--disk--0 252:7    0    64G  0 lvm
        └─pve-data_tdata           252:3    0 348.8G  0 lvm
          └─pve-data-tpool         252:4    0 348.8G  0 lvm
            ├─pve-data             252:5    0 348.8G  1 lvm
            ├─pve-vm--100--disk--0 252:6    0   128G  0 lvm
            └─pve-vm--101--disk--0 252:7    0    64G  0 lvm
      
      

      lvdisplay

        --- Logical volume ---
        LV Name                data
        VG Name                pve
        LV UUID                X9mSND-ir1z-rEg8-nYc5-W0rR-jzt5-CDkXku
        LV Write Access        read/write (activated read only)
        LV Creation host, time proxmox, 2023-11-30 18:48:03 +0100
        LV Pool metadata       data_tmeta
        LV Pool data           data_tdata
        LV Status              available
        # open                 0
        LV Size                <348.82 GiB
        Allocated pool data    54.37%
        Allocated metadata     2.22%
        Current LE             89297
        Segments               1
        Allocation             inherit
        Read ahead sectors     auto
        - currently set to     256
        Block device           252:5
      
        --- Logical volume ---
        LV Path                /dev/pve/swap
        LV Name                swap
        VG Name                pve
        LV UUID                wqzvbV-TwHh-MNT8-7ood-BPwz-Td2d-53r6dF
        LV Write Access        read/write
        LV Creation host, time proxmox, 2023-11-30 18:48:02 +0100
        LV Status              available
        # open                 2
        LV Size                8.00 GiB
        Current LE             2048
        Segments               1
        Allocation             inherit
        Read ahead sectors     auto
        - currently set to     256
        Block device           252:0
      
        --- Logical volume ---
        LV Path                /dev/pve/root
        LV Name                root
        VG Name                pve
        LV UUID                FZlOpt-BCsO-x10L-hnDt-eLK6-P6yY-buYtQt
        LV Write Access        read/write
        LV Creation host, time proxmox, 2023-11-30 18:48:02 +0100
        LV Status              available
        # open                 1
        LV Size                96.00 GiB
        Current LE             24576
        Segments               1
        Allocation             inherit
        Read ahead sectors     auto
        - currently set to     256
        Block device           252:1
      
        --- Logical volume ---
        LV Path                /dev/pve/vm-100-disk-0
        LV Name                vm-100-disk-0
        VG Name                pve
        LV UUID                R7iCI2-zrIb-lWi9-eoUw-Mii3-wJie-Dfy7xZ
        LV Write Access        read/write
        LV Creation host, time SJSERVER, 2023-11-30 19:19:09 +0100
        LV Pool name           data
        LV Status              available
        # open                 1
        LV Size                128.00 GiB
        Mapped size            99.95%
        Current LE             32768
        Segments               1
        Allocation             inherit
        Read ahead sectors     auto
        - currently set to     256
        Block device           252:6
      
        --- Logical volume ---
        LV Path                /dev/pve/vm-101-disk-0
        LV Name                vm-101-disk-0
        VG Name                pve
        LV UUID                6hxVC1-o1ri-DuIz-Ke7P-e3Ni-fdMe-zN35JA
        LV Write Access        read/write
        LV Creation host, time SJSERVER, 2025-03-18 20:40:00 +0100
        LV Pool name           data
        LV Status              available
        # open                 1
        LV Size                64.00 GiB
        Mapped size            96.44%
        Current LE             16384
        Segments               1
        Allocation             inherit
        Read ahead sectors     auto
        - currently set to     256
        Block device           252:7
      
      

      vzdump error text (es wird hier zwar auf ein rclone-gdrive gedumpt, aber es funktioniert auch nicht mit dem local-storage):

      INFO: starting new backup job: vzdump 101 100 --mode snapshot --fleecing 0 --node SJSERVER --prune-backups 'keep-last=3' --notes-template '{{guestname}}' --mailnotification always --quiet 1 --compress zstd --storage GDrive
      INFO: filesystem type on dumpdir is 'fuse.rclone' -using /var/tmp/vzdumptmp73646_100 for temporary files
      INFO: Starting Backup of VM 100 (lxc)
      INFO: Backup started at 2025-05-06 00:15:01
      INFO: status = running
      INFO: CT Name: sjserver01
      INFO: including mount point rootfs ('/') in backup
      INFO: excluding bind mount point mp0 ('/media/NAS') from backup (not a volume)
      INFO: backup mode: snapshot
      INFO: ionice priority: 7
      INFO: no lock found trying to remove any lock
      INFO: create storage snapshot 'vzdump'
      no lock found trying to remove 'backup'  lock
      ERROR: Backup of VM 100 failed - no lock found trying to remove 'backup'  lock
      INFO: Failed at 2025-05-06 00:15:02
      INFO: filesystem type on dumpdir is 'fuse.rclone' -using /var/tmp/vzdumptmp73646_101 for temporary files
      INFO: Starting Backup of VM 101 (lxc)
      INFO: Backup started at 2025-05-06 00:15:03
      INFO: status = running
      INFO: CT Name: wschi
      INFO: including mount point rootfs ('/') in backup
      INFO: backup mode: snapshot
      INFO: ionice priority: 7
      INFO: no lock found trying to remove any lock
      INFO: create storage snapshot 'vzdump'
      no lock found trying to remove 'backup'  lock
      ERROR: Backup of VM 101 failed - no lock found trying to remove 'backup'  lock
      INFO: Failed at 2025-05-06 00:15:05
      INFO: Backup job finished with errors
      TASK ERROR: job errors
      

      Kann mir hier irgendjemand helfen
      a) besser herauszufinden woram es jetzt genau liegt
      b) wie man es Schritt für Schritt löst

      Ein backup im stop-mode funktioniert, die VMs müssen aber rund-um-die-Uhr laufen. Ich kann da nicht stundenlang pausieren...

      Viele Grüße und Danke euch im Voraus
      SEB

      arteckA Offline
      arteckA Offline
      arteck
      Developer Most Active
      schrieb am zuletzt editiert von arteck
      #2

      @seb2010 wozu legt man eine VM mit 128 GB oder 64 GB an... ich check das nicht.. sry.....

      lvremove /dev/pve/snap_vm-100-disk-0_vzdump
      

      sollte die Lösung sein

      wenn nicht hier nachlesen
      https://forum.iobroker.net/topic/70354/proxmox-fehlermeldung-bei-backup-vzdump/18

      und vor allem warum macht man ein backup auf die selbe platte wo die VM's liegen..
      du solltest dein backup konzept überdenken

      zigbee hab ich, zwave auch, nuc's genauso und HA auch

      S 3 Antworten Letzte Antwort
      0
      • arteckA arteck

        @seb2010 wozu legt man eine VM mit 128 GB oder 64 GB an... ich check das nicht.. sry.....

        lvremove /dev/pve/snap_vm-100-disk-0_vzdump
        

        sollte die Lösung sein

        wenn nicht hier nachlesen
        https://forum.iobroker.net/topic/70354/proxmox-fehlermeldung-bei-backup-vzdump/18

        und vor allem warum macht man ein backup auf die selbe platte wo die VM's liegen..
        du solltest dein backup konzept überdenken

        S Offline
        S Offline
        seb2010
        schrieb am zuletzt editiert von seb2010
        #3

        @arteck auf der VM 128GB läuft alles mögliche incl. Live-Video-Processing, InfluxDB etc. Die 64GB hat "nur" iobroker und influxdb. Beide sind ca. 70% voll.
        Ich bin einfach von SD-Karten auf Proxmox migriert und habe dann einfach die Größen der SD-Karten genommen...
        Aber wie gesagt, kam als Newbie auf Proxmox ohne einen Plan von best-practise.

        Oder was stößt dir hier auf?

        1 Antwort Letzte Antwort
        0
        • arteckA arteck

          @seb2010 wozu legt man eine VM mit 128 GB oder 64 GB an... ich check das nicht.. sry.....

          lvremove /dev/pve/snap_vm-100-disk-0_vzdump
          

          sollte die Lösung sein

          wenn nicht hier nachlesen
          https://forum.iobroker.net/topic/70354/proxmox-fehlermeldung-bei-backup-vzdump/18

          und vor allem warum macht man ein backup auf die selbe platte wo die VM's liegen..
          du solltest dein backup konzept überdenken

          S Offline
          S Offline
          seb2010
          schrieb am zuletzt editiert von seb2010
          #4

          @arteck
          Das Backup geht auf ein google-drive was ich in /mnt/gdrive mit rclone mounte (storage Gdrive). Das ist auch das eigentliche Ziel (storage) des Backups. Das local backup hab ich nur erwähnt/getestet um Probleme mit der remote-location auszuschließen. Ich glaube aber auch, dass trotz des remote-targets er local Speicher benötigt. Und der ist nicht mehr ausreichend vorhanden...

          1 Antwort Letzte Antwort
          0
          • arteckA arteck

            @seb2010 wozu legt man eine VM mit 128 GB oder 64 GB an... ich check das nicht.. sry.....

            lvremove /dev/pve/snap_vm-100-disk-0_vzdump
            

            sollte die Lösung sein

            wenn nicht hier nachlesen
            https://forum.iobroker.net/topic/70354/proxmox-fehlermeldung-bei-backup-vzdump/18

            und vor allem warum macht man ein backup auf die selbe platte wo die VM's liegen..
            du solltest dein backup konzept überdenken

            S Offline
            S Offline
            seb2010
            schrieb am zuletzt editiert von seb2010
            #5

            @arteck
            Ich habe keine stale dumps oder locks. Das habe ich schon alles bereinigt. Die Lösungen aus dem Thread tun es nicht. Es liegt nicht an verwaisten Dumps oder Locks.

            1 Antwort Letzte Antwort
            0
            Antworten
            • In einem neuen Thema antworten
            Anmelden zum Antworten
            • Älteste zuerst
            • Neuste zuerst
            • Meiste Stimmen


            Support us

            ioBroker
            Community Adapters
            Donate

            569

            Online

            32.5k

            Benutzer

            81.6k

            Themen

            1.3m

            Beiträge
            Community
            Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
            ioBroker Community 2014-2025
            logo
            • Anmelden

            • Du hast noch kein Konto? Registrieren

            • Anmelden oder registrieren, um zu suchen
            • Erster Beitrag
              Letzter Beitrag
            0
            • Home
            • Aktuell
            • Tags
            • Ungelesen 0
            • Kategorien
            • Unreplied
            • Beliebt
            • GitHub
            • Docu
            • Hilfe