Navigation

    Logo
    • Register
    • Login
    • Search
    • Recent
    • Tags
    • Unread
    • Categories
    • Unreplied
    • Popular
    • GitHub
    • Docu
    • Hilfe
    1. Home
    2. Deutsch
    3. Off Topic
    4. Proxmox
    5. Proxmox Fehler nach rebuild

    NEWS

    • Wir empfehlen: Node.js 22.x

    • Neuer Blog: Fotos und Eindrücke aus Solingen

    • ioBroker goes Matter ... Matter Adapter in Stable

    Proxmox Fehler nach rebuild

    This topic has been deleted. Only users with topic management privileges can see it.
    • Homoran
      Homoran Global Moderator Administrators @toki1973 last edited by

      @toki1973 sagte in Proxmox Fehler nach rebuild:

      Bisher habe ich noch keinen Thread gefunden der das Thema thin pool pve behandelt.

      https://forum.iobroker.net/search?term=thin pool pve &in=titlesposts

      1 Reply Last reply Reply Quote 0
      • crunchip
        crunchip Forum Testing Most Active @toki1973 last edited by

        @toki1973 snapshot ist kein backup, ein backup erstellen und zurückspielen, im zweifelsfall rettet dich das ebenso und dauert auch nicht viel länger.

        T 1 Reply Last reply Reply Quote 1
        • T
          toki1973 @crunchip last edited by toki1973

          @crunchip Danke. Es schient so als ob ich das gleiche Problem mit der Speicherbelegung habe. Aber so ganz genau kann ich im verlinkten Thread nicht nachvollziehen wir ich vorgehen kann.
          Hier mal ein paar infos zu meiner Konfiguration.

          root@proxmox:~# lvm
          lvm> 
          root@proxmox:~# lvs
            LV                                              VG  Attr       LSize    Pool Origin                       Data%  Meta%  Move Log Cpy%Sync Convert
            data                                            pve twi-aotzD- <152.61g                                   100.00 5.85                            
            root                                            pve -wi-ao----   59.25g                                                                          
            snap_vm-100-disk-0_Grundinstallation_aus_Backup pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
            snap_vm-100-disk-0_MitGrafanaInfluxDBundZigbee  pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
            snap_vm-100-disk-0_YearlySnap                   pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
            snap_vm-101-disk-0_Working                      pve Vri---tz-k   32.00g data vm-101-disk-0                                                       
            snap_vm-102-disk-0_vorUpdate                    pve Vri---tz-k   32.00g data                                                                     
            snap_vm-200-disk-0_GrafanaInitial               pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
            snap_vm-200-disk-0_Initial                      pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
            snap_vm-200-disk-0_YearlySnap                   pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
            snap_vm-200-disk-0_working                      pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
            swap                                            pve -wi-ao----    7.00g                                                                          
            vm-100-disk-0                                   pve Vwi-a-tz--   32.00g data                              99.87                                  
            vm-100-state-Grundinstallation_aus_Backup       pve Vwi-a-tz--    8.44g data                              12.37                                  
            vm-100-state-MitGrafanaInfluxDBundZigbee        pve Vwi-a-tz--    8.44g data                              35.17                                  
            vm-100-state-YearlySnap                         pve Vwi-a-tz--    8.44g data                              51.92                                  
            vm-101-disk-0                                   pve Vwi-aotz--   32.00g data                              34.32                                  
            vm-102-disk-0                                   pve Vwi-aotz--   32.00g data snap_vm-102-disk-0_vorUpdate 99.51                                  
            vm-102-state-vorUpdate                          pve Vwi-a-tz--    8.30g data                              51.88                                  
            vm-200-disk-0                                   pve Vwi-aotz--   20.00g data                              85.86                                  
            vm-200-state-GrafanaInitial                     pve Vwi-a-tz--   <4.49g data                              14.21                                  
            vm-200-state-Initial                            pve Vwi-a-tz--   <4.49g data                              37.55                                  
            vm-200-state-YearlySnap                         pve Vwi-a-tz--   <4.49g data                              43.57                                  
            vm-200-state-working                            pve Vwi-a-tz--   <4.49g data                              23.40                                  
          root@proxmox:~# 
          

          980ddab2-2304-49c0-98c4-8d996f309860-image.png

          a88653e7-8bf8-4726-b1ce-913c976393f1-image.png

          Die 100er lvm war meine alte Konfiguration. diese läßt sich aber nicht löschen:

          fe1a26e2-6bc0-42dd-a145-6266d41e4184-image.png

          crunchip 1 Reply Last reply Reply Quote 0
          • crunchip
            crunchip Forum Testing Most Active @toki1973 last edited by crunchip

            @toki1973 https://forum.iobroker.net/post/801905

            Und warum so viele snaps?

            T 1 Reply Last reply Reply Quote 0
            • T
              toki1973 @crunchip last edited by

              @crunchip Ich würde ja gerne etwas entfernen kann das aber nicht - siehe letzte Screen Shot. Auch die 100 würde ich gerne löschen ist aber nicht möglich.
              Was kann ich denn tun? Geht das über die Konsole?

              crunchip 1 Reply Last reply Reply Quote 0
              • crunchip
                crunchip Forum Testing Most Active @toki1973 last edited by

                @toki1973 sagte in Proxmox Fehler nach rebuild:

                kann das aber nicht - siehe letzte Screen Shot

                Hast du dir den link durchgelesen, da wird die Meldung behandelt

                T 1 Reply Last reply Reply Quote 0
                • T
                  toki1973 @crunchip last edited by

                  @crunchip Ja habe ich - aber irgendwie komme ich da nicht ganz zurecht damit. Ich hatte gehofft durch das posten von Screen kann mir jemand konkret das vorgehen beschreiben

                  crunchip 1 Reply Last reply Reply Quote 0
                  • crunchip
                    crunchip Forum Testing Most Active @toki1973 last edited by crunchip

                    @toki1973 sagte in Proxmox Fehler nach rebuild:

                    das vorgehen beschreiben

                    Es steh doch genau ab hier (die vmid natürlich an deine Vm Nummer anpassen)
                    https://forum.iobroker.net/post/803090
                    Oder schau da https://forum.proxmox.com/threads/solved-nicht-mehr-benutztes-disk-image-von-vm-kann-nicht-gelöscht-werden.75131/

                    pct rescan...für LXC
                    qm rescan...für VM

                    Und deinen Threadtitel solltest du anpassen

                    T 1 Reply Last reply Reply Quote 0
                    • T
                      toki1973 @crunchip last edited by

                      @crunchip
                      Danke für deine Geduld:

                      Ich hatte das hier probiert: 'qm rescan --vmid 100 von https://forum.proxmox.com/threads/solved-nicht-mehr-benutztes-disk-image-von-vm-kann-nicht-gelöscht-werden.75131/
                      Das ging nicht mit der Fehlermeldung Volume not online

                      root@proxmox:~# qm rescan --vmid 100
                      rescan volumes...
                      storage 'SynologyNAS' is not online
                      root@proxmox:~# qm rescan --vmid 102
                      rescan volumes...
                      storage 'SynologyNAS' is not online
                      root@proxmox:~# qm rescan --vmid 200
                      rescan volumes...
                      storage 'SynologyNAS' is not online
                      root@proxmox:~# qm rescan --vmid 101
                      rescan volumes...
                      storage 'SynologyNAS' is not online
                      root@proxmox:~# 
                      

                      Dieser Fehler kommt dann natürlich auch wenn ich über die GUI auf entfernen gehe

                      crunchip 1 Reply Last reply Reply Quote 0
                      • crunchip
                        crunchip Forum Testing Most Active @toki1973 last edited by

                        @toki1973 und warum sind beide Nas nicht verbunden?
                        Wenn du den laufenden Lxc bzw Vm anklickst, kannst du doch in der Gui auf snapshot wechseln, zeig mal

                        T 1 Reply Last reply Reply Quote 0
                        • T
                          toki1973 @crunchip last edited by toki1973

                          @crunchip
                          ed4c15c1-959f-452e-b4b2-42a82003fa49-image.png
                          Dann beim Entfernen:
                          a1e6cac6-ea99-43e6-8d7a-060e28a4d94d-image.png

                          Liegt vlt. daran das die Storage nicht online sind?

                          1 Reply Last reply Reply Quote 0
                          • crunchip
                            crunchip Forum Testing Most Active last edited by

                            @toki1973 ja, aber irgendwas hast du doch gelöscht, dein local-lvm ist doch laut deinem screen, jetzt nicht mehr voll

                            T 1 Reply Last reply Reply Quote 0
                            • T
                              toki1973 @crunchip last edited by

                              @crunchip
                              Hat den Snaphot wohl doch gelöscht trotz Fehlermeldung. War dann gelocked aber dazu habe ich auch etwas gefunden.
                              Aber bevor ich richtige Backups der VMs mache sollte ich noch irgendwie aufräumen. Ich schaue mir nochmal deinen Thread an in dem du @GOETSCHHOFER geholfen hast. Vlt. verstehe ich das Konstrukt dann besser...

                              1 Reply Last reply Reply Quote 0
                              • First post
                                Last post

                              Support us

                              ioBroker
                              Community Adapters
                              Donate

                              910
                              Online

                              32.0k
                              Users

                              80.5k
                              Topics

                              1.3m
                              Posts

                              node proxmox zigbee
                              4
                              20
                              554
                              Loading More Posts
                              • Oldest to Newest
                              • Newest to Oldest
                              • Most Votes
                              Reply
                              • Reply as topic
                              Log in to reply
                              Community
                              Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                              The ioBroker Community 2014-2023
                              logo