Skip to content
  • Home
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. Proxmox
  5. Proxmox Fehler nach rebuild

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.7k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    2.2k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    16
    1
    3.1k

Proxmox Fehler nach rebuild

Scheduled Pinned Locked Moved Proxmox
proxmoxnodezigbee
20 Posts 4 Posters 774 Views 2 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • T Offline
    T Offline
    toki1973
    wrote on last edited by
    #1
    Systemdata Bitte Ausfüllen
    Hardwaresystem: NUC
    Arbeitsspeicher: 8 GB
    Festplattenart: SSD
    Betriebssystem: Ubuntu Debian 10
    Node-Version: 14.19.3
    Nodejs-Version: 14.19.3
    NPM-Version: 614.17
    Installationsart: Skript/Manuell
    Image genutzt: Ja/Nein
    Ort/Name der Imagedatei: Link

    Nach dem Update auf node 14.19. kam die Fehlermeldung das Zigbee einen rebulid benötigt. Das habe ich angestartet und wurde nach einiger Zeit über Putty getrennt. Nun bekomme ich dei Proxmox VM nicht mehr gestartet und über die Proxmox Konsole nur das hier angezeigt

    7b53cf31-2b37-4ac5-8552-cc4f702d9050-image.png

    Ideee was passiert ist und wie man das reparieren kann?
    https://forum.iobroker.net/topic/53854/nach-nodejs-update-16-x-startet-zigbee-nicht-mehr/9

    NUC, PROXMOX, Grafana, Influx, Unify

    arteckA crunchipC 2 Replies Last reply
    0
    • T toki1973
      Systemdata Bitte Ausfüllen
      Hardwaresystem: NUC
      Arbeitsspeicher: 8 GB
      Festplattenart: SSD
      Betriebssystem: Ubuntu Debian 10
      Node-Version: 14.19.3
      Nodejs-Version: 14.19.3
      NPM-Version: 614.17
      Installationsart: Skript/Manuell
      Image genutzt: Ja/Nein
      Ort/Name der Imagedatei: Link

      Nach dem Update auf node 14.19. kam die Fehlermeldung das Zigbee einen rebulid benötigt. Das habe ich angestartet und wurde nach einiger Zeit über Putty getrennt. Nun bekomme ich dei Proxmox VM nicht mehr gestartet und über die Proxmox Konsole nur das hier angezeigt

      7b53cf31-2b37-4ac5-8552-cc4f702d9050-image.png

      Ideee was passiert ist und wie man das reparieren kann?
      https://forum.iobroker.net/topic/53854/nach-nodejs-update-16-x-startet-zigbee-nicht-mehr/9

      arteckA Offline
      arteckA Offline
      arteck
      Developer Most Active
      wrote on last edited by
      #2

      @toki1973 was ...ein npm rebuild verursaht das nicht.. du hast ein anderes problem.

      https://forum.proxmox.com/threads/fehlermeldung-auf-der-konsole-der-vm.84349/

      zigbee hab ich, zwave auch, nuc's genauso und HA auch

      1 Reply Last reply
      0
      • T toki1973
        Systemdata Bitte Ausfüllen
        Hardwaresystem: NUC
        Arbeitsspeicher: 8 GB
        Festplattenart: SSD
        Betriebssystem: Ubuntu Debian 10
        Node-Version: 14.19.3
        Nodejs-Version: 14.19.3
        NPM-Version: 614.17
        Installationsart: Skript/Manuell
        Image genutzt: Ja/Nein
        Ort/Name der Imagedatei: Link

        Nach dem Update auf node 14.19. kam die Fehlermeldung das Zigbee einen rebulid benötigt. Das habe ich angestartet und wurde nach einiger Zeit über Putty getrennt. Nun bekomme ich dei Proxmox VM nicht mehr gestartet und über die Proxmox Konsole nur das hier angezeigt

        7b53cf31-2b37-4ac5-8552-cc4f702d9050-image.png

        Ideee was passiert ist und wie man das reparieren kann?
        https://forum.iobroker.net/topic/53854/nach-nodejs-update-16-x-startet-zigbee-nicht-mehr/9

        crunchipC Away
        crunchipC Away
        crunchip
        Forum Testing Most Active
        wrote on last edited by
        #3

        @toki1973 starte Proxmox mal neu, hatte kürzlich auch ein ähnliches Problem im laufenden Betrieb, VM konnte ich dadurch auch nicht mehr herunter fahren.

        umgestiegen von Proxmox auf Unraid

        T 1 Reply Last reply
        0
        • crunchipC crunchip

          @toki1973 starte Proxmox mal neu, hatte kürzlich auch ein ähnliches Problem im laufenden Betrieb, VM konnte ich dadurch auch nicht mehr herunter fahren.

          T Offline
          T Offline
          toki1973
          wrote on last edited by
          #4

          Dank für eure Rückmeldungen!
          Ich habe zumindest den Zustand vor dem Update herstellen können über einen Snapshot.

          Werde es nochmals versuchen, denke aber dass das gleiche Problem wieder auftritt. Ist es ein Unterschied wenn ich nach der Installation wenn Zigbee die Versionsprobleme meldet iobroker rebuild oder npm rebuild durchführe?

          Ich habe keinen Conbee Stick sondern das TI Board für Zigbee im Einsatz

          NUC, PROXMOX, Grafana, Influx, Unify

          1 Reply Last reply
          0
          • T Offline
            T Offline
            toki1973
            wrote on last edited by
            #5

            Es ist ein Proxmox Speicher Problem, das auftritt wenn ich die Updates durchführe und der Platz knapp wird. Ein I/O Problem wird beim Status des Proxmox VN angezeigt in der ioBroker läuft.

            Kann mir jemand Tips geben was zu zun ist?

            WARNING: You have not turned on protection against thin pools running out of space.
              WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full.
              Logical volume "vm-102-disk-0" created 
            WARNING: Sum of all thin volume sizes (<407.58 GiB) exceeds the size of thin pool pve/data and the size of whole volume group (237.97 GiB)
            

            NUC, PROXMOX, Grafana, Influx, Unify

            crunchipC 1 Reply Last reply
            0
            • T toki1973

              Es ist ein Proxmox Speicher Problem, das auftritt wenn ich die Updates durchführe und der Platz knapp wird. Ein I/O Problem wird beim Status des Proxmox VN angezeigt in der ioBroker läuft.

              Kann mir jemand Tips geben was zu zun ist?

              WARNING: You have not turned on protection against thin pools running out of space.
                WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full.
                Logical volume "vm-102-disk-0" created 
              WARNING: Sum of all thin volume sizes (<407.58 GiB) exceeds the size of thin pool pve/data and the size of whole volume group (237.97 GiB)
              
              crunchipC Away
              crunchipC Away
              crunchip
              Forum Testing Most Active
              wrote on last edited by
              #6

              @toki1973 zufällig snapshots angelegt,dann löschen
              Andernfalls gibt es hier 2 Threads die das Thema behandeln

              umgestiegen von Proxmox auf Unraid

              1 Reply Last reply
              0
              • T Offline
                T Offline
                toki1973
                wrote on last edited by
                #7

                Naja der eine Snapshot den ich im iobroker vm habe hat mich nun schon 2x gerettet.
                Bisher habe ich noch keinen Thread gefunden der das Thema thin pool pve behandelt.

                NUC, PROXMOX, Grafana, Influx, Unify

                HomoranH crunchipC 2 Replies Last reply
                0
                • T toki1973

                  Naja der eine Snapshot den ich im iobroker vm habe hat mich nun schon 2x gerettet.
                  Bisher habe ich noch keinen Thread gefunden der das Thema thin pool pve behandelt.

                  HomoranH Do not disturb
                  HomoranH Do not disturb
                  Homoran
                  Global Moderator Administrators
                  wrote on last edited by
                  #8

                  @toki1973 sagte in Proxmox Fehler nach rebuild:

                  Bisher habe ich noch keinen Thread gefunden der das Thema thin pool pve behandelt.

                  https://forum.iobroker.net/search?term=thin pool pve &in=titlesposts

                  kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

                  Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

                  der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

                  1 Reply Last reply
                  0
                  • T toki1973

                    Naja der eine Snapshot den ich im iobroker vm habe hat mich nun schon 2x gerettet.
                    Bisher habe ich noch keinen Thread gefunden der das Thema thin pool pve behandelt.

                    crunchipC Away
                    crunchipC Away
                    crunchip
                    Forum Testing Most Active
                    wrote on last edited by
                    #9

                    @toki1973 snapshot ist kein backup, ein backup erstellen und zurückspielen, im zweifelsfall rettet dich das ebenso und dauert auch nicht viel länger.

                    umgestiegen von Proxmox auf Unraid

                    T 1 Reply Last reply
                    1
                    • crunchipC crunchip

                      @toki1973 snapshot ist kein backup, ein backup erstellen und zurückspielen, im zweifelsfall rettet dich das ebenso und dauert auch nicht viel länger.

                      T Offline
                      T Offline
                      toki1973
                      wrote on last edited by toki1973
                      #10

                      @crunchip Danke. Es schient so als ob ich das gleiche Problem mit der Speicherbelegung habe. Aber so ganz genau kann ich im verlinkten Thread nicht nachvollziehen wir ich vorgehen kann.
                      Hier mal ein paar infos zu meiner Konfiguration.

                      root@proxmox:~# lvm
                      lvm> 
                      root@proxmox:~# lvs
                        LV                                              VG  Attr       LSize    Pool Origin                       Data%  Meta%  Move Log Cpy%Sync Convert
                        data                                            pve twi-aotzD- <152.61g                                   100.00 5.85                            
                        root                                            pve -wi-ao----   59.25g                                                                          
                        snap_vm-100-disk-0_Grundinstallation_aus_Backup pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
                        snap_vm-100-disk-0_MitGrafanaInfluxDBundZigbee  pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
                        snap_vm-100-disk-0_YearlySnap                   pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
                        snap_vm-101-disk-0_Working                      pve Vri---tz-k   32.00g data vm-101-disk-0                                                       
                        snap_vm-102-disk-0_vorUpdate                    pve Vri---tz-k   32.00g data                                                                     
                        snap_vm-200-disk-0_GrafanaInitial               pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                        snap_vm-200-disk-0_Initial                      pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                        snap_vm-200-disk-0_YearlySnap                   pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                        snap_vm-200-disk-0_working                      pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                        swap                                            pve -wi-ao----    7.00g                                                                          
                        vm-100-disk-0                                   pve Vwi-a-tz--   32.00g data                              99.87                                  
                        vm-100-state-Grundinstallation_aus_Backup       pve Vwi-a-tz--    8.44g data                              12.37                                  
                        vm-100-state-MitGrafanaInfluxDBundZigbee        pve Vwi-a-tz--    8.44g data                              35.17                                  
                        vm-100-state-YearlySnap                         pve Vwi-a-tz--    8.44g data                              51.92                                  
                        vm-101-disk-0                                   pve Vwi-aotz--   32.00g data                              34.32                                  
                        vm-102-disk-0                                   pve Vwi-aotz--   32.00g data snap_vm-102-disk-0_vorUpdate 99.51                                  
                        vm-102-state-vorUpdate                          pve Vwi-a-tz--    8.30g data                              51.88                                  
                        vm-200-disk-0                                   pve Vwi-aotz--   20.00g data                              85.86                                  
                        vm-200-state-GrafanaInitial                     pve Vwi-a-tz--   <4.49g data                              14.21                                  
                        vm-200-state-Initial                            pve Vwi-a-tz--   <4.49g data                              37.55                                  
                        vm-200-state-YearlySnap                         pve Vwi-a-tz--   <4.49g data                              43.57                                  
                        vm-200-state-working                            pve Vwi-a-tz--   <4.49g data                              23.40                                  
                      root@proxmox:~# 
                      

                      980ddab2-2304-49c0-98c4-8d996f309860-image.png

                      a88653e7-8bf8-4726-b1ce-913c976393f1-image.png

                      Die 100er lvm war meine alte Konfiguration. diese läßt sich aber nicht löschen:

                      fe1a26e2-6bc0-42dd-a145-6266d41e4184-image.png

                      NUC, PROXMOX, Grafana, Influx, Unify

                      crunchipC 1 Reply Last reply
                      0
                      • T toki1973

                        @crunchip Danke. Es schient so als ob ich das gleiche Problem mit der Speicherbelegung habe. Aber so ganz genau kann ich im verlinkten Thread nicht nachvollziehen wir ich vorgehen kann.
                        Hier mal ein paar infos zu meiner Konfiguration.

                        root@proxmox:~# lvm
                        lvm> 
                        root@proxmox:~# lvs
                          LV                                              VG  Attr       LSize    Pool Origin                       Data%  Meta%  Move Log Cpy%Sync Convert
                          data                                            pve twi-aotzD- <152.61g                                   100.00 5.85                            
                          root                                            pve -wi-ao----   59.25g                                                                          
                          snap_vm-100-disk-0_Grundinstallation_aus_Backup pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
                          snap_vm-100-disk-0_MitGrafanaInfluxDBundZigbee  pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
                          snap_vm-100-disk-0_YearlySnap                   pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
                          snap_vm-101-disk-0_Working                      pve Vri---tz-k   32.00g data vm-101-disk-0                                                       
                          snap_vm-102-disk-0_vorUpdate                    pve Vri---tz-k   32.00g data                                                                     
                          snap_vm-200-disk-0_GrafanaInitial               pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                          snap_vm-200-disk-0_Initial                      pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                          snap_vm-200-disk-0_YearlySnap                   pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                          snap_vm-200-disk-0_working                      pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                          swap                                            pve -wi-ao----    7.00g                                                                          
                          vm-100-disk-0                                   pve Vwi-a-tz--   32.00g data                              99.87                                  
                          vm-100-state-Grundinstallation_aus_Backup       pve Vwi-a-tz--    8.44g data                              12.37                                  
                          vm-100-state-MitGrafanaInfluxDBundZigbee        pve Vwi-a-tz--    8.44g data                              35.17                                  
                          vm-100-state-YearlySnap                         pve Vwi-a-tz--    8.44g data                              51.92                                  
                          vm-101-disk-0                                   pve Vwi-aotz--   32.00g data                              34.32                                  
                          vm-102-disk-0                                   pve Vwi-aotz--   32.00g data snap_vm-102-disk-0_vorUpdate 99.51                                  
                          vm-102-state-vorUpdate                          pve Vwi-a-tz--    8.30g data                              51.88                                  
                          vm-200-disk-0                                   pve Vwi-aotz--   20.00g data                              85.86                                  
                          vm-200-state-GrafanaInitial                     pve Vwi-a-tz--   <4.49g data                              14.21                                  
                          vm-200-state-Initial                            pve Vwi-a-tz--   <4.49g data                              37.55                                  
                          vm-200-state-YearlySnap                         pve Vwi-a-tz--   <4.49g data                              43.57                                  
                          vm-200-state-working                            pve Vwi-a-tz--   <4.49g data                              23.40                                  
                        root@proxmox:~# 
                        

                        980ddab2-2304-49c0-98c4-8d996f309860-image.png

                        a88653e7-8bf8-4726-b1ce-913c976393f1-image.png

                        Die 100er lvm war meine alte Konfiguration. diese läßt sich aber nicht löschen:

                        fe1a26e2-6bc0-42dd-a145-6266d41e4184-image.png

                        crunchipC Away
                        crunchipC Away
                        crunchip
                        Forum Testing Most Active
                        wrote on last edited by crunchip
                        #11

                        @toki1973 https://forum.iobroker.net/post/801905

                        Und warum so viele snaps?

                        umgestiegen von Proxmox auf Unraid

                        T 1 Reply Last reply
                        0
                        • crunchipC crunchip

                          @toki1973 https://forum.iobroker.net/post/801905

                          Und warum so viele snaps?

                          T Offline
                          T Offline
                          toki1973
                          wrote on last edited by
                          #12

                          @crunchip Ich würde ja gerne etwas entfernen kann das aber nicht - siehe letzte Screen Shot. Auch die 100 würde ich gerne löschen ist aber nicht möglich.
                          Was kann ich denn tun? Geht das über die Konsole?

                          NUC, PROXMOX, Grafana, Influx, Unify

                          crunchipC 1 Reply Last reply
                          0
                          • T toki1973

                            @crunchip Ich würde ja gerne etwas entfernen kann das aber nicht - siehe letzte Screen Shot. Auch die 100 würde ich gerne löschen ist aber nicht möglich.
                            Was kann ich denn tun? Geht das über die Konsole?

                            crunchipC Away
                            crunchipC Away
                            crunchip
                            Forum Testing Most Active
                            wrote on last edited by
                            #13

                            @toki1973 sagte in Proxmox Fehler nach rebuild:

                            kann das aber nicht - siehe letzte Screen Shot

                            Hast du dir den link durchgelesen, da wird die Meldung behandelt

                            umgestiegen von Proxmox auf Unraid

                            T 1 Reply Last reply
                            0
                            • crunchipC crunchip

                              @toki1973 sagte in Proxmox Fehler nach rebuild:

                              kann das aber nicht - siehe letzte Screen Shot

                              Hast du dir den link durchgelesen, da wird die Meldung behandelt

                              T Offline
                              T Offline
                              toki1973
                              wrote on last edited by
                              #14

                              @crunchip Ja habe ich - aber irgendwie komme ich da nicht ganz zurecht damit. Ich hatte gehofft durch das posten von Screen kann mir jemand konkret das vorgehen beschreiben

                              NUC, PROXMOX, Grafana, Influx, Unify

                              crunchipC 1 Reply Last reply
                              0
                              • T toki1973

                                @crunchip Ja habe ich - aber irgendwie komme ich da nicht ganz zurecht damit. Ich hatte gehofft durch das posten von Screen kann mir jemand konkret das vorgehen beschreiben

                                crunchipC Away
                                crunchipC Away
                                crunchip
                                Forum Testing Most Active
                                wrote on last edited by crunchip
                                #15

                                @toki1973 sagte in Proxmox Fehler nach rebuild:

                                das vorgehen beschreiben

                                Es steh doch genau ab hier (die vmid natürlich an deine Vm Nummer anpassen)
                                https://forum.iobroker.net/post/803090
                                Oder schau da https://forum.proxmox.com/threads/solved-nicht-mehr-benutztes-disk-image-von-vm-kann-nicht-gelöscht-werden.75131/

                                pct rescan...für LXC
                                qm rescan...für VM

                                Und deinen Threadtitel solltest du anpassen

                                umgestiegen von Proxmox auf Unraid

                                T 1 Reply Last reply
                                0
                                • crunchipC crunchip

                                  @toki1973 sagte in Proxmox Fehler nach rebuild:

                                  das vorgehen beschreiben

                                  Es steh doch genau ab hier (die vmid natürlich an deine Vm Nummer anpassen)
                                  https://forum.iobroker.net/post/803090
                                  Oder schau da https://forum.proxmox.com/threads/solved-nicht-mehr-benutztes-disk-image-von-vm-kann-nicht-gelöscht-werden.75131/

                                  pct rescan...für LXC
                                  qm rescan...für VM

                                  Und deinen Threadtitel solltest du anpassen

                                  T Offline
                                  T Offline
                                  toki1973
                                  wrote on last edited by
                                  #16

                                  @crunchip
                                  Danke für deine Geduld:

                                  Ich hatte das hier probiert: 'qm rescan --vmid 100 von https://forum.proxmox.com/threads/solved-nicht-mehr-benutztes-disk-image-von-vm-kann-nicht-gelöscht-werden.75131/
                                  Das ging nicht mit der Fehlermeldung Volume not online

                                  root@proxmox:~# qm rescan --vmid 100
                                  rescan volumes...
                                  storage 'SynologyNAS' is not online
                                  root@proxmox:~# qm rescan --vmid 102
                                  rescan volumes...
                                  storage 'SynologyNAS' is not online
                                  root@proxmox:~# qm rescan --vmid 200
                                  rescan volumes...
                                  storage 'SynologyNAS' is not online
                                  root@proxmox:~# qm rescan --vmid 101
                                  rescan volumes...
                                  storage 'SynologyNAS' is not online
                                  root@proxmox:~# 
                                  

                                  Dieser Fehler kommt dann natürlich auch wenn ich über die GUI auf entfernen gehe

                                  NUC, PROXMOX, Grafana, Influx, Unify

                                  crunchipC 1 Reply Last reply
                                  0
                                  • T toki1973

                                    @crunchip
                                    Danke für deine Geduld:

                                    Ich hatte das hier probiert: 'qm rescan --vmid 100 von https://forum.proxmox.com/threads/solved-nicht-mehr-benutztes-disk-image-von-vm-kann-nicht-gelöscht-werden.75131/
                                    Das ging nicht mit der Fehlermeldung Volume not online

                                    root@proxmox:~# qm rescan --vmid 100
                                    rescan volumes...
                                    storage 'SynologyNAS' is not online
                                    root@proxmox:~# qm rescan --vmid 102
                                    rescan volumes...
                                    storage 'SynologyNAS' is not online
                                    root@proxmox:~# qm rescan --vmid 200
                                    rescan volumes...
                                    storage 'SynologyNAS' is not online
                                    root@proxmox:~# qm rescan --vmid 101
                                    rescan volumes...
                                    storage 'SynologyNAS' is not online
                                    root@proxmox:~# 
                                    

                                    Dieser Fehler kommt dann natürlich auch wenn ich über die GUI auf entfernen gehe

                                    crunchipC Away
                                    crunchipC Away
                                    crunchip
                                    Forum Testing Most Active
                                    wrote on last edited by
                                    #17

                                    @toki1973 und warum sind beide Nas nicht verbunden?
                                    Wenn du den laufenden Lxc bzw Vm anklickst, kannst du doch in der Gui auf snapshot wechseln, zeig mal

                                    umgestiegen von Proxmox auf Unraid

                                    T 1 Reply Last reply
                                    0
                                    • crunchipC crunchip

                                      @toki1973 und warum sind beide Nas nicht verbunden?
                                      Wenn du den laufenden Lxc bzw Vm anklickst, kannst du doch in der Gui auf snapshot wechseln, zeig mal

                                      T Offline
                                      T Offline
                                      toki1973
                                      wrote on last edited by toki1973
                                      #18

                                      @crunchip
                                      ed4c15c1-959f-452e-b4b2-42a82003fa49-image.png
                                      Dann beim Entfernen:
                                      a1e6cac6-ea99-43e6-8d7a-060e28a4d94d-image.png

                                      Liegt vlt. daran das die Storage nicht online sind?

                                      NUC, PROXMOX, Grafana, Influx, Unify

                                      1 Reply Last reply
                                      0
                                      • crunchipC Away
                                        crunchipC Away
                                        crunchip
                                        Forum Testing Most Active
                                        wrote on last edited by
                                        #19

                                        @toki1973 ja, aber irgendwas hast du doch gelöscht, dein local-lvm ist doch laut deinem screen, jetzt nicht mehr voll

                                        umgestiegen von Proxmox auf Unraid

                                        T 1 Reply Last reply
                                        0
                                        • crunchipC crunchip

                                          @toki1973 ja, aber irgendwas hast du doch gelöscht, dein local-lvm ist doch laut deinem screen, jetzt nicht mehr voll

                                          T Offline
                                          T Offline
                                          toki1973
                                          wrote on last edited by
                                          #20

                                          @crunchip
                                          Hat den Snaphot wohl doch gelöscht trotz Fehlermeldung. War dann gelocked aber dazu habe ich auch etwas gefunden.
                                          Aber bevor ich richtige Backups der VMs mache sollte ich noch irgendwie aufräumen. Ich schaue mir nochmal deinen Thread an in dem du @GOETSCHHOFER geholfen hast. Vlt. verstehe ich das Konstrukt dann besser...

                                          NUC, PROXMOX, Grafana, Influx, Unify

                                          1 Reply Last reply
                                          0
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          391

                                          Online

                                          32.4k

                                          Users

                                          81.5k

                                          Topics

                                          1.3m

                                          Posts
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Login

                                          • Don't have an account? Register

                                          • Login or register to search.
                                          • First post
                                            Last post
                                          0
                                          • Home
                                          • Recent
                                          • Tags
                                          • Unread 0
                                          • Categories
                                          • Unreplied
                                          • Popular
                                          • GitHub
                                          • Docu
                                          • Hilfe