Skip to content
  • Home
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. Proxmox
  5. Proxmox Fehler nach rebuild

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.9k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    2.2k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    16
    1
    3.4k

Proxmox Fehler nach rebuild

Scheduled Pinned Locked Moved Proxmox
proxmoxnodezigbee
20 Posts 4 Posters 774 Views 2 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • T toki1973
    Systemdata Bitte Ausfüllen
    Hardwaresystem: NUC
    Arbeitsspeicher: 8 GB
    Festplattenart: SSD
    Betriebssystem: Ubuntu Debian 10
    Node-Version: 14.19.3
    Nodejs-Version: 14.19.3
    NPM-Version: 614.17
    Installationsart: Skript/Manuell
    Image genutzt: Ja/Nein
    Ort/Name der Imagedatei: Link

    Nach dem Update auf node 14.19. kam die Fehlermeldung das Zigbee einen rebulid benötigt. Das habe ich angestartet und wurde nach einiger Zeit über Putty getrennt. Nun bekomme ich dei Proxmox VM nicht mehr gestartet und über die Proxmox Konsole nur das hier angezeigt

    7b53cf31-2b37-4ac5-8552-cc4f702d9050-image.png

    Ideee was passiert ist und wie man das reparieren kann?
    https://forum.iobroker.net/topic/53854/nach-nodejs-update-16-x-startet-zigbee-nicht-mehr/9

    arteckA Offline
    arteckA Offline
    arteck
    Developer Most Active
    wrote on last edited by
    #2

    @toki1973 was ...ein npm rebuild verursaht das nicht.. du hast ein anderes problem.

    https://forum.proxmox.com/threads/fehlermeldung-auf-der-konsole-der-vm.84349/

    zigbee hab ich, zwave auch, nuc's genauso und HA auch

    1 Reply Last reply
    0
    • T toki1973
      Systemdata Bitte Ausfüllen
      Hardwaresystem: NUC
      Arbeitsspeicher: 8 GB
      Festplattenart: SSD
      Betriebssystem: Ubuntu Debian 10
      Node-Version: 14.19.3
      Nodejs-Version: 14.19.3
      NPM-Version: 614.17
      Installationsart: Skript/Manuell
      Image genutzt: Ja/Nein
      Ort/Name der Imagedatei: Link

      Nach dem Update auf node 14.19. kam die Fehlermeldung das Zigbee einen rebulid benötigt. Das habe ich angestartet und wurde nach einiger Zeit über Putty getrennt. Nun bekomme ich dei Proxmox VM nicht mehr gestartet und über die Proxmox Konsole nur das hier angezeigt

      7b53cf31-2b37-4ac5-8552-cc4f702d9050-image.png

      Ideee was passiert ist und wie man das reparieren kann?
      https://forum.iobroker.net/topic/53854/nach-nodejs-update-16-x-startet-zigbee-nicht-mehr/9

      crunchipC Away
      crunchipC Away
      crunchip
      Forum Testing Most Active
      wrote on last edited by
      #3

      @toki1973 starte Proxmox mal neu, hatte kürzlich auch ein ähnliches Problem im laufenden Betrieb, VM konnte ich dadurch auch nicht mehr herunter fahren.

      umgestiegen von Proxmox auf Unraid

      T 1 Reply Last reply
      0
      • crunchipC crunchip

        @toki1973 starte Proxmox mal neu, hatte kürzlich auch ein ähnliches Problem im laufenden Betrieb, VM konnte ich dadurch auch nicht mehr herunter fahren.

        T Offline
        T Offline
        toki1973
        wrote on last edited by
        #4

        Dank für eure Rückmeldungen!
        Ich habe zumindest den Zustand vor dem Update herstellen können über einen Snapshot.

        Werde es nochmals versuchen, denke aber dass das gleiche Problem wieder auftritt. Ist es ein Unterschied wenn ich nach der Installation wenn Zigbee die Versionsprobleme meldet iobroker rebuild oder npm rebuild durchführe?

        Ich habe keinen Conbee Stick sondern das TI Board für Zigbee im Einsatz

        NUC, PROXMOX, Grafana, Influx, Unify

        1 Reply Last reply
        0
        • T Offline
          T Offline
          toki1973
          wrote on last edited by
          #5

          Es ist ein Proxmox Speicher Problem, das auftritt wenn ich die Updates durchführe und der Platz knapp wird. Ein I/O Problem wird beim Status des Proxmox VN angezeigt in der ioBroker läuft.

          Kann mir jemand Tips geben was zu zun ist?

          WARNING: You have not turned on protection against thin pools running out of space.
            WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full.
            Logical volume "vm-102-disk-0" created 
          WARNING: Sum of all thin volume sizes (<407.58 GiB) exceeds the size of thin pool pve/data and the size of whole volume group (237.97 GiB)
          

          NUC, PROXMOX, Grafana, Influx, Unify

          crunchipC 1 Reply Last reply
          0
          • T toki1973

            Es ist ein Proxmox Speicher Problem, das auftritt wenn ich die Updates durchführe und der Platz knapp wird. Ein I/O Problem wird beim Status des Proxmox VN angezeigt in der ioBroker läuft.

            Kann mir jemand Tips geben was zu zun ist?

            WARNING: You have not turned on protection against thin pools running out of space.
              WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full.
              Logical volume "vm-102-disk-0" created 
            WARNING: Sum of all thin volume sizes (<407.58 GiB) exceeds the size of thin pool pve/data and the size of whole volume group (237.97 GiB)
            
            crunchipC Away
            crunchipC Away
            crunchip
            Forum Testing Most Active
            wrote on last edited by
            #6

            @toki1973 zufällig snapshots angelegt,dann löschen
            Andernfalls gibt es hier 2 Threads die das Thema behandeln

            umgestiegen von Proxmox auf Unraid

            1 Reply Last reply
            0
            • T Offline
              T Offline
              toki1973
              wrote on last edited by
              #7

              Naja der eine Snapshot den ich im iobroker vm habe hat mich nun schon 2x gerettet.
              Bisher habe ich noch keinen Thread gefunden der das Thema thin pool pve behandelt.

              NUC, PROXMOX, Grafana, Influx, Unify

              HomoranH crunchipC 2 Replies Last reply
              0
              • T toki1973

                Naja der eine Snapshot den ich im iobroker vm habe hat mich nun schon 2x gerettet.
                Bisher habe ich noch keinen Thread gefunden der das Thema thin pool pve behandelt.

                HomoranH Offline
                HomoranH Offline
                Homoran
                Global Moderator Administrators
                wrote on last edited by
                #8

                @toki1973 sagte in Proxmox Fehler nach rebuild:

                Bisher habe ich noch keinen Thread gefunden der das Thema thin pool pve behandelt.

                https://forum.iobroker.net/search?term=thin pool pve &in=titlesposts

                kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

                Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

                der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

                1 Reply Last reply
                0
                • T toki1973

                  Naja der eine Snapshot den ich im iobroker vm habe hat mich nun schon 2x gerettet.
                  Bisher habe ich noch keinen Thread gefunden der das Thema thin pool pve behandelt.

                  crunchipC Away
                  crunchipC Away
                  crunchip
                  Forum Testing Most Active
                  wrote on last edited by
                  #9

                  @toki1973 snapshot ist kein backup, ein backup erstellen und zurückspielen, im zweifelsfall rettet dich das ebenso und dauert auch nicht viel länger.

                  umgestiegen von Proxmox auf Unraid

                  T 1 Reply Last reply
                  1
                  • crunchipC crunchip

                    @toki1973 snapshot ist kein backup, ein backup erstellen und zurückspielen, im zweifelsfall rettet dich das ebenso und dauert auch nicht viel länger.

                    T Offline
                    T Offline
                    toki1973
                    wrote on last edited by toki1973
                    #10

                    @crunchip Danke. Es schient so als ob ich das gleiche Problem mit der Speicherbelegung habe. Aber so ganz genau kann ich im verlinkten Thread nicht nachvollziehen wir ich vorgehen kann.
                    Hier mal ein paar infos zu meiner Konfiguration.

                    root@proxmox:~# lvm
                    lvm> 
                    root@proxmox:~# lvs
                      LV                                              VG  Attr       LSize    Pool Origin                       Data%  Meta%  Move Log Cpy%Sync Convert
                      data                                            pve twi-aotzD- <152.61g                                   100.00 5.85                            
                      root                                            pve -wi-ao----   59.25g                                                                          
                      snap_vm-100-disk-0_Grundinstallation_aus_Backup pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
                      snap_vm-100-disk-0_MitGrafanaInfluxDBundZigbee  pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
                      snap_vm-100-disk-0_YearlySnap                   pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
                      snap_vm-101-disk-0_Working                      pve Vri---tz-k   32.00g data vm-101-disk-0                                                       
                      snap_vm-102-disk-0_vorUpdate                    pve Vri---tz-k   32.00g data                                                                     
                      snap_vm-200-disk-0_GrafanaInitial               pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                      snap_vm-200-disk-0_Initial                      pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                      snap_vm-200-disk-0_YearlySnap                   pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                      snap_vm-200-disk-0_working                      pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                      swap                                            pve -wi-ao----    7.00g                                                                          
                      vm-100-disk-0                                   pve Vwi-a-tz--   32.00g data                              99.87                                  
                      vm-100-state-Grundinstallation_aus_Backup       pve Vwi-a-tz--    8.44g data                              12.37                                  
                      vm-100-state-MitGrafanaInfluxDBundZigbee        pve Vwi-a-tz--    8.44g data                              35.17                                  
                      vm-100-state-YearlySnap                         pve Vwi-a-tz--    8.44g data                              51.92                                  
                      vm-101-disk-0                                   pve Vwi-aotz--   32.00g data                              34.32                                  
                      vm-102-disk-0                                   pve Vwi-aotz--   32.00g data snap_vm-102-disk-0_vorUpdate 99.51                                  
                      vm-102-state-vorUpdate                          pve Vwi-a-tz--    8.30g data                              51.88                                  
                      vm-200-disk-0                                   pve Vwi-aotz--   20.00g data                              85.86                                  
                      vm-200-state-GrafanaInitial                     pve Vwi-a-tz--   <4.49g data                              14.21                                  
                      vm-200-state-Initial                            pve Vwi-a-tz--   <4.49g data                              37.55                                  
                      vm-200-state-YearlySnap                         pve Vwi-a-tz--   <4.49g data                              43.57                                  
                      vm-200-state-working                            pve Vwi-a-tz--   <4.49g data                              23.40                                  
                    root@proxmox:~# 
                    

                    980ddab2-2304-49c0-98c4-8d996f309860-image.png

                    a88653e7-8bf8-4726-b1ce-913c976393f1-image.png

                    Die 100er lvm war meine alte Konfiguration. diese läßt sich aber nicht löschen:

                    fe1a26e2-6bc0-42dd-a145-6266d41e4184-image.png

                    NUC, PROXMOX, Grafana, Influx, Unify

                    crunchipC 1 Reply Last reply
                    0
                    • T toki1973

                      @crunchip Danke. Es schient so als ob ich das gleiche Problem mit der Speicherbelegung habe. Aber so ganz genau kann ich im verlinkten Thread nicht nachvollziehen wir ich vorgehen kann.
                      Hier mal ein paar infos zu meiner Konfiguration.

                      root@proxmox:~# lvm
                      lvm> 
                      root@proxmox:~# lvs
                        LV                                              VG  Attr       LSize    Pool Origin                       Data%  Meta%  Move Log Cpy%Sync Convert
                        data                                            pve twi-aotzD- <152.61g                                   100.00 5.85                            
                        root                                            pve -wi-ao----   59.25g                                                                          
                        snap_vm-100-disk-0_Grundinstallation_aus_Backup pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
                        snap_vm-100-disk-0_MitGrafanaInfluxDBundZigbee  pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
                        snap_vm-100-disk-0_YearlySnap                   pve Vri---tz-k   32.00g data vm-100-disk-0                                                       
                        snap_vm-101-disk-0_Working                      pve Vri---tz-k   32.00g data vm-101-disk-0                                                       
                        snap_vm-102-disk-0_vorUpdate                    pve Vri---tz-k   32.00g data                                                                     
                        snap_vm-200-disk-0_GrafanaInitial               pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                        snap_vm-200-disk-0_Initial                      pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                        snap_vm-200-disk-0_YearlySnap                   pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                        snap_vm-200-disk-0_working                      pve Vri---tz-k   20.00g data vm-200-disk-0                                                       
                        swap                                            pve -wi-ao----    7.00g                                                                          
                        vm-100-disk-0                                   pve Vwi-a-tz--   32.00g data                              99.87                                  
                        vm-100-state-Grundinstallation_aus_Backup       pve Vwi-a-tz--    8.44g data                              12.37                                  
                        vm-100-state-MitGrafanaInfluxDBundZigbee        pve Vwi-a-tz--    8.44g data                              35.17                                  
                        vm-100-state-YearlySnap                         pve Vwi-a-tz--    8.44g data                              51.92                                  
                        vm-101-disk-0                                   pve Vwi-aotz--   32.00g data                              34.32                                  
                        vm-102-disk-0                                   pve Vwi-aotz--   32.00g data snap_vm-102-disk-0_vorUpdate 99.51                                  
                        vm-102-state-vorUpdate                          pve Vwi-a-tz--    8.30g data                              51.88                                  
                        vm-200-disk-0                                   pve Vwi-aotz--   20.00g data                              85.86                                  
                        vm-200-state-GrafanaInitial                     pve Vwi-a-tz--   <4.49g data                              14.21                                  
                        vm-200-state-Initial                            pve Vwi-a-tz--   <4.49g data                              37.55                                  
                        vm-200-state-YearlySnap                         pve Vwi-a-tz--   <4.49g data                              43.57                                  
                        vm-200-state-working                            pve Vwi-a-tz--   <4.49g data                              23.40                                  
                      root@proxmox:~# 
                      

                      980ddab2-2304-49c0-98c4-8d996f309860-image.png

                      a88653e7-8bf8-4726-b1ce-913c976393f1-image.png

                      Die 100er lvm war meine alte Konfiguration. diese läßt sich aber nicht löschen:

                      fe1a26e2-6bc0-42dd-a145-6266d41e4184-image.png

                      crunchipC Away
                      crunchipC Away
                      crunchip
                      Forum Testing Most Active
                      wrote on last edited by crunchip
                      #11

                      @toki1973 https://forum.iobroker.net/post/801905

                      Und warum so viele snaps?

                      umgestiegen von Proxmox auf Unraid

                      T 1 Reply Last reply
                      0
                      • crunchipC crunchip

                        @toki1973 https://forum.iobroker.net/post/801905

                        Und warum so viele snaps?

                        T Offline
                        T Offline
                        toki1973
                        wrote on last edited by
                        #12

                        @crunchip Ich würde ja gerne etwas entfernen kann das aber nicht - siehe letzte Screen Shot. Auch die 100 würde ich gerne löschen ist aber nicht möglich.
                        Was kann ich denn tun? Geht das über die Konsole?

                        NUC, PROXMOX, Grafana, Influx, Unify

                        crunchipC 1 Reply Last reply
                        0
                        • T toki1973

                          @crunchip Ich würde ja gerne etwas entfernen kann das aber nicht - siehe letzte Screen Shot. Auch die 100 würde ich gerne löschen ist aber nicht möglich.
                          Was kann ich denn tun? Geht das über die Konsole?

                          crunchipC Away
                          crunchipC Away
                          crunchip
                          Forum Testing Most Active
                          wrote on last edited by
                          #13

                          @toki1973 sagte in Proxmox Fehler nach rebuild:

                          kann das aber nicht - siehe letzte Screen Shot

                          Hast du dir den link durchgelesen, da wird die Meldung behandelt

                          umgestiegen von Proxmox auf Unraid

                          T 1 Reply Last reply
                          0
                          • crunchipC crunchip

                            @toki1973 sagte in Proxmox Fehler nach rebuild:

                            kann das aber nicht - siehe letzte Screen Shot

                            Hast du dir den link durchgelesen, da wird die Meldung behandelt

                            T Offline
                            T Offline
                            toki1973
                            wrote on last edited by
                            #14

                            @crunchip Ja habe ich - aber irgendwie komme ich da nicht ganz zurecht damit. Ich hatte gehofft durch das posten von Screen kann mir jemand konkret das vorgehen beschreiben

                            NUC, PROXMOX, Grafana, Influx, Unify

                            crunchipC 1 Reply Last reply
                            0
                            • T toki1973

                              @crunchip Ja habe ich - aber irgendwie komme ich da nicht ganz zurecht damit. Ich hatte gehofft durch das posten von Screen kann mir jemand konkret das vorgehen beschreiben

                              crunchipC Away
                              crunchipC Away
                              crunchip
                              Forum Testing Most Active
                              wrote on last edited by crunchip
                              #15

                              @toki1973 sagte in Proxmox Fehler nach rebuild:

                              das vorgehen beschreiben

                              Es steh doch genau ab hier (die vmid natürlich an deine Vm Nummer anpassen)
                              https://forum.iobroker.net/post/803090
                              Oder schau da https://forum.proxmox.com/threads/solved-nicht-mehr-benutztes-disk-image-von-vm-kann-nicht-gelöscht-werden.75131/

                              pct rescan...für LXC
                              qm rescan...für VM

                              Und deinen Threadtitel solltest du anpassen

                              umgestiegen von Proxmox auf Unraid

                              T 1 Reply Last reply
                              0
                              • crunchipC crunchip

                                @toki1973 sagte in Proxmox Fehler nach rebuild:

                                das vorgehen beschreiben

                                Es steh doch genau ab hier (die vmid natürlich an deine Vm Nummer anpassen)
                                https://forum.iobroker.net/post/803090
                                Oder schau da https://forum.proxmox.com/threads/solved-nicht-mehr-benutztes-disk-image-von-vm-kann-nicht-gelöscht-werden.75131/

                                pct rescan...für LXC
                                qm rescan...für VM

                                Und deinen Threadtitel solltest du anpassen

                                T Offline
                                T Offline
                                toki1973
                                wrote on last edited by
                                #16

                                @crunchip
                                Danke für deine Geduld:

                                Ich hatte das hier probiert: 'qm rescan --vmid 100 von https://forum.proxmox.com/threads/solved-nicht-mehr-benutztes-disk-image-von-vm-kann-nicht-gelöscht-werden.75131/
                                Das ging nicht mit der Fehlermeldung Volume not online

                                root@proxmox:~# qm rescan --vmid 100
                                rescan volumes...
                                storage 'SynologyNAS' is not online
                                root@proxmox:~# qm rescan --vmid 102
                                rescan volumes...
                                storage 'SynologyNAS' is not online
                                root@proxmox:~# qm rescan --vmid 200
                                rescan volumes...
                                storage 'SynologyNAS' is not online
                                root@proxmox:~# qm rescan --vmid 101
                                rescan volumes...
                                storage 'SynologyNAS' is not online
                                root@proxmox:~# 
                                

                                Dieser Fehler kommt dann natürlich auch wenn ich über die GUI auf entfernen gehe

                                NUC, PROXMOX, Grafana, Influx, Unify

                                crunchipC 1 Reply Last reply
                                0
                                • T toki1973

                                  @crunchip
                                  Danke für deine Geduld:

                                  Ich hatte das hier probiert: 'qm rescan --vmid 100 von https://forum.proxmox.com/threads/solved-nicht-mehr-benutztes-disk-image-von-vm-kann-nicht-gelöscht-werden.75131/
                                  Das ging nicht mit der Fehlermeldung Volume not online

                                  root@proxmox:~# qm rescan --vmid 100
                                  rescan volumes...
                                  storage 'SynologyNAS' is not online
                                  root@proxmox:~# qm rescan --vmid 102
                                  rescan volumes...
                                  storage 'SynologyNAS' is not online
                                  root@proxmox:~# qm rescan --vmid 200
                                  rescan volumes...
                                  storage 'SynologyNAS' is not online
                                  root@proxmox:~# qm rescan --vmid 101
                                  rescan volumes...
                                  storage 'SynologyNAS' is not online
                                  root@proxmox:~# 
                                  

                                  Dieser Fehler kommt dann natürlich auch wenn ich über die GUI auf entfernen gehe

                                  crunchipC Away
                                  crunchipC Away
                                  crunchip
                                  Forum Testing Most Active
                                  wrote on last edited by
                                  #17

                                  @toki1973 und warum sind beide Nas nicht verbunden?
                                  Wenn du den laufenden Lxc bzw Vm anklickst, kannst du doch in der Gui auf snapshot wechseln, zeig mal

                                  umgestiegen von Proxmox auf Unraid

                                  T 1 Reply Last reply
                                  0
                                  • crunchipC crunchip

                                    @toki1973 und warum sind beide Nas nicht verbunden?
                                    Wenn du den laufenden Lxc bzw Vm anklickst, kannst du doch in der Gui auf snapshot wechseln, zeig mal

                                    T Offline
                                    T Offline
                                    toki1973
                                    wrote on last edited by toki1973
                                    #18

                                    @crunchip
                                    ed4c15c1-959f-452e-b4b2-42a82003fa49-image.png
                                    Dann beim Entfernen:
                                    a1e6cac6-ea99-43e6-8d7a-060e28a4d94d-image.png

                                    Liegt vlt. daran das die Storage nicht online sind?

                                    NUC, PROXMOX, Grafana, Influx, Unify

                                    1 Reply Last reply
                                    0
                                    • crunchipC Away
                                      crunchipC Away
                                      crunchip
                                      Forum Testing Most Active
                                      wrote on last edited by
                                      #19

                                      @toki1973 ja, aber irgendwas hast du doch gelöscht, dein local-lvm ist doch laut deinem screen, jetzt nicht mehr voll

                                      umgestiegen von Proxmox auf Unraid

                                      T 1 Reply Last reply
                                      0
                                      • crunchipC crunchip

                                        @toki1973 ja, aber irgendwas hast du doch gelöscht, dein local-lvm ist doch laut deinem screen, jetzt nicht mehr voll

                                        T Offline
                                        T Offline
                                        toki1973
                                        wrote on last edited by
                                        #20

                                        @crunchip
                                        Hat den Snaphot wohl doch gelöscht trotz Fehlermeldung. War dann gelocked aber dazu habe ich auch etwas gefunden.
                                        Aber bevor ich richtige Backups der VMs mache sollte ich noch irgendwie aufräumen. Ich schaue mir nochmal deinen Thread an in dem du @GOETSCHHOFER geholfen hast. Vlt. verstehe ich das Konstrukt dann besser...

                                        NUC, PROXMOX, Grafana, Influx, Unify

                                        1 Reply Last reply
                                        0
                                        Reply
                                        • Reply as topic
                                        Log in to reply
                                        • Oldest to Newest
                                        • Newest to Oldest
                                        • Most Votes


                                        Support us

                                        ioBroker
                                        Community Adapters
                                        Donate

                                        466

                                        Online

                                        32.4k

                                        Users

                                        81.5k

                                        Topics

                                        1.3m

                                        Posts
                                        Community
                                        Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                        ioBroker Community 2014-2025
                                        logo
                                        • Login

                                        • Don't have an account? Register

                                        • Login or register to search.
                                        • First post
                                          Last post
                                        0
                                        • Home
                                        • Recent
                                        • Tags
                                        • Unread 0
                                        • Categories
                                        • Unreplied
                                        • Popular
                                        • GitHub
                                        • Docu
                                        • Hilfe