Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. iobroker hochverfügbar

NEWS

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    22
    1
    1.2k

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    9.2k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    14
    1
    2.5k

iobroker hochverfügbar

Geplant Angeheftet Gesperrt Verschoben Off Topic
82 Beiträge 12 Kommentatoren 12.1k Aufrufe 13 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • D darkiop

    @apollon77 sagte in iobroker hochverfügbar:

    jeder nuc kann ggf seine 1gb voll ausnutze

    Ok. Müsste mal schauen was meine Unifi Switchtes auf der Backplane liefern - sollte aber mehr als 1Gb sein. Die Dream Machine Pro ist allerdings beschnitten auf 1Gb.

    @apollon77 sagte in iobroker hochverfügbar:

    Am Ende wenn du pro Host einen glusterfs brick hast ist das alles noch easy. Meine bricks sind anders verteilt und daher mehr und da wird es ggf eng wenn die mal alle Daten syncen wollen

    Ich versuche mich mal dran, komme sicher mit der ein oder anderen Frage auf dich zurück :)

    apollon77A Offline
    apollon77A Offline
    apollon77
    schrieb am zuletzt editiert von
    #33

    @darkiop wenn alles am gleichen Switch hängt ist ja erstmal easy mit Netzwerk. Die backplane hat meistens ne viel höhere Leistung. Dann user nur dein Switch halt auch ein SPOF :-)

    Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

    • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
    • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
    D 1 Antwort Letzte Antwort
    0
    • paul53P paul53

      @apollon77 sagte: Das sind aber die Limitierungen mit denen man leben muss denke ich

      Was nutzt die Hochverfügbarkeit von ioBroker, wenn wichtige Geräte nicht mehr gesteuert werden können?

      K Offline
      K Offline
      klassisch
      Most Active
      schrieb am zuletzt editiert von klassisch
      #34

      @paul53 sagte in iobroker hochverfügbar:

      Was nutzt die Hochverfügbarkeit von ioBroker, wenn wichtige Geräte nicht mehr gesteuert werden können?

      Das ist Salamitaktik, wie beim Testen. Wenn vollständig nicht geht, dann macht man das was geht. Besser als nicht starten.
      Leider gibt es tatsächlich Quertreiber wie Zigbee, wo der Koordinator seine Schäfchen an sich bindet und ein Ersatz nicht vorgesehen ist.
      Aber mit einem redundanten ioBroker hätte man zumindest Funktion während der Updates. Seit bei mir das gesamte Wohnungslicht über Zigbee und ioBroker läuft, bin ich da (noch) sensibler geworden.

      Aber zumindest habe ich bisher die Abhängigkeiten von USB für die Interfaces eliminiert. Smartmeter, RFLink und Zigbee laufen über TCP und können daher von verschiedenen Rechnern aus parallel angesprochen werden.

      1 Antwort Letzte Antwort
      1
      • apollon77A apollon77

        @darkiop wenn alles am gleichen Switch hängt ist ja erstmal easy mit Netzwerk. Die backplane hat meistens ne viel höhere Leistung. Dann user nur dein Switch halt auch ein SPOF :-)

        D Offline
        D Offline
        darkiop
        Most Active
        schrieb am zuletzt editiert von
        #35

        @apollon77 sagte in iobroker hochverfügbar:

        @darkiop wenn alles am gleichen Switch hängt ist ja erstmal easy mit Netzwerk. Die backplane hat meistens ne viel höhere Leistung. Dann user nur dein Switch halt auch ein SPOF :-)

        Ja - das ist klar - aber das Risiko gehe ich erstmal ein.

        Hab heut Morgen mit meinen 3 VMs mal mit GlusterFS gespielt, installation + config liefen ohne größere hürden. Doku im Anhang.

        Aber eine Frage: GlusterFS kann nicht mit LXCs umgehen? Hast du das bei dir gelöst? Wenn ja, wie? :D

        https://forum.proxmox.com/threads/container-on-gluster-volume-not-possible.40889/

        348a5003-5d77-4bfe-883f-92e2fcb19071-grafik.png

        ## prerequisites:
        
        VMs with a clean Proxmox Installtion with an additional hdd (> /dev/sdb) for glusterfs:
        
         pve-test-node-1 - 192.168.1.61
         pve-test-node-2 - 192.168.1.62
         pve-test-node-3 - 192.168.1.63
        
        ## do this on all nodes
        
        # show hdd
        fdisk -l /dev/sdb
        
        # create pysical volume
        pvcreate /dev/sdb
        
        # create a volume group
        vgcreate vg_proxmox /dev/sdb
        
        # create a logical volume
        lvcreate --name lv_proxmox -l 100%vg vg_proxmox
        
        # create filesystem
        mkfs -t xfs -f -i size=512 -n size=8192 -L PROXMOX /dev/vg_proxmox/lv_proxmox
        
        # create & mount new lv
        mkdir -p /data/proxmox
        echo "/dev/mapper/vg_proxmox-lv_proxmox /data/proxmox xfs defaults 0 0" >> /etc/fstab
        mount -a
        mount | grep proxmox
        
        # install glusterfs
        apt-get install glusterfs-server glusterfs-client -y
        
        # activate glusterd after boot
        systemctl enable glusterd
        
        reboot now
        
        ## on node-1
        
        # test connection
        gluster peer probe 192.168.1.62
        gluster peer probe 192.168.1.63
        
        # create a glusterfs volume
        gluster volume create gfs-volume-proxmox transport tcp replica 2 192.168.1.61:/data/proxmox 192.168.1.62:/data/proxmox force
        
        # add node-3
        gluster volume add-brick gfs-volume-proxmox replica 3 192.168.1.63:/data/proxmox force
        
        # start the volume
        gluster volume start gfs-volume-proxmox
        
        # show glusterfs volume information
        gluster volume info
        
        ## on webui node-1
        
        # add glusterfs volume
        
        Datacenter > Storage > Add > GlusterFS
        
         id = storage name
         ip1 = 192.168.1.61
         ip2 = 192.168.1.62
         volume name = gfs-volume-proxmox
         content = all
        
        # create cluster:
        
        Datacenter > Cluster > Create Cluster
        
         name = pve-test-cl
        
        Datacenter > Cluster > Join Information > Copy Information
        
        ## on webui node-2
        
        # join cluster
        
        Datacenter > Cluster > Join Cluster
        
        Paste copied information
        
        ## on webui node-3
        
        Datacenter > Cluster > Join Cluster
        
        paste copied information and join
        

        Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

        apollon77A 2 Antworten Letzte Antwort
        0
        • D darkiop

          @apollon77 sagte in iobroker hochverfügbar:

          @darkiop wenn alles am gleichen Switch hängt ist ja erstmal easy mit Netzwerk. Die backplane hat meistens ne viel höhere Leistung. Dann user nur dein Switch halt auch ein SPOF :-)

          Ja - das ist klar - aber das Risiko gehe ich erstmal ein.

          Hab heut Morgen mit meinen 3 VMs mal mit GlusterFS gespielt, installation + config liefen ohne größere hürden. Doku im Anhang.

          Aber eine Frage: GlusterFS kann nicht mit LXCs umgehen? Hast du das bei dir gelöst? Wenn ja, wie? :D

          https://forum.proxmox.com/threads/container-on-gluster-volume-not-possible.40889/

          348a5003-5d77-4bfe-883f-92e2fcb19071-grafik.png

          ## prerequisites:
          
          VMs with a clean Proxmox Installtion with an additional hdd (> /dev/sdb) for glusterfs:
          
           pve-test-node-1 - 192.168.1.61
           pve-test-node-2 - 192.168.1.62
           pve-test-node-3 - 192.168.1.63
          
          ## do this on all nodes
          
          # show hdd
          fdisk -l /dev/sdb
          
          # create pysical volume
          pvcreate /dev/sdb
          
          # create a volume group
          vgcreate vg_proxmox /dev/sdb
          
          # create a logical volume
          lvcreate --name lv_proxmox -l 100%vg vg_proxmox
          
          # create filesystem
          mkfs -t xfs -f -i size=512 -n size=8192 -L PROXMOX /dev/vg_proxmox/lv_proxmox
          
          # create & mount new lv
          mkdir -p /data/proxmox
          echo "/dev/mapper/vg_proxmox-lv_proxmox /data/proxmox xfs defaults 0 0" >> /etc/fstab
          mount -a
          mount | grep proxmox
          
          # install glusterfs
          apt-get install glusterfs-server glusterfs-client -y
          
          # activate glusterd after boot
          systemctl enable glusterd
          
          reboot now
          
          ## on node-1
          
          # test connection
          gluster peer probe 192.168.1.62
          gluster peer probe 192.168.1.63
          
          # create a glusterfs volume
          gluster volume create gfs-volume-proxmox transport tcp replica 2 192.168.1.61:/data/proxmox 192.168.1.62:/data/proxmox force
          
          # add node-3
          gluster volume add-brick gfs-volume-proxmox replica 3 192.168.1.63:/data/proxmox force
          
          # start the volume
          gluster volume start gfs-volume-proxmox
          
          # show glusterfs volume information
          gluster volume info
          
          ## on webui node-1
          
          # add glusterfs volume
          
          Datacenter > Storage > Add > GlusterFS
          
           id = storage name
           ip1 = 192.168.1.61
           ip2 = 192.168.1.62
           volume name = gfs-volume-proxmox
           content = all
          
          # create cluster:
          
          Datacenter > Cluster > Create Cluster
          
           name = pve-test-cl
          
          Datacenter > Cluster > Join Information > Copy Information
          
          ## on webui node-2
          
          # join cluster
          
          Datacenter > Cluster > Join Cluster
          
          Paste copied information
          
          ## on webui node-3
          
          Datacenter > Cluster > Join Cluster
          
          paste copied information and join
          

          apollon77A Offline
          apollon77A Offline
          apollon77
          schrieb am zuletzt editiert von
          #36

          @darkiop antworte ich dir heute Abend. Da muss ich an en Laptop. Da muss man bissl Tricksen. Und ja mir lxc soll es Performance technisch nicht ideal sein. Ich hatte bisher keine issues damit.

          Die drei vms sind jetzt bei dir nicht HA sondern eine vm pro node fest. Gell? Mit Autostart on Boot? Dann könnte das vllt gehen.
          Heißt du startest die vms mit dem proxmox node ind definierest das dann als glusterfs Host? Coole Idee.

          Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

          • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
          • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
          D 1 Antwort Letzte Antwort
          0
          • D darkiop

            @apollon77 sagte in iobroker hochverfügbar:

            @darkiop wenn alles am gleichen Switch hängt ist ja erstmal easy mit Netzwerk. Die backplane hat meistens ne viel höhere Leistung. Dann user nur dein Switch halt auch ein SPOF :-)

            Ja - das ist klar - aber das Risiko gehe ich erstmal ein.

            Hab heut Morgen mit meinen 3 VMs mal mit GlusterFS gespielt, installation + config liefen ohne größere hürden. Doku im Anhang.

            Aber eine Frage: GlusterFS kann nicht mit LXCs umgehen? Hast du das bei dir gelöst? Wenn ja, wie? :D

            https://forum.proxmox.com/threads/container-on-gluster-volume-not-possible.40889/

            348a5003-5d77-4bfe-883f-92e2fcb19071-grafik.png

            ## prerequisites:
            
            VMs with a clean Proxmox Installtion with an additional hdd (> /dev/sdb) for glusterfs:
            
             pve-test-node-1 - 192.168.1.61
             pve-test-node-2 - 192.168.1.62
             pve-test-node-3 - 192.168.1.63
            
            ## do this on all nodes
            
            # show hdd
            fdisk -l /dev/sdb
            
            # create pysical volume
            pvcreate /dev/sdb
            
            # create a volume group
            vgcreate vg_proxmox /dev/sdb
            
            # create a logical volume
            lvcreate --name lv_proxmox -l 100%vg vg_proxmox
            
            # create filesystem
            mkfs -t xfs -f -i size=512 -n size=8192 -L PROXMOX /dev/vg_proxmox/lv_proxmox
            
            # create & mount new lv
            mkdir -p /data/proxmox
            echo "/dev/mapper/vg_proxmox-lv_proxmox /data/proxmox xfs defaults 0 0" >> /etc/fstab
            mount -a
            mount | grep proxmox
            
            # install glusterfs
            apt-get install glusterfs-server glusterfs-client -y
            
            # activate glusterd after boot
            systemctl enable glusterd
            
            reboot now
            
            ## on node-1
            
            # test connection
            gluster peer probe 192.168.1.62
            gluster peer probe 192.168.1.63
            
            # create a glusterfs volume
            gluster volume create gfs-volume-proxmox transport tcp replica 2 192.168.1.61:/data/proxmox 192.168.1.62:/data/proxmox force
            
            # add node-3
            gluster volume add-brick gfs-volume-proxmox replica 3 192.168.1.63:/data/proxmox force
            
            # start the volume
            gluster volume start gfs-volume-proxmox
            
            # show glusterfs volume information
            gluster volume info
            
            ## on webui node-1
            
            # add glusterfs volume
            
            Datacenter > Storage > Add > GlusterFS
            
             id = storage name
             ip1 = 192.168.1.61
             ip2 = 192.168.1.62
             volume name = gfs-volume-proxmox
             content = all
            
            # create cluster:
            
            Datacenter > Cluster > Create Cluster
            
             name = pve-test-cl
            
            Datacenter > Cluster > Join Information > Copy Information
            
            ## on webui node-2
            
            # join cluster
            
            Datacenter > Cluster > Join Cluster
            
            Paste copied information
            
            ## on webui node-3
            
            Datacenter > Cluster > Join Cluster
            
            paste copied information and join
            

            apollon77A Offline
            apollon77A Offline
            apollon77
            schrieb am zuletzt editiert von
            #37

            @darkiop zur Anleitung ein Feedback: du kann’s es gleich mit replica 3 anlegen. Also muss kein „erst zwei dann Rest“ machen

            Aber mach mal noch keine Daten rein!!!! Du brauchst für vm Hosting ein paar spezielle Einstellungen!! Die kannst du mit Daten drin nicht gescheit setzen.

            Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

            • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
            • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
            1 Antwort Letzte Antwort
            0
            • apollon77A apollon77

              @darkiop antworte ich dir heute Abend. Da muss ich an en Laptop. Da muss man bissl Tricksen. Und ja mir lxc soll es Performance technisch nicht ideal sein. Ich hatte bisher keine issues damit.

              Die drei vms sind jetzt bei dir nicht HA sondern eine vm pro node fest. Gell? Mit Autostart on Boot? Dann könnte das vllt gehen.
              Heißt du startest die vms mit dem proxmox node ind definierest das dann als glusterfs Host? Coole Idee.

              D Offline
              D Offline
              darkiop
              Most Active
              schrieb am zuletzt editiert von
              #38

              @apollon77 sagte in iobroker hochverfügbar:

              @darkiop antworte ich dir heute Abend. Da muss ich an en Laptop. Da muss man bissl Tricksen. Und ja mir lxc soll es Performance technisch nicht ideal sein. Ich hatte bisher keine issues damit.

              Ok, eilt nicht - auch frühestens heut spät Abend wieder schauen. Performance sollte für zuhause vermutlich trotzdem passen.

              Die drei vms sind jetzt bei dir nicht HA sondern eine vm pro node fest. Gell? Mit Autostart on Boot? Dann könnte das vllt gehen.
              Heißt du startest die vms mit dem proxmox node ind definierest das dann als glusterfs Host? Coole Idee.

              Die 3 Nodes auf dem Screen sind die 3 VMs mit Proxmox. Innerhalb dieser teste ich dann GlusterFS und Co. Auf pve-test ist Proxmox direkt aufm Blech installiert :)

              218706de-d3a5-4d06-bf86-09e1d20bf1f8-grafik.png

              @apollon77 sagte in iobroker hochverfügbar:

              @darkiop zur Anleitung ein Feedback: du kann’s es gleich mit replica 3 anlegen. Also muss kein „erst zwei dann Rest“ machen

              Musste grad eh alles zurücksetzen, teste ich dann beim nächsten mal :)

              Aber mach mal noch keine Daten rein!!!! Du brauchst für vm Hosting ein paar spezielle Einstellungen!! Die kannst du mit Daten drin nicht gescheit setzen.

              Ok :)

              Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

              1 Antwort Letzte Antwort
              0
              • apollon77A Offline
                apollon77A Offline
                apollon77
                schrieb am zuletzt editiert von
                #39

                Ahhh ok hast also IN den VMs auch proxmox und testet da nen proxmox cluser ... auch ne Idee :-)

                Also dann ... (kam doch kurz dazu)

                • nach aufsetzen des glusterfs volumes noch ein gluster volume set <VOLNAME> group virt machen. Das setzt einige Settings sodass sie besser für vms und grössere mages geeignet sind.
                • prüfen dann mit gluster volume info Mindestens "features.shard=on" sollte dabei sein ... dann hats geklappt. Sharding heisst das er die echten Files in Chunks von zB nur 64MB aufteilt ... geht dann beim "healing" schneller. Was die anderen Settings alle bedeuten -> https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3.1/html/administration_guide/chap-managing_red_hat_storage_volumes#Configuring_Volume_Options
                • Erst dann Daten reinkopieren

                Dann empfehle ich "gstatus" als "Monitoring Tool"

                • Install: https://github.com/gluster/gstatus#install
                • Aufruf überblick nur gstatus ... detailliert `gstatus -a -b´
                • Sobald du irgendwas gemacht hast wie updates oder so danach da rein schauen. Vor allem schauen ob Files ein healing machen oder brauchen!
                • GlusterFS low level befehl für details gluster volume status <VOLNAME> detail ... so zum merken Da sieht man bei heals noch mehr.

                Welche Glusterfs Version hast Du jetzt drauf? Bei proxmox dabei ist ne recht alte. Aktuell ist 9.x ... ich bin auf 8.x ...

                • Vorher Changelog checken! (https://docs.gluster.org/en/latest/release-notes/8.4/)

                • Upgrade Log checken (https://docs.gluster.org/en/latest/Upgrade-Guide/upgrade_to_8/)

                • Proxmox update instructions:

                wget -O - https://download.gluster.org/pub/gluster/glusterfs/8/rsa.pub | apt-key add -
                vi /etc/apt/sources.list.d/gluster.list --> 8 einstellen bzw falls es fehlt halt nochanlegen
                gluster volume info
                apt-get update
                systemctl stop glusterd && systemctl stop glustereventsd && killall glusterfs glusterfsd glusterd glustereventsd
                apt-get dist-upgrade
                gluster --version
                reboot
                

                Immer den Proxmx Host nach Update rebooten!

                LXC über Proxmox:

                • Du hast im proxmox den storage angelegt. Damit mounted proxmox das beim start. mit mount siehst Du alles was gerade gemounted ist. Da müsste etwas sein wie "<IP>:<VOLNAME> on /mnt/pve/glusterfs type fuse.glusterfs"
                • Das jetzt equivalent im /etc/fstab reinschreiben als "<IP>:<VOLNAME> /mnt/pve/glusterfs glusterfs defaults,_netdev 0 0". Wichtig ist das /mnt/pve/glusterfs (oder wie auch immer es bei dir heisst). Merken!!
                • achja: Wenn glusterfs lokal ist und auf allen nodes dann am besten in der proxmox konfig einfach "localhost" bei der IP angeben, dann regelt glusterfs das ganze mit connection ... und wenn localhost nicht da ist ist was anderes kaputt.
                • In Proxmox dann einen "Directory Storage" anlegen und den lässt Du auf das Glusterfx Mount directory zeigen. in storage.cfg sieht das dann so aus (Mount Dir halt anpassen)
                dir: glusterfs-container
                        path /mnt/pve/glusterfs
                        content rootdir
                        is_mountpoint yes
                        shared 1
                

                Auf dem Kannst Du dann die Container Images ablegen :-)

                Ganz wichtig noch ab glusterfs 8:

                • systemctl status glusterfssharedstorage.service ... wenn es das gibt ... deaktivieren!
                • systemctl disable glusterfssharedstorage.service
                • systemctl stop glusterfssharedstorage.service
                • reboot

                Das Funkt sonst beim Reboot dazwischen und unmounted die Directory zu früh wo die LXC noch laufen und dann wird es blöd.

                Wenn Du jetzt VMs oder Container auf dem glusterfs hast dann mal starten und mal geflaggt als "HA" oder ohne testen das sie beim Booten sauber automatisch hochkommen und beim reboot sauber beendet werden bevor das glusterfs weg ist. Da hab ich einiges rumgemacht mit.
                Am besten /var/log/syslog checken nach bem Reboot das da keine Filesystem fehler angezeigt werden. Beim Boot kann es sein das Proxmox mal sagt "ohh mount noch nicht fertig ... muss noch kurz warten" bevor es die LXC startet. Das ist ok und sollte sich dann paar Sekunden später von selbst geben.

                Offtopic: Proxmox Cluster: Wenn Du NUCs hast dann nutze den Hardware Watchdog!

                In /etc/default/pve-ha-manager
                WATCHDOG_MODULE=iTCO_wdt
                

                Dann Reboot und im /var/log/syslog suchen nach wdt um zu schauen obs geklappt hat

                Dann viel Spass beim experimentieren und wäre cool am Ende eine Anleitung zu haben :-))

                Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                D 1 Antwort Letzte Antwort
                0
                • D darkiop

                  @arteck sagte in iobroker hochverfügbar:

                  was hab ich Tage damit verbracht.. aber wenns einmal läuft musst du du dich mit dem Ausfall beschäftigen falls das cluster mal nicht will... und so lernt man immer was dazu..

                  ich habs so wie apollon.. nur mit 5 nucs.. das ganze auch im Haus verteilt an einzelnen USV's.. um beruhig in den Urlaub zu fahren.

                  Ich muss mir mal Gedanken und einen Plan machen was die nächsten Schritte sind. Und so Sinnvoll ein Schritt nach dem andern gehen :D Das Thema USV schiebe ich auch schon ewig im Kopf rum und vergesse es immer wieder :D Was habt ihr denn für Welche im Einsatz?

                  der Spass beginnt wenn du eine Update Orgie startest.. mal eben so ist es nicht getan. da können Admins ein Lied von singen..

                  Das ist es ja jetzt schon, bei >10 LXCs/VMs + diversen anderen Geräten. Aus diesem Grund hab ich letzte Woche in einigen LXCs/VMs unattended-upgrades aktiviert. Ich hatte eigentlich noch nicht Probleme nach einem Update - solange man vorher nicht komplett sein System verwurschtelt hatte :) Mal schauen wann ich die ersten negativen Erfahrungen damit mache :D

                  apollon77A Offline
                  apollon77A Offline
                  apollon77
                  schrieb am zuletzt editiert von
                  #40

                  @darkiop usv bin ich auf den Apc Modellen mit usb Anschluss. Da dann nut dran. Die Usb gehen direkt auf drei meiner proxmox nodes und da will ich später noch ne fancy Steuerung machen weil das mit glusterfs so ein Thema ist (wieder was besonderes dann). Bei nem replika 3 system ist es ja so das dir eine ausfallen darf und noch alles geht. Wenn aber ggf die zweite Maschine (an zweiter usv als Beispiel) auch knapp wird wegen Batterie dann musst du idealerweise ja bevor die runterfährt alles sauber runterfahren. Also dann auch an der dritten usv die an sich noch gehen würde oder gar nicht betroffen ist.

                  Idee ist also hier zu Monitoren und falls es kritisch wird mittels proxmox Adapter dann alle vms und lxc zu beenden bevor das glusterfs read only geht und wenn wieder zurück ist wieder hochzufahren. Aber das ist noch ne Idee auf nem Zettel. ;-)

                  Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                  • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                  • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                  1 Antwort Letzte Antwort
                  0
                  • apollon77A apollon77

                    Ahhh ok hast also IN den VMs auch proxmox und testet da nen proxmox cluser ... auch ne Idee :-)

                    Also dann ... (kam doch kurz dazu)

                    • nach aufsetzen des glusterfs volumes noch ein gluster volume set <VOLNAME> group virt machen. Das setzt einige Settings sodass sie besser für vms und grössere mages geeignet sind.
                    • prüfen dann mit gluster volume info Mindestens "features.shard=on" sollte dabei sein ... dann hats geklappt. Sharding heisst das er die echten Files in Chunks von zB nur 64MB aufteilt ... geht dann beim "healing" schneller. Was die anderen Settings alle bedeuten -> https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3.1/html/administration_guide/chap-managing_red_hat_storage_volumes#Configuring_Volume_Options
                    • Erst dann Daten reinkopieren

                    Dann empfehle ich "gstatus" als "Monitoring Tool"

                    • Install: https://github.com/gluster/gstatus#install
                    • Aufruf überblick nur gstatus ... detailliert `gstatus -a -b´
                    • Sobald du irgendwas gemacht hast wie updates oder so danach da rein schauen. Vor allem schauen ob Files ein healing machen oder brauchen!
                    • GlusterFS low level befehl für details gluster volume status <VOLNAME> detail ... so zum merken Da sieht man bei heals noch mehr.

                    Welche Glusterfs Version hast Du jetzt drauf? Bei proxmox dabei ist ne recht alte. Aktuell ist 9.x ... ich bin auf 8.x ...

                    • Vorher Changelog checken! (https://docs.gluster.org/en/latest/release-notes/8.4/)

                    • Upgrade Log checken (https://docs.gluster.org/en/latest/Upgrade-Guide/upgrade_to_8/)

                    • Proxmox update instructions:

                    wget -O - https://download.gluster.org/pub/gluster/glusterfs/8/rsa.pub | apt-key add -
                    vi /etc/apt/sources.list.d/gluster.list --> 8 einstellen bzw falls es fehlt halt nochanlegen
                    gluster volume info
                    apt-get update
                    systemctl stop glusterd && systemctl stop glustereventsd && killall glusterfs glusterfsd glusterd glustereventsd
                    apt-get dist-upgrade
                    gluster --version
                    reboot
                    

                    Immer den Proxmx Host nach Update rebooten!

                    LXC über Proxmox:

                    • Du hast im proxmox den storage angelegt. Damit mounted proxmox das beim start. mit mount siehst Du alles was gerade gemounted ist. Da müsste etwas sein wie "<IP>:<VOLNAME> on /mnt/pve/glusterfs type fuse.glusterfs"
                    • Das jetzt equivalent im /etc/fstab reinschreiben als "<IP>:<VOLNAME> /mnt/pve/glusterfs glusterfs defaults,_netdev 0 0". Wichtig ist das /mnt/pve/glusterfs (oder wie auch immer es bei dir heisst). Merken!!
                    • achja: Wenn glusterfs lokal ist und auf allen nodes dann am besten in der proxmox konfig einfach "localhost" bei der IP angeben, dann regelt glusterfs das ganze mit connection ... und wenn localhost nicht da ist ist was anderes kaputt.
                    • In Proxmox dann einen "Directory Storage" anlegen und den lässt Du auf das Glusterfx Mount directory zeigen. in storage.cfg sieht das dann so aus (Mount Dir halt anpassen)
                    dir: glusterfs-container
                            path /mnt/pve/glusterfs
                            content rootdir
                            is_mountpoint yes
                            shared 1
                    

                    Auf dem Kannst Du dann die Container Images ablegen :-)

                    Ganz wichtig noch ab glusterfs 8:

                    • systemctl status glusterfssharedstorage.service ... wenn es das gibt ... deaktivieren!
                    • systemctl disable glusterfssharedstorage.service
                    • systemctl stop glusterfssharedstorage.service
                    • reboot

                    Das Funkt sonst beim Reboot dazwischen und unmounted die Directory zu früh wo die LXC noch laufen und dann wird es blöd.

                    Wenn Du jetzt VMs oder Container auf dem glusterfs hast dann mal starten und mal geflaggt als "HA" oder ohne testen das sie beim Booten sauber automatisch hochkommen und beim reboot sauber beendet werden bevor das glusterfs weg ist. Da hab ich einiges rumgemacht mit.
                    Am besten /var/log/syslog checken nach bem Reboot das da keine Filesystem fehler angezeigt werden. Beim Boot kann es sein das Proxmox mal sagt "ohh mount noch nicht fertig ... muss noch kurz warten" bevor es die LXC startet. Das ist ok und sollte sich dann paar Sekunden später von selbst geben.

                    Offtopic: Proxmox Cluster: Wenn Du NUCs hast dann nutze den Hardware Watchdog!

                    In /etc/default/pve-ha-manager
                    WATCHDOG_MODULE=iTCO_wdt
                    

                    Dann Reboot und im /var/log/syslog suchen nach wdt um zu schauen obs geklappt hat

                    Dann viel Spass beim experimentieren und wäre cool am Ende eine Anleitung zu haben :-))

                    D Offline
                    D Offline
                    darkiop
                    Most Active
                    schrieb am zuletzt editiert von
                    #41

                    @apollon77 sagte in iobroker hochverfügbar:

                    Welche Glusterfs Version hast Du jetzt drauf? Bei proxmox dabei ist ne recht alte. Aktuell ist 9.x ... ich bin auf 8.x ...

                    ┬─[root@pve-test-node-1:/tmp]─[15:46:47]
                    ╰─># glusterfs --version
                    glusterfs 5.5
                    

                    Mit Proxmox 6.4 kommt die 5.5 mit :D Also da lohtn wohl ein Upgrade auf 8/9 :)

                    Danke für die vielen Infos. Habe bis inkl. gsatus schon in meine Doku übernommen - ggf. Teste ich das heut Abend noch. Muss jetzt allerdings erstmal los.

                    @apollon77 sagte in iobroker hochverfügbar:

                    Dann viel Spass beim experimentieren und wäre cool am Ende eine Anleitung zu haben :-))

                    Selbstverständlich, ich schreibe Schritt für Schritt mit - da kommt die automatisch bei raus. Ggf. muss man doch noch etwas Hintergrundwissen verlinken / formulieren. Grundsätzlich sollte sich das dann auch auf ein 3-NUC ++ Setup adaptieren lassen.

                    Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                    1 Antwort Letzte Antwort
                    1
                    • D Offline
                      D Offline
                      darkiop
                      Most Active
                      schrieb am zuletzt editiert von
                      #42

                      Hallo zusammen, passend zum Thema gibts es hier eine Dokumentation eines kompletten HA Setups: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                      Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                      1 Antwort Letzte Antwort
                      0
                      • S Offline
                        S Offline
                        SuFra
                        schrieb am zuletzt editiert von
                        #43

                        Hi

                        Ich weiß der Thread ist schon alt, jedoch befasse ich mich gerade auch mit dem Thema.
                        Gibt es mitlerweile was neues oder einen neuen Thread den ich übesehen habe?

                        HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                        LXC's: ioBroker, (3x Redis), PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix, Frigate, nextCloud, PeaNUT
                        VM's: PBS, trueNAS (Plex)

                        apollon77A 1 Antwort Letzte Antwort
                        0
                        • S SuFra

                          Hi

                          Ich weiß der Thread ist schon alt, jedoch befasse ich mich gerade auch mit dem Thema.
                          Gibt es mitlerweile was neues oder einen neuen Thread den ich übesehen habe?

                          apollon77A Offline
                          apollon77A Offline
                          apollon77
                          schrieb am zuletzt editiert von
                          #44

                          @sufra Ich denke es gibt so 2-3 Threads zum Thema, aber noch keine vollständige Lösung.
                          Mit Objekten und States im Redis und einem Redis-Multihost setup mit Sentinel im Hintergrund bist Du schonmal unabhängig vom Filesystem.

                          Ich glaube die meisten nutzen aktuell dann eher Proxmox als Cluster mit 2+Quorum oder 3 Nodes mit Shared Filesystem und damit werden beim ausfall eines nodes die VMs bzw container automatisch umverteilt.

                          Die HA Pläne sind immer noch auf Todo listen, aber bisher gabs immer wichtigere Baustellen.

                          Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                          • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                          • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                          1 Antwort Letzte Antwort
                          0
                          • S Offline
                            S Offline
                            SuFra
                            schrieb am zuletzt editiert von
                            #45

                            Ich habe mir nun 3 NUCs zugelegt.
                            Proxmox ist installiert.
                            Cluster ist erstellt.

                            Nun komme ich bei GlusterFS nicht weiter.
                            Kann ich hier Fragen dazu stellen oder soll ich einen neuen Thread aufmachen?
                            Ich habe auch das tolle Tutial von Thorsten und würde mich dann dort auch einbringen wollen.

                            HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                            LXC's: ioBroker, (3x Redis), PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix, Frigate, nextCloud, PeaNUT
                            VM's: PBS, trueNAS (Plex)

                            bahnuhrB apollon77A 2 Antworten Letzte Antwort
                            0
                            • S SuFra

                              Ich habe mir nun 3 NUCs zugelegt.
                              Proxmox ist installiert.
                              Cluster ist erstellt.

                              Nun komme ich bei GlusterFS nicht weiter.
                              Kann ich hier Fragen dazu stellen oder soll ich einen neuen Thread aufmachen?
                              Ich habe auch das tolle Tutial von Thorsten und würde mich dann dort auch einbringen wollen.

                              bahnuhrB Offline
                              bahnuhrB Offline
                              bahnuhr
                              Forum Testing Most Active
                              schrieb am zuletzt editiert von
                              #46

                              @sufra
                              Auf der iob Seite gibt es eine super Doku.
                              Mit der kann nichts schief gehen.

                              Bist du nach dieser vorgegangen ?
                              Wenn nein, warum nicht ?
                              Wenn ja, an welchem Punkt hakt es da ?


                              Wenn ich helfen konnte, dann Daumen hoch (Pfeil nach oben)!
                              Danke.
                              gute Forenbeiträge: https://forum.iobroker.net/topic/51555/hinweise-f%C3%BCr-gute-forenbeitr%C3%A4ge
                              ScreenToGif :https://www.screentogif.com/downloads.html

                              1 Antwort Letzte Antwort
                              0
                              • S Offline
                                S Offline
                                SuFra
                                schrieb am zuletzt editiert von
                                #47

                                Zur GlusterFS installation habe ich in der IOBroker Doku nichts gefunden...
                                Zu IOBroker an sich habe ich auch keine Fragen, habe einen Server schon seit Jahren in Betrieb.

                                HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                                LXC's: ioBroker, (3x Redis), PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix, Frigate, nextCloud, PeaNUT
                                VM's: PBS, trueNAS (Plex)

                                crunchipC 1 Antwort Letzte Antwort
                                0
                                • S SuFra

                                  Zur GlusterFS installation habe ich in der IOBroker Doku nichts gefunden...
                                  Zu IOBroker an sich habe ich auch keine Fragen, habe einen Server schon seit Jahren in Betrieb.

                                  crunchipC Abwesend
                                  crunchipC Abwesend
                                  crunchip
                                  Forum Testing Most Active
                                  schrieb am zuletzt editiert von
                                  #48

                                  @sufra sagte in iobroker hochverfügbar:

                                  Zur GlusterFS installation habe ich in der IOBroker Doku nichts gefunden...

                                  gibt es auch nichts, das sprengt den Rahmen, da es mit iobroker nichts zu tun hat

                                  solch Fragen sind dann besser im Proxmox Forum zu stellen

                                  umgestiegen von Proxmox auf Unraid

                                  1 Antwort Letzte Antwort
                                  0
                                  • S Offline
                                    S Offline
                                    SuFra
                                    schrieb am zuletzt editiert von
                                    #49

                                    Okay ich Frag einfach mal ;)

                                    Meine SSD ist wie folgt partioniert:

                                    root@pve-node1:~# lsblk
                                    NAME         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
                                    nvme0n1      259:0    0 465.8G  0 disk 
                                    ├─nvme0n1p1  259:1    0  1007K  0 part 
                                    ├─nvme0n1p2  259:2    0     1G  0 part /boot/efi
                                    └─nvme0n1p3  259:3    0 464.8G  0 part 
                                      ├─pve-swap 253:0    0     8G  0 lvm  [SWAP]
                                      └─pve-root 253:1    0    20G  0 lvm  /
                                    

                                    Kann man und wenn ja wie in der Partition nvme0n1p3 GlusterFS installieren?

                                    HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                                    LXC's: ioBroker, (3x Redis), PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix, Frigate, nextCloud, PeaNUT
                                    VM's: PBS, trueNAS (Plex)

                                    D 1 Antwort Letzte Antwort
                                    0
                                    • arteckA Offline
                                      arteckA Offline
                                      arteck
                                      Developer Most Active
                                      schrieb am zuletzt editiert von
                                      #50

                                      @sufra sagte in iobroker hochverfügbar:

                                      Nun komme ich bei GlusterFS nicht weiter.

                                      nimm cephfs..

                                      ich war lange auf glusterfs... wie Apollon auch.. bin aber gewechselt.. da Proxmox hier eine direkte unterstüzung bietet
                                      und du keine Nachteile dadurch hast

                                      zigbee hab ich, zwave auch, nuc's genauso und HA auch

                                      1 Antwort Letzte Antwort
                                      0
                                      • S SuFra

                                        Okay ich Frag einfach mal ;)

                                        Meine SSD ist wie folgt partioniert:

                                        root@pve-node1:~# lsblk
                                        NAME         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
                                        nvme0n1      259:0    0 465.8G  0 disk 
                                        ├─nvme0n1p1  259:1    0  1007K  0 part 
                                        ├─nvme0n1p2  259:2    0     1G  0 part /boot/efi
                                        └─nvme0n1p3  259:3    0 464.8G  0 part 
                                          ├─pve-swap 253:0    0     8G  0 lvm  [SWAP]
                                          └─pve-root 253:1    0    20G  0 lvm  /
                                        

                                        Kann man und wenn ja wie in der Partition nvme0n1p3 GlusterFS installieren?

                                        D Offline
                                        D Offline
                                        darkiop
                                        Most Active
                                        schrieb am zuletzt editiert von darkiop
                                        #51

                                        @sufra sagte in iobroker hochverfügbar:

                                        Kann man und wenn ja wie in der Partition nvme0n1p3 GlusterFS installieren?

                                        Ja, müsste auch aus meiner Doku zu lesen sein. Musst mal schauen, die Befehle halt entsprechend abwandeln.

                                        @arteck sagte in iobroker hochverfügbar:

                                        nimm cephfs..
                                        ich war lange auf glusterfs... wie Apollon auch.. bin aber gewechselt.. da Proxmox hier eine direkte unterstüzung bietet
                                        und du keine Nachteile dadurch hast

                                        Bin zwischenzeitlich sogar wieder zurück auf einen Node ;)

                                        Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                                        S 2 Antworten Letzte Antwort
                                        0
                                        • D darkiop

                                          @sufra sagte in iobroker hochverfügbar:

                                          Kann man und wenn ja wie in der Partition nvme0n1p3 GlusterFS installieren?

                                          Ja, müsste auch aus meiner Doku zu lesen sein. Musst mal schauen, die Befehle halt entsprechend abwandeln.

                                          @arteck sagte in iobroker hochverfügbar:

                                          nimm cephfs..
                                          ich war lange auf glusterfs... wie Apollon auch.. bin aber gewechselt.. da Proxmox hier eine direkte unterstüzung bietet
                                          und du keine Nachteile dadurch hast

                                          Bin zwischenzeitlich sogar wieder zurück auf einen Node ;)

                                          S Offline
                                          S Offline
                                          SuFra
                                          schrieb am zuletzt editiert von SuFra
                                          #52

                                          gelöscht

                                          HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                                          LXC's: ioBroker, (3x Redis), PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix, Frigate, nextCloud, PeaNUT
                                          VM's: PBS, trueNAS (Plex)

                                          1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          538

                                          Online

                                          32.5k

                                          Benutzer

                                          81.7k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe