Skip to content
  • Home
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. iobroker hochverfügbar

NEWS

  • Monatsrückblick Januar/Februar 2026 ist online!
    BluefoxB
    Bluefox
    16
    1
    265

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    4.6k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.3k

iobroker hochverfügbar

Scheduled Pinned Locked Moved Off Topic
82 Posts 12 Posters 12.8k Views 13 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • apollon77A Offline
    apollon77A Offline
    apollon77
    wrote on last edited by
    #39

    Ahhh ok hast also IN den VMs auch proxmox und testet da nen proxmox cluser ... auch ne Idee :-)

    Also dann ... (kam doch kurz dazu)

    • nach aufsetzen des glusterfs volumes noch ein gluster volume set <VOLNAME> group virt machen. Das setzt einige Settings sodass sie besser für vms und grössere mages geeignet sind.
    • prüfen dann mit gluster volume info Mindestens "features.shard=on" sollte dabei sein ... dann hats geklappt. Sharding heisst das er die echten Files in Chunks von zB nur 64MB aufteilt ... geht dann beim "healing" schneller. Was die anderen Settings alle bedeuten -> https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3.1/html/administration_guide/chap-managing_red_hat_storage_volumes#Configuring_Volume_Options
    • Erst dann Daten reinkopieren

    Dann empfehle ich "gstatus" als "Monitoring Tool"

    • Install: https://github.com/gluster/gstatus#install
    • Aufruf überblick nur gstatus ... detailliert `gstatus -a -b´
    • Sobald du irgendwas gemacht hast wie updates oder so danach da rein schauen. Vor allem schauen ob Files ein healing machen oder brauchen!
    • GlusterFS low level befehl für details gluster volume status <VOLNAME> detail ... so zum merken Da sieht man bei heals noch mehr.

    Welche Glusterfs Version hast Du jetzt drauf? Bei proxmox dabei ist ne recht alte. Aktuell ist 9.x ... ich bin auf 8.x ...

    • Vorher Changelog checken! (https://docs.gluster.org/en/latest/release-notes/8.4/)

    • Upgrade Log checken (https://docs.gluster.org/en/latest/Upgrade-Guide/upgrade_to_8/)

    • Proxmox update instructions:

    wget -O - https://download.gluster.org/pub/gluster/glusterfs/8/rsa.pub | apt-key add -
    vi /etc/apt/sources.list.d/gluster.list --> 8 einstellen bzw falls es fehlt halt nochanlegen
    gluster volume info
    apt-get update
    systemctl stop glusterd && systemctl stop glustereventsd && killall glusterfs glusterfsd glusterd glustereventsd
    apt-get dist-upgrade
    gluster --version
    reboot
    

    Immer den Proxmx Host nach Update rebooten!

    LXC über Proxmox:

    • Du hast im proxmox den storage angelegt. Damit mounted proxmox das beim start. mit mount siehst Du alles was gerade gemounted ist. Da müsste etwas sein wie "<IP>:<VOLNAME> on /mnt/pve/glusterfs type fuse.glusterfs"
    • Das jetzt equivalent im /etc/fstab reinschreiben als "<IP>:<VOLNAME> /mnt/pve/glusterfs glusterfs defaults,_netdev 0 0". Wichtig ist das /mnt/pve/glusterfs (oder wie auch immer es bei dir heisst). Merken!!
    • achja: Wenn glusterfs lokal ist und auf allen nodes dann am besten in der proxmox konfig einfach "localhost" bei der IP angeben, dann regelt glusterfs das ganze mit connection ... und wenn localhost nicht da ist ist was anderes kaputt.
    • In Proxmox dann einen "Directory Storage" anlegen und den lässt Du auf das Glusterfx Mount directory zeigen. in storage.cfg sieht das dann so aus (Mount Dir halt anpassen)
    dir: glusterfs-container
            path /mnt/pve/glusterfs
            content rootdir
            is_mountpoint yes
            shared 1
    

    Auf dem Kannst Du dann die Container Images ablegen :-)

    Ganz wichtig noch ab glusterfs 8:

    • systemctl status glusterfssharedstorage.service ... wenn es das gibt ... deaktivieren!
    • systemctl disable glusterfssharedstorage.service
    • systemctl stop glusterfssharedstorage.service
    • reboot

    Das Funkt sonst beim Reboot dazwischen und unmounted die Directory zu früh wo die LXC noch laufen und dann wird es blöd.

    Wenn Du jetzt VMs oder Container auf dem glusterfs hast dann mal starten und mal geflaggt als "HA" oder ohne testen das sie beim Booten sauber automatisch hochkommen und beim reboot sauber beendet werden bevor das glusterfs weg ist. Da hab ich einiges rumgemacht mit.
    Am besten /var/log/syslog checken nach bem Reboot das da keine Filesystem fehler angezeigt werden. Beim Boot kann es sein das Proxmox mal sagt "ohh mount noch nicht fertig ... muss noch kurz warten" bevor es die LXC startet. Das ist ok und sollte sich dann paar Sekunden später von selbst geben.

    Offtopic: Proxmox Cluster: Wenn Du NUCs hast dann nutze den Hardware Watchdog!

    In /etc/default/pve-ha-manager
    WATCHDOG_MODULE=iTCO_wdt
    

    Dann Reboot und im /var/log/syslog suchen nach wdt um zu schauen obs geklappt hat

    Dann viel Spass beim experimentieren und wäre cool am Ende eine Anleitung zu haben :-))

    Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

    • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
    • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
    D 1 Reply Last reply
    0
    • D darkiop

      @arteck sagte in iobroker hochverfügbar:

      was hab ich Tage damit verbracht.. aber wenns einmal läuft musst du du dich mit dem Ausfall beschäftigen falls das cluster mal nicht will... und so lernt man immer was dazu..

      ich habs so wie apollon.. nur mit 5 nucs.. das ganze auch im Haus verteilt an einzelnen USV's.. um beruhig in den Urlaub zu fahren.

      Ich muss mir mal Gedanken und einen Plan machen was die nächsten Schritte sind. Und so Sinnvoll ein Schritt nach dem andern gehen :D Das Thema USV schiebe ich auch schon ewig im Kopf rum und vergesse es immer wieder :D Was habt ihr denn für Welche im Einsatz?

      der Spass beginnt wenn du eine Update Orgie startest.. mal eben so ist es nicht getan. da können Admins ein Lied von singen..

      Das ist es ja jetzt schon, bei >10 LXCs/VMs + diversen anderen Geräten. Aus diesem Grund hab ich letzte Woche in einigen LXCs/VMs unattended-upgrades aktiviert. Ich hatte eigentlich noch nicht Probleme nach einem Update - solange man vorher nicht komplett sein System verwurschtelt hatte :) Mal schauen wann ich die ersten negativen Erfahrungen damit mache :D

      apollon77A Offline
      apollon77A Offline
      apollon77
      wrote on last edited by
      #40

      @darkiop usv bin ich auf den Apc Modellen mit usb Anschluss. Da dann nut dran. Die Usb gehen direkt auf drei meiner proxmox nodes und da will ich später noch ne fancy Steuerung machen weil das mit glusterfs so ein Thema ist (wieder was besonderes dann). Bei nem replika 3 system ist es ja so das dir eine ausfallen darf und noch alles geht. Wenn aber ggf die zweite Maschine (an zweiter usv als Beispiel) auch knapp wird wegen Batterie dann musst du idealerweise ja bevor die runterfährt alles sauber runterfahren. Also dann auch an der dritten usv die an sich noch gehen würde oder gar nicht betroffen ist.

      Idee ist also hier zu Monitoren und falls es kritisch wird mittels proxmox Adapter dann alle vms und lxc zu beenden bevor das glusterfs read only geht und wenn wieder zurück ist wieder hochzufahren. Aber das ist noch ne Idee auf nem Zettel. ;-)

      Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

      • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
      • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
      1 Reply Last reply
      0
      • apollon77A apollon77

        Ahhh ok hast also IN den VMs auch proxmox und testet da nen proxmox cluser ... auch ne Idee :-)

        Also dann ... (kam doch kurz dazu)

        • nach aufsetzen des glusterfs volumes noch ein gluster volume set <VOLNAME> group virt machen. Das setzt einige Settings sodass sie besser für vms und grössere mages geeignet sind.
        • prüfen dann mit gluster volume info Mindestens "features.shard=on" sollte dabei sein ... dann hats geklappt. Sharding heisst das er die echten Files in Chunks von zB nur 64MB aufteilt ... geht dann beim "healing" schneller. Was die anderen Settings alle bedeuten -> https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3.1/html/administration_guide/chap-managing_red_hat_storage_volumes#Configuring_Volume_Options
        • Erst dann Daten reinkopieren

        Dann empfehle ich "gstatus" als "Monitoring Tool"

        • Install: https://github.com/gluster/gstatus#install
        • Aufruf überblick nur gstatus ... detailliert `gstatus -a -b´
        • Sobald du irgendwas gemacht hast wie updates oder so danach da rein schauen. Vor allem schauen ob Files ein healing machen oder brauchen!
        • GlusterFS low level befehl für details gluster volume status <VOLNAME> detail ... so zum merken Da sieht man bei heals noch mehr.

        Welche Glusterfs Version hast Du jetzt drauf? Bei proxmox dabei ist ne recht alte. Aktuell ist 9.x ... ich bin auf 8.x ...

        • Vorher Changelog checken! (https://docs.gluster.org/en/latest/release-notes/8.4/)

        • Upgrade Log checken (https://docs.gluster.org/en/latest/Upgrade-Guide/upgrade_to_8/)

        • Proxmox update instructions:

        wget -O - https://download.gluster.org/pub/gluster/glusterfs/8/rsa.pub | apt-key add -
        vi /etc/apt/sources.list.d/gluster.list --> 8 einstellen bzw falls es fehlt halt nochanlegen
        gluster volume info
        apt-get update
        systemctl stop glusterd && systemctl stop glustereventsd && killall glusterfs glusterfsd glusterd glustereventsd
        apt-get dist-upgrade
        gluster --version
        reboot
        

        Immer den Proxmx Host nach Update rebooten!

        LXC über Proxmox:

        • Du hast im proxmox den storage angelegt. Damit mounted proxmox das beim start. mit mount siehst Du alles was gerade gemounted ist. Da müsste etwas sein wie "<IP>:<VOLNAME> on /mnt/pve/glusterfs type fuse.glusterfs"
        • Das jetzt equivalent im /etc/fstab reinschreiben als "<IP>:<VOLNAME> /mnt/pve/glusterfs glusterfs defaults,_netdev 0 0". Wichtig ist das /mnt/pve/glusterfs (oder wie auch immer es bei dir heisst). Merken!!
        • achja: Wenn glusterfs lokal ist und auf allen nodes dann am besten in der proxmox konfig einfach "localhost" bei der IP angeben, dann regelt glusterfs das ganze mit connection ... und wenn localhost nicht da ist ist was anderes kaputt.
        • In Proxmox dann einen "Directory Storage" anlegen und den lässt Du auf das Glusterfx Mount directory zeigen. in storage.cfg sieht das dann so aus (Mount Dir halt anpassen)
        dir: glusterfs-container
                path /mnt/pve/glusterfs
                content rootdir
                is_mountpoint yes
                shared 1
        

        Auf dem Kannst Du dann die Container Images ablegen :-)

        Ganz wichtig noch ab glusterfs 8:

        • systemctl status glusterfssharedstorage.service ... wenn es das gibt ... deaktivieren!
        • systemctl disable glusterfssharedstorage.service
        • systemctl stop glusterfssharedstorage.service
        • reboot

        Das Funkt sonst beim Reboot dazwischen und unmounted die Directory zu früh wo die LXC noch laufen und dann wird es blöd.

        Wenn Du jetzt VMs oder Container auf dem glusterfs hast dann mal starten und mal geflaggt als "HA" oder ohne testen das sie beim Booten sauber automatisch hochkommen und beim reboot sauber beendet werden bevor das glusterfs weg ist. Da hab ich einiges rumgemacht mit.
        Am besten /var/log/syslog checken nach bem Reboot das da keine Filesystem fehler angezeigt werden. Beim Boot kann es sein das Proxmox mal sagt "ohh mount noch nicht fertig ... muss noch kurz warten" bevor es die LXC startet. Das ist ok und sollte sich dann paar Sekunden später von selbst geben.

        Offtopic: Proxmox Cluster: Wenn Du NUCs hast dann nutze den Hardware Watchdog!

        In /etc/default/pve-ha-manager
        WATCHDOG_MODULE=iTCO_wdt
        

        Dann Reboot und im /var/log/syslog suchen nach wdt um zu schauen obs geklappt hat

        Dann viel Spass beim experimentieren und wäre cool am Ende eine Anleitung zu haben :-))

        D Offline
        D Offline
        darkiop
        Most Active
        wrote on last edited by
        #41

        @apollon77 sagte in iobroker hochverfügbar:

        Welche Glusterfs Version hast Du jetzt drauf? Bei proxmox dabei ist ne recht alte. Aktuell ist 9.x ... ich bin auf 8.x ...

        ┬─[root@pve-test-node-1:/tmp]─[15:46:47]
        ╰─># glusterfs --version
        glusterfs 5.5
        

        Mit Proxmox 6.4 kommt die 5.5 mit :D Also da lohtn wohl ein Upgrade auf 8/9 :)

        Danke für die vielen Infos. Habe bis inkl. gsatus schon in meine Doku übernommen - ggf. Teste ich das heut Abend noch. Muss jetzt allerdings erstmal los.

        @apollon77 sagte in iobroker hochverfügbar:

        Dann viel Spass beim experimentieren und wäre cool am Ende eine Anleitung zu haben :-))

        Selbstverständlich, ich schreibe Schritt für Schritt mit - da kommt die automatisch bei raus. Ggf. muss man doch noch etwas Hintergrundwissen verlinken / formulieren. Grundsätzlich sollte sich das dann auch auf ein 3-NUC ++ Setup adaptieren lassen.

        Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

        1 Reply Last reply
        1
        • D Offline
          D Offline
          darkiop
          Most Active
          wrote on last edited by
          #42

          Hallo zusammen, passend zum Thema gibts es hier eine Dokumentation eines kompletten HA Setups: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

          Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

          1 Reply Last reply
          0
          • S Offline
            S Offline
            SuFra
            wrote on last edited by
            #43

            Hi

            Ich weiß der Thread ist schon alt, jedoch befasse ich mich gerade auch mit dem Thema.
            Gibt es mitlerweile was neues oder einen neuen Thread den ich übesehen habe?

            HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
            LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
            VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

            apollon77A 1 Reply Last reply
            0
            • S SuFra

              Hi

              Ich weiß der Thread ist schon alt, jedoch befasse ich mich gerade auch mit dem Thema.
              Gibt es mitlerweile was neues oder einen neuen Thread den ich übesehen habe?

              apollon77A Offline
              apollon77A Offline
              apollon77
              wrote on last edited by
              #44

              @sufra Ich denke es gibt so 2-3 Threads zum Thema, aber noch keine vollständige Lösung.
              Mit Objekten und States im Redis und einem Redis-Multihost setup mit Sentinel im Hintergrund bist Du schonmal unabhängig vom Filesystem.

              Ich glaube die meisten nutzen aktuell dann eher Proxmox als Cluster mit 2+Quorum oder 3 Nodes mit Shared Filesystem und damit werden beim ausfall eines nodes die VMs bzw container automatisch umverteilt.

              Die HA Pläne sind immer noch auf Todo listen, aber bisher gabs immer wichtigere Baustellen.

              Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

              • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
              • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
              1 Reply Last reply
              0
              • S Offline
                S Offline
                SuFra
                wrote on last edited by
                #45

                Ich habe mir nun 3 NUCs zugelegt.
                Proxmox ist installiert.
                Cluster ist erstellt.

                Nun komme ich bei GlusterFS nicht weiter.
                Kann ich hier Fragen dazu stellen oder soll ich einen neuen Thread aufmachen?
                Ich habe auch das tolle Tutial von Thorsten und würde mich dann dort auch einbringen wollen.

                HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                bahnuhrB apollon77A 2 Replies Last reply
                0
                • S SuFra

                  Ich habe mir nun 3 NUCs zugelegt.
                  Proxmox ist installiert.
                  Cluster ist erstellt.

                  Nun komme ich bei GlusterFS nicht weiter.
                  Kann ich hier Fragen dazu stellen oder soll ich einen neuen Thread aufmachen?
                  Ich habe auch das tolle Tutial von Thorsten und würde mich dann dort auch einbringen wollen.

                  bahnuhrB Online
                  bahnuhrB Online
                  bahnuhr
                  Forum Testing Most Active
                  wrote on last edited by
                  #46

                  @sufra
                  Auf der iob Seite gibt es eine super Doku.
                  Mit der kann nichts schief gehen.

                  Bist du nach dieser vorgegangen ?
                  Wenn nein, warum nicht ?
                  Wenn ja, an welchem Punkt hakt es da ?


                  Wenn ich helfen konnte, dann Daumen hoch (Pfeil nach oben)!
                  Danke.
                  gute Forenbeiträge: https://forum.iobroker.net/topic/51555/hinweise-f%C3%BCr-gute-forenbeitr%C3%A4ge
                  ScreenToGif :https://www.screentogif.com/downloads.html

                  1 Reply Last reply
                  0
                  • S Offline
                    S Offline
                    SuFra
                    wrote on last edited by
                    #47

                    Zur GlusterFS installation habe ich in der IOBroker Doku nichts gefunden...
                    Zu IOBroker an sich habe ich auch keine Fragen, habe einen Server schon seit Jahren in Betrieb.

                    HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                    LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                    VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                    crunchipC 1 Reply Last reply
                    0
                    • S SuFra

                      Zur GlusterFS installation habe ich in der IOBroker Doku nichts gefunden...
                      Zu IOBroker an sich habe ich auch keine Fragen, habe einen Server schon seit Jahren in Betrieb.

                      crunchipC Offline
                      crunchipC Offline
                      crunchip
                      Forum Testing Most Active
                      wrote on last edited by
                      #48

                      @sufra sagte in iobroker hochverfügbar:

                      Zur GlusterFS installation habe ich in der IOBroker Doku nichts gefunden...

                      gibt es auch nichts, das sprengt den Rahmen, da es mit iobroker nichts zu tun hat

                      solch Fragen sind dann besser im Proxmox Forum zu stellen

                      umgestiegen von Proxmox auf Unraid

                      1 Reply Last reply
                      0
                      • S Offline
                        S Offline
                        SuFra
                        wrote on last edited by
                        #49

                        Okay ich Frag einfach mal ;)

                        Meine SSD ist wie folgt partioniert:

                        root@pve-node1:~# lsblk
                        NAME         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
                        nvme0n1      259:0    0 465.8G  0 disk 
                        ├─nvme0n1p1  259:1    0  1007K  0 part 
                        ├─nvme0n1p2  259:2    0     1G  0 part /boot/efi
                        └─nvme0n1p3  259:3    0 464.8G  0 part 
                          ├─pve-swap 253:0    0     8G  0 lvm  [SWAP]
                          └─pve-root 253:1    0    20G  0 lvm  /
                        

                        Kann man und wenn ja wie in der Partition nvme0n1p3 GlusterFS installieren?

                        HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                        LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                        VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                        D 1 Reply Last reply
                        0
                        • arteckA Offline
                          arteckA Offline
                          arteck
                          Developer Most Active
                          wrote on last edited by
                          #50

                          @sufra sagte in iobroker hochverfügbar:

                          Nun komme ich bei GlusterFS nicht weiter.

                          nimm cephfs..

                          ich war lange auf glusterfs... wie Apollon auch.. bin aber gewechselt.. da Proxmox hier eine direkte unterstüzung bietet
                          und du keine Nachteile dadurch hast

                          zigbee hab ich, zwave auch, nuc's genauso und HA auch

                          1 Reply Last reply
                          0
                          • S SuFra

                            Okay ich Frag einfach mal ;)

                            Meine SSD ist wie folgt partioniert:

                            root@pve-node1:~# lsblk
                            NAME         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
                            nvme0n1      259:0    0 465.8G  0 disk 
                            ├─nvme0n1p1  259:1    0  1007K  0 part 
                            ├─nvme0n1p2  259:2    0     1G  0 part /boot/efi
                            └─nvme0n1p3  259:3    0 464.8G  0 part 
                              ├─pve-swap 253:0    0     8G  0 lvm  [SWAP]
                              └─pve-root 253:1    0    20G  0 lvm  /
                            

                            Kann man und wenn ja wie in der Partition nvme0n1p3 GlusterFS installieren?

                            D Offline
                            D Offline
                            darkiop
                            Most Active
                            wrote on last edited by darkiop
                            #51

                            @sufra sagte in iobroker hochverfügbar:

                            Kann man und wenn ja wie in der Partition nvme0n1p3 GlusterFS installieren?

                            Ja, müsste auch aus meiner Doku zu lesen sein. Musst mal schauen, die Befehle halt entsprechend abwandeln.

                            @arteck sagte in iobroker hochverfügbar:

                            nimm cephfs..
                            ich war lange auf glusterfs... wie Apollon auch.. bin aber gewechselt.. da Proxmox hier eine direkte unterstüzung bietet
                            und du keine Nachteile dadurch hast

                            Bin zwischenzeitlich sogar wieder zurück auf einen Node ;)

                            Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                            S 2 Replies Last reply
                            0
                            • D darkiop

                              @sufra sagte in iobroker hochverfügbar:

                              Kann man und wenn ja wie in der Partition nvme0n1p3 GlusterFS installieren?

                              Ja, müsste auch aus meiner Doku zu lesen sein. Musst mal schauen, die Befehle halt entsprechend abwandeln.

                              @arteck sagte in iobroker hochverfügbar:

                              nimm cephfs..
                              ich war lange auf glusterfs... wie Apollon auch.. bin aber gewechselt.. da Proxmox hier eine direkte unterstüzung bietet
                              und du keine Nachteile dadurch hast

                              Bin zwischenzeitlich sogar wieder zurück auf einen Node ;)

                              S Offline
                              S Offline
                              SuFra
                              wrote on last edited by SuFra
                              #52

                              gelöscht

                              HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                              LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                              VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                              1 Reply Last reply
                              0
                              • D darkiop

                                @sufra sagte in iobroker hochverfügbar:

                                Kann man und wenn ja wie in der Partition nvme0n1p3 GlusterFS installieren?

                                Ja, müsste auch aus meiner Doku zu lesen sein. Musst mal schauen, die Befehle halt entsprechend abwandeln.

                                @arteck sagte in iobroker hochverfügbar:

                                nimm cephfs..
                                ich war lange auf glusterfs... wie Apollon auch.. bin aber gewechselt.. da Proxmox hier eine direkte unterstüzung bietet
                                und du keine Nachteile dadurch hast

                                Bin zwischenzeitlich sogar wieder zurück auf einen Node ;)

                                S Offline
                                S Offline
                                SuFra
                                wrote on last edited by
                                #53

                                @darkiop Hi
                                Darf ich dein Projekt, "Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung" weiter führen?

                                Ich habe mitlerweile GlusterFS auf meinen Nodes installiert und bin mit meinem Server aufs Cluster umgezogen.

                                Deine Anleitung war mir eine große Hilfe, vielen Dank dafür.

                                Einiges muss jedoch bei einer Installation in einem realen System anders gemacht werden.
                                Ich würde das gerne in deiner Anleitung ändern bzw ergänzen.

                                Wenn du nichts dagegen hast würde ich die Abschnitte für die erstellung der virtuellen Nodes entfernen.

                                HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                                LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                                VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                                D 1 Reply Last reply
                                0
                                • S SuFra

                                  @darkiop Hi
                                  Darf ich dein Projekt, "Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung" weiter führen?

                                  Ich habe mitlerweile GlusterFS auf meinen Nodes installiert und bin mit meinem Server aufs Cluster umgezogen.

                                  Deine Anleitung war mir eine große Hilfe, vielen Dank dafür.

                                  Einiges muss jedoch bei einer Installation in einem realen System anders gemacht werden.
                                  Ich würde das gerne in deiner Anleitung ändern bzw ergänzen.

                                  Wenn du nichts dagegen hast würde ich die Abschnitte für die erstellung der virtuellen Nodes entfernen.

                                  D Offline
                                  D Offline
                                  darkiop
                                  Most Active
                                  wrote on last edited by
                                  #54

                                  @sufra

                                  Hi Sufra, grad gesehen das du auch eine PM gesendet hattest ;) Das geht gerne mal unter. Sorry :D

                                  Ja klar, darfst gerne ergänzen/ändern. Die Anleitung ist damals erst auf einer virtuellen Umgebung (3x/2x Proxmox in einer VM und später dann 2x NUCs + 1x RPI) entstanden. Daher die Vermischung. Zur Korrektur bin ich dann nicht mehr gekommen. Wenn für dich OK, kannst du das nach deiner Arbeit auch gerne als PR einstellen.

                                  Bin zurück auf einen Node, da ich 1. etwas das Grundrauschen an Stromverbrauch senken wollte (auch wenn da ein Großteil locker durch durch die PV gedeckt ist) und 2. weil ich etwas komplexität rausnehmen wollte. Bin aktuell viel unterwegs und gefühlt läuft das Single-Node System stabiler (wie gesagt, nur ein Gefühl, belegen kann ich es nicht :)).

                                  Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                                  S 1 Reply Last reply
                                  0
                                  • S SuFra

                                    Ich habe mir nun 3 NUCs zugelegt.
                                    Proxmox ist installiert.
                                    Cluster ist erstellt.

                                    Nun komme ich bei GlusterFS nicht weiter.
                                    Kann ich hier Fragen dazu stellen oder soll ich einen neuen Thread aufmachen?
                                    Ich habe auch das tolle Tutial von Thorsten und würde mich dann dort auch einbringen wollen.

                                    apollon77A Offline
                                    apollon77A Offline
                                    apollon77
                                    wrote on last edited by
                                    #55

                                    @sufra Einige User sind einfach auf CEPH gegangen was per Proxmox seehr schön in der UI zu erstellen ist ... bversuch doch das erstmal

                                    Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                    • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                    • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                    S 1 Reply Last reply
                                    0
                                    • D darkiop

                                      @sufra

                                      Hi Sufra, grad gesehen das du auch eine PM gesendet hattest ;) Das geht gerne mal unter. Sorry :D

                                      Ja klar, darfst gerne ergänzen/ändern. Die Anleitung ist damals erst auf einer virtuellen Umgebung (3x/2x Proxmox in einer VM und später dann 2x NUCs + 1x RPI) entstanden. Daher die Vermischung. Zur Korrektur bin ich dann nicht mehr gekommen. Wenn für dich OK, kannst du das nach deiner Arbeit auch gerne als PR einstellen.

                                      Bin zurück auf einen Node, da ich 1. etwas das Grundrauschen an Stromverbrauch senken wollte (auch wenn da ein Großteil locker durch durch die PV gedeckt ist) und 2. weil ich etwas komplexität rausnehmen wollte. Bin aktuell viel unterwegs und gefühlt läuft das Single-Node System stabiler (wie gesagt, nur ein Gefühl, belegen kann ich es nicht :)).

                                      S Offline
                                      S Offline
                                      SuFra
                                      wrote on last edited by
                                      #56

                                      @darkiop Alles klar, werde mich dann mal an die Anleitung machen.

                                      Vom Stromverbrauch liegen meine 3 NUCs unter dem Einzelserver, obwohl dieser schon sehr sparsam (Notebook CPU, nur SSDs) aufgebaut war.

                                      Von wegen Stabilität bin ich mal gespannt, der alte Server steht ja noch hier. Kann immer noch zurück ;)

                                      HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                                      LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                                      VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                                      D 1 Reply Last reply
                                      0
                                      • apollon77A apollon77

                                        @sufra Einige User sind einfach auf CEPH gegangen was per Proxmox seehr schön in der UI zu erstellen ist ... bversuch doch das erstmal

                                        S Offline
                                        S Offline
                                        SuFra
                                        wrote on last edited by
                                        #57

                                        @apollon77 sagte in iobroker hochverfügbar:

                                        @sufra Einige User sind einfach auf CEPH gegangen was per Proxmox seehr schön in der UI zu erstellen ist ... bversuch doch das erstmal

                                        Da habe ich wohl mit meinen Beiträgen einen falschen Eindruck hinterlassen.

                                        Am Wochenende alles komplett auf den 3 NUCs installiert.
                                        Läuft seit 24h.

                                        Ich wollte einfach nur wissen ob ich die Anleitung von darkiop ändern/ergänzen darf.
                                        Sie hat mir sehr geholfen und ich würde gerne was zurück geben :)

                                        HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                                        LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                                        VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                                        1 Reply Last reply
                                        1
                                        • S SuFra

                                          @darkiop Alles klar, werde mich dann mal an die Anleitung machen.

                                          Vom Stromverbrauch liegen meine 3 NUCs unter dem Einzelserver, obwohl dieser schon sehr sparsam (Notebook CPU, nur SSDs) aufgebaut war.

                                          Von wegen Stabilität bin ich mal gespannt, der alte Server steht ja noch hier. Kann immer noch zurück ;)

                                          D Offline
                                          D Offline
                                          darkiop
                                          Most Active
                                          wrote on last edited by
                                          #58

                                          @sufra sagte in iobroker hochverfügbar:

                                          Von wegen Stabilität bin ich mal gespannt, der alte Server steht ja noch hier. Kann immer noch zurück

                                          Ich hatte immer wieder mal Probleme mit den LXCs die auf dem GlusterFS liefen (und das ist ja über einen Workaround in Proxmox eingebunden). Manchmal lief es Wochenlang stabil, dann während Upgrades in den LXCS und auch auf dem Host war immer wieder mal ein reboot nötig bis alles wieder stabil lief. Was genau war kann ich dir aber leider nicht mehr sagen, hatte das nicht dokumentiert. Ziemlich sicher bin ich mir, das die PBS Backups deutlich langsamer liefen als jetzt auf dem Single-Node, wenn sie auf den GlusterFS lagen. Aber ohne Messungen ist das auch eher mein subjektives empfinden ;) Kannst gerne Berichten und die Doku erweitern. Muss auch dazu sagen, das mein 3. GlusterFS Node auf einem RPI4+SSD lief - und nicht auf einem 3. Nuc.

                                          Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                                          S 1 Reply Last reply
                                          0
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          617

                                          Online

                                          32.7k

                                          Users

                                          82.5k

                                          Topics

                                          1.3m

                                          Posts
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Login

                                          • Don't have an account? Register

                                          • Login or register to search.
                                          • First post
                                            Last post
                                          0
                                          • Home
                                          • Recent
                                          • Tags
                                          • Unread 0
                                          • Categories
                                          • Unreplied
                                          • Popular
                                          • GitHub
                                          • Docu
                                          • Hilfe