Skip to content
  • Home
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. iobroker hochverfügbar

NEWS

  • Monatsrückblick Januar/Februar 2026 ist online!
    BluefoxB
    Bluefox
    16
    1
    279

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    4.6k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.3k

iobroker hochverfügbar

Scheduled Pinned Locked Moved Off Topic
82 Posts 12 Posters 12.8k Views 13 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • apollon77A apollon77

    @sufra Einige User sind einfach auf CEPH gegangen was per Proxmox seehr schön in der UI zu erstellen ist ... bversuch doch das erstmal

    S Offline
    S Offline
    SuFra
    wrote on last edited by
    #57

    @apollon77 sagte in iobroker hochverfügbar:

    @sufra Einige User sind einfach auf CEPH gegangen was per Proxmox seehr schön in der UI zu erstellen ist ... bversuch doch das erstmal

    Da habe ich wohl mit meinen Beiträgen einen falschen Eindruck hinterlassen.

    Am Wochenende alles komplett auf den 3 NUCs installiert.
    Läuft seit 24h.

    Ich wollte einfach nur wissen ob ich die Anleitung von darkiop ändern/ergänzen darf.
    Sie hat mir sehr geholfen und ich würde gerne was zurück geben :)

    HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
    LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
    VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

    1 Reply Last reply
    1
    • S SuFra

      @darkiop Alles klar, werde mich dann mal an die Anleitung machen.

      Vom Stromverbrauch liegen meine 3 NUCs unter dem Einzelserver, obwohl dieser schon sehr sparsam (Notebook CPU, nur SSDs) aufgebaut war.

      Von wegen Stabilität bin ich mal gespannt, der alte Server steht ja noch hier. Kann immer noch zurück ;)

      D Offline
      D Offline
      darkiop
      Most Active
      wrote on last edited by
      #58

      @sufra sagte in iobroker hochverfügbar:

      Von wegen Stabilität bin ich mal gespannt, der alte Server steht ja noch hier. Kann immer noch zurück

      Ich hatte immer wieder mal Probleme mit den LXCs die auf dem GlusterFS liefen (und das ist ja über einen Workaround in Proxmox eingebunden). Manchmal lief es Wochenlang stabil, dann während Upgrades in den LXCS und auch auf dem Host war immer wieder mal ein reboot nötig bis alles wieder stabil lief. Was genau war kann ich dir aber leider nicht mehr sagen, hatte das nicht dokumentiert. Ziemlich sicher bin ich mir, das die PBS Backups deutlich langsamer liefen als jetzt auf dem Single-Node, wenn sie auf den GlusterFS lagen. Aber ohne Messungen ist das auch eher mein subjektives empfinden ;) Kannst gerne Berichten und die Doku erweitern. Muss auch dazu sagen, das mein 3. GlusterFS Node auf einem RPI4+SSD lief - und nicht auf einem 3. Nuc.

      Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

      S 1 Reply Last reply
      0
      • D darkiop

        @sufra sagte in iobroker hochverfügbar:

        Von wegen Stabilität bin ich mal gespannt, der alte Server steht ja noch hier. Kann immer noch zurück

        Ich hatte immer wieder mal Probleme mit den LXCs die auf dem GlusterFS liefen (und das ist ja über einen Workaround in Proxmox eingebunden). Manchmal lief es Wochenlang stabil, dann während Upgrades in den LXCS und auch auf dem Host war immer wieder mal ein reboot nötig bis alles wieder stabil lief. Was genau war kann ich dir aber leider nicht mehr sagen, hatte das nicht dokumentiert. Ziemlich sicher bin ich mir, das die PBS Backups deutlich langsamer liefen als jetzt auf dem Single-Node, wenn sie auf den GlusterFS lagen. Aber ohne Messungen ist das auch eher mein subjektives empfinden ;) Kannst gerne Berichten und die Doku erweitern. Muss auch dazu sagen, das mein 3. GlusterFS Node auf einem RPI4+SSD lief - und nicht auf einem 3. Nuc.

        S Offline
        S Offline
        SuFra
        wrote on last edited by
        #59

        @darkiop Nach 2 Monaten möchte ich mal einen Zwischenstand mitteilen.
        Bis auf ein paar Problemen an denen ich selber Schuld war läuft der Cluster sehr gut.
        Meine bisherigen Probleme:
        Ich hatte meine Switche auf auto Update stehen.
        Dabei sind dann beide Clusternetzwerke gleichzeitig offline gegangen.
        Danach war GlusterFS nur noch readonly.
        Lies sich mit einem neu starten der Nodes aber schnell beheben.

        Ein anderes mal hatte ich Änderungen an den VLANs gemacht und dabei die Clusternetzwerke strubbelig gemacht.

        Man muss also schon aufpassen was man macht, ist sicherlich nichts für Netzwerkneulinge ;)

        Gruß Frank

        HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
        LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
        VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

        1 Reply Last reply
        1
        • S Offline
          S Offline
          SuFra
          wrote on last edited by
          #60

          Und wieder sind einige Monate ins Land gegangen....

          Im September gab es die erste wirkliche Feuertaufe.
          Während der Nacht ist der NUC auf dem ioBrocker lief ausgefallen.
          ioBrocker wurde automatisch auf dem anderen 'großen' NUC gestartet und lief sofort weiter.
          Erst Tage später fiel mir auf das ein NUC nicht mehr lief!

          Bin sehr zufrieden wie gut der HA-Cluster funktioniert.

          PS: wenn jetzt die dunkle Jahreszeit beginnt werde ich mich an die Doku begeben ;)

          HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
          LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
          VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

          D 1 Reply Last reply
          3
          • S SuFra

            Und wieder sind einige Monate ins Land gegangen....

            Im September gab es die erste wirkliche Feuertaufe.
            Während der Nacht ist der NUC auf dem ioBrocker lief ausgefallen.
            ioBrocker wurde automatisch auf dem anderen 'großen' NUC gestartet und lief sofort weiter.
            Erst Tage später fiel mir auf das ein NUC nicht mehr lief!

            Bin sehr zufrieden wie gut der HA-Cluster funktioniert.

            PS: wenn jetzt die dunkle Jahreszeit beginnt werde ich mich an die Doku begeben ;)

            D Offline
            D Offline
            darkiop
            Most Active
            wrote on last edited by
            #61

            @sufra

            Guten Morgen @SuFra,

            danke für dein Update. Bin schon sehr gespannt auf deine angepasste Doku.

            Die von dir beschrieben "Probleme" mit GlusterFS und auch dem Netzwerk hatte ich auch.
            Und zusätzlich konnte ich auch den Hardware Watchdog meiner Intel Nucs nicht wirklich zum laufen bekommen.
            Hast du nur VMs im Einsatz - oder auch LXCs? Für letztere Bedarf es ja einen kleinen Workaround im Zusammenspiel mit GlusterFS.

            Ich bin aktuell immer noch auf dem Single-Node Setup. Aber mal schauen, der Winter ist lange - vielleicht kommt da auch mal wieder ein pve cluster zum Einsatz ;)

            Passend dazu, hatte ich die Tage mal angeschaut: https://www.youtube.com/watch?v=dAjw_4EpQdk

            Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

            S 1 Reply Last reply
            0
            • D darkiop

              @sufra

              Guten Morgen @SuFra,

              danke für dein Update. Bin schon sehr gespannt auf deine angepasste Doku.

              Die von dir beschrieben "Probleme" mit GlusterFS und auch dem Netzwerk hatte ich auch.
              Und zusätzlich konnte ich auch den Hardware Watchdog meiner Intel Nucs nicht wirklich zum laufen bekommen.
              Hast du nur VMs im Einsatz - oder auch LXCs? Für letztere Bedarf es ja einen kleinen Workaround im Zusammenspiel mit GlusterFS.

              Ich bin aktuell immer noch auf dem Single-Node Setup. Aber mal schauen, der Winter ist lange - vielleicht kommt da auch mal wieder ein pve cluster zum Einsatz ;)

              Passend dazu, hatte ich die Tage mal angeschaut: https://www.youtube.com/watch?v=dAjw_4EpQdk

              S Offline
              S Offline
              SuFra
              wrote on last edited by
              #62

              @darkiop das wird noch was dauern mit der Doku ;)

              Die "Probleme" waren ja hauptsächlich selbst gemacht.
              Sehe jetzt nicht GlusterFS, sondern eher mein "nicht Wissen" als Auslöser.
              Trotz meiner Redundanz des Clusternetzwerkes... Wenn man beide Switche auf Autoupdate stehen hat ist die Verbindung komplett weg.
              Man muss also schon jede Komponente betrachten.

              Hardware Watchdog läuft bei mir auch noch nicht. Mit Proxmox 7 hat sich auf meinen i5 NUCs teilweise der HA Manager verabschiedet.
              Muss ich noch prüfen ob das mit dem neuen Kernel unter Proxmox 8 immer noch der Fall ist.
              LXCs, VMs.... wie in meiner Signatur zu sehen:
              LXC's: ioBroker, 3x Redis, PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix
              VM's: PBS, trueNAS (Plex)

              Die 3 Redis sind zZ nicht online, habe festgestellt das die Verfügbarkeit der Daten bei ioBroker über File bzw jetzt jsonl ausreicht.
              Lasse mich aber gerne eines besseren belehren ;)

              Nettes Video, mein Redundantes Netzwerk reicht mir.
              Ich habe 3 NUCs mit 2,5Gbit dual LAN.
              Auf der ersten NIC läuft Link0 des Clusternetzes, auf der 2 NIC Link1 und vmbr0 mit allen VLANs.
              Link0 läuft über einen 1GBit Switch, da gehen ja kaum Daten rüber.
              Link1 und vmbr0 über einen 2,5GBit Switch.

              HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
              LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
              VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

              1 Reply Last reply
              0
              • S Offline
                S Offline
                SuFra
                wrote on last edited by
                #63

                Ich werde mich von GlusterFS verabschieden.
                Seltsamer weise bei einigen Node Wartungen (Updates, Neustarts...) "read only" FS bekommen.
                Aus den Logs konnte ich nicht wirklich erkennen wo das Problem liegt.
                Wenn so etwas im normalen Betrieb, zb durch einen Hardware defekt passiert läuft trotz HA nix mehr.

                Ausserdem fehlt mir bei GlusterFS die Einbindung im Proxmox GUI.
                Ich werde wohl in den nächsten Wochen auf Ceph umsteigen.
                Ist ja zum Glück dank Backups der Container und VMs recht schnell gemacht ;)

                HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                D 1 Reply Last reply
                0
                • S SuFra

                  Ich werde mich von GlusterFS verabschieden.
                  Seltsamer weise bei einigen Node Wartungen (Updates, Neustarts...) "read only" FS bekommen.
                  Aus den Logs konnte ich nicht wirklich erkennen wo das Problem liegt.
                  Wenn so etwas im normalen Betrieb, zb durch einen Hardware defekt passiert läuft trotz HA nix mehr.

                  Ausserdem fehlt mir bei GlusterFS die Einbindung im Proxmox GUI.
                  Ich werde wohl in den nächsten Wochen auf Ceph umsteigen.
                  Ist ja zum Glück dank Backups der Container und VMs recht schnell gemacht ;)

                  D Offline
                  D Offline
                  darkiop
                  Most Active
                  wrote on last edited by
                  #64

                  @sufra sagte in iobroker hochverfügbar:

                  Seltsamer weise bei einigen Node Wartungen (Updates, Neustarts...) "read only" FS bekommen.

                  Solches war ja unter anderem auch bei mir Auslöser wieso ich mein Setup wieder vereinfacht hatte :)

                  Aktuell bin ich komplett ohne HA unterwegs ... der zweite Promox Node steht als Backupgerät bereit und zum Testen. Für Ceph müsste ich noch nen dritten besorgen. Hatte aber auch schon überlegt den zweiten Nuc als bare metal PBS zu nutzen :D

                  Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                  S 1 Reply Last reply
                  0
                  • D darkiop

                    @sufra sagte in iobroker hochverfügbar:

                    Seltsamer weise bei einigen Node Wartungen (Updates, Neustarts...) "read only" FS bekommen.

                    Solches war ja unter anderem auch bei mir Auslöser wieso ich mein Setup wieder vereinfacht hatte :)

                    Aktuell bin ich komplett ohne HA unterwegs ... der zweite Promox Node steht als Backupgerät bereit und zum Testen. Für Ceph müsste ich noch nen dritten besorgen. Hatte aber auch schon überlegt den zweiten Nuc als bare metal PBS zu nutzen :D

                    S Offline
                    S Offline
                    SuFra
                    wrote on last edited by
                    #65

                    @darkiop deshalb werde ich auf Ceph umsteigen.
                    Auf HA kann und möchte ich nicht verzichten.
                    Dafür läuft zuviel über ioBroker und es sollte bei einem Hardwareausfall automatisch weiter funktionieren.

                    Man darf ja auch nie den WAF vergessen ;)

                    HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                    LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                    VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                    D 1 Reply Last reply
                    0
                    • apollon77A Offline
                      apollon77A Offline
                      apollon77
                      wrote on last edited by
                      #66

                      Eric war mal auf Ceph umgestiegen auf Nucs und ist davon auch wieder weg weil die manchmal "Nachdenkpausen" und Delays hatten ... am Ende ist halt RAM und ggf CPU für Ceph wohl auf den Nucs nicht genug gegeben ...

                      Also ich hatte bisher bei GlusterFS nur RO FS wenn ich mehrere Nodes gleichzeitig aktualisiert oder rebootet hatte .. also bei 3 Hosts müssen halt 2 "immer" da sein ... Sobald es nur einer ist dann blöd

                      Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                      • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                      • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                      S D arteckA 3 Replies Last reply
                      0
                      • apollon77A apollon77

                        Eric war mal auf Ceph umgestiegen auf Nucs und ist davon auch wieder weg weil die manchmal "Nachdenkpausen" und Delays hatten ... am Ende ist halt RAM und ggf CPU für Ceph wohl auf den Nucs nicht genug gegeben ...

                        Also ich hatte bisher bei GlusterFS nur RO FS wenn ich mehrere Nodes gleichzeitig aktualisiert oder rebootet hatte .. also bei 3 Hosts müssen halt 2 "immer" da sein ... Sobald es nur einer ist dann blöd

                        S Offline
                        S Offline
                        SuFra
                        wrote on last edited by
                        #67

                        @apollon77 hört sich auch wieder nicht so toll an...
                        Also RAM habe ich mind. 32 GB pro Node.
                        Bei 2 Nodes 64 GB.
                        Ob das jetzt ausreichend für CEPH ist wird mir wahrscheinlich niemand endgültig sagen können.

                        Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                        HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                        LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                        VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                        D apollon77A 2 Replies Last reply
                        0
                        • S SuFra

                          @darkiop deshalb werde ich auf Ceph umsteigen.
                          Auf HA kann und möchte ich nicht verzichten.
                          Dafür läuft zuviel über ioBroker und es sollte bei einem Hardwareausfall automatisch weiter funktionieren.

                          Man darf ja auch nie den WAF vergessen ;)

                          D Offline
                          D Offline
                          darkiop
                          Most Active
                          wrote on last edited by
                          #68

                          @sufra sagte in iobroker hochverfügbar:

                          @darkiop deshalb werde ich auf Ceph umsteigen.
                          Auf HA kann und möchte ich nicht verzichten.
                          Dafür läuft zuviel über ioBroker und es sollte bei einem Hardwareausfall automatisch weiter funktionieren.

                          Man darf ja auch nie den WAF vergessen ;)

                          Stimmt, aber irgendwie ist die Kiste auch noch nie ausgefallen ;) bisschen Risiko muss sein 😂 restore der Backups dauert max 30min.

                          Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                          1 Reply Last reply
                          0
                          • apollon77A apollon77

                            Eric war mal auf Ceph umgestiegen auf Nucs und ist davon auch wieder weg weil die manchmal "Nachdenkpausen" und Delays hatten ... am Ende ist halt RAM und ggf CPU für Ceph wohl auf den Nucs nicht genug gegeben ...

                            Also ich hatte bisher bei GlusterFS nur RO FS wenn ich mehrere Nodes gleichzeitig aktualisiert oder rebootet hatte .. also bei 3 Hosts müssen halt 2 "immer" da sein ... Sobald es nur einer ist dann blöd

                            D Offline
                            D Offline
                            darkiop
                            Most Active
                            wrote on last edited by
                            #69

                            @apollon77

                            Denke bei mir war auch der RPI als QDevice oftmals die Ursache für Schluckaufs ;)

                            Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                            1 Reply Last reply
                            0
                            • S SuFra

                              @apollon77 hört sich auch wieder nicht so toll an...
                              Also RAM habe ich mind. 32 GB pro Node.
                              Bei 2 Nodes 64 GB.
                              Ob das jetzt ausreichend für CEPH ist wird mir wahrscheinlich niemand endgültig sagen können.

                              Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                              D Offline
                              D Offline
                              darkiop
                              Most Active
                              wrote on last edited by
                              #70

                              @sufra sagte in iobroker hochverfügbar:

                              Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                              Ich hatte über gstatus (Output als json) die Infos in den ioBroker geholt. Oder auch über CheckMk.

                              Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                              S 1 Reply Last reply
                              0
                              • D darkiop

                                @sufra sagte in iobroker hochverfügbar:

                                Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                                Ich hatte über gstatus (Output als json) die Infos in den ioBroker geholt. Oder auch über CheckMk.

                                S Offline
                                S Offline
                                SuFra
                                wrote on last edited by
                                #71

                                @darkiop @apollon77 Heute war Umzug!

                                Schnell ein NFS Storage der NAS ins Cluster eingebunden, alle Container und Maschienen gestoppt und Backups gezogen.
                                Auf allen NUCs Proxmox neu installiert und Ceph angelegt.
                                Vom NFS die Backups eingespielt und 3 Stunden später läuft alles wieder :)

                                Mal schauen wie sich jetzt der Cluster die nächsten Tage so macht.

                                HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                                LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                                VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                                1 Reply Last reply
                                0
                                • apollon77A apollon77

                                  Eric war mal auf Ceph umgestiegen auf Nucs und ist davon auch wieder weg weil die manchmal "Nachdenkpausen" und Delays hatten ... am Ende ist halt RAM und ggf CPU für Ceph wohl auf den Nucs nicht genug gegeben ...

                                  Also ich hatte bisher bei GlusterFS nur RO FS wenn ich mehrere Nodes gleichzeitig aktualisiert oder rebootet hatte .. also bei 3 Hosts müssen halt 2 "immer" da sein ... Sobald es nur einer ist dann blöd

                                  arteckA Offline
                                  arteckA Offline
                                  arteck
                                  Developer Most Active
                                  wrote on last edited by
                                  #72

                                  @apollon77 ahh ok .. alle meine Nodes haben 32 Gb.. hab keine Probleme damit..

                                  zigbee hab ich, zwave auch, nuc's genauso und HA auch

                                  1 Reply Last reply
                                  0
                                  • S Offline
                                    S Offline
                                    SuFra
                                    wrote on last edited by
                                    #73

                                    Für das Ceph habe ich eine eigene LAN Schnittstelle mit 2.5G und 10G Switch.

                                    Testhalber eine OSD gestoppt.
                                    Nach nur 10s war der Pool Health OK und nach 2 Minuten rebalanced .

                                    Das klappt schonmal.

                                    HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                                    LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                                    VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                                    1 Reply Last reply
                                    0
                                    • S SuFra

                                      @apollon77 hört sich auch wieder nicht so toll an...
                                      Also RAM habe ich mind. 32 GB pro Node.
                                      Bei 2 Nodes 64 GB.
                                      Ob das jetzt ausreichend für CEPH ist wird mir wahrscheinlich niemand endgültig sagen können.

                                      Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                                      apollon77A Offline
                                      apollon77A Offline
                                      apollon77
                                      wrote on last edited by
                                      #74

                                      @sufra sagte in iobroker hochverfügbar:

                                      Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                                      Ok, dafür nutze ich gstatus als CLI skript und hab zabbix als überwachung generell laufen :-)

                                      Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                      • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                      • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                      S D 2 Replies Last reply
                                      0
                                      • apollon77A apollon77

                                        @sufra sagte in iobroker hochverfügbar:

                                        Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                                        Ok, dafür nutze ich gstatus als CLI skript und hab zabbix als überwachung generell laufen :-)

                                        S Offline
                                        S Offline
                                        SuFra
                                        wrote on last edited by
                                        #75

                                        @apollon77 Ja, das wäre auch eine Möglichkeit.
                                        Zabbix ist schon mächtig. Man braucht jedoch auch ein wenig Zeit sich da einzuarbeiten.

                                        Jetzt nach 4 Stunden kann ich sagen das alles gut aussieht.
                                        Der Load average liegt bei allen Nodes unter 0,1.

                                        Ich habe testweise einen Node nach dem anderen Rebootet.
                                        HA hat funktioniert, Ceph war auch nach unter einer Minute wieder Okay.
                                        Redis Sentinel hatte keine Probleme beim Umschalten.

                                        Bin erst einmal zufrieden :)

                                        HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                                        LXC's: PiHole, Grafana, MariaDB, TasmoAdmin, NTP Server, PeaNUT, ESPHome, paperless-ai, ollama
                                        VM's: PBS, ioBroker, frigate, paperless, trueNAS (Plex)

                                        1 Reply Last reply
                                        1
                                        • apollon77A apollon77

                                          @sufra sagte in iobroker hochverfügbar:

                                          Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                                          Ok, dafür nutze ich gstatus als CLI skript und hab zabbix als überwachung generell laufen :-)

                                          D Offline
                                          D Offline
                                          darkiop
                                          Most Active
                                          wrote on last edited by darkiop
                                          #76

                                          @apollon77 sagte in iobroker hochverfügbar:

                                          @sufra sagte in iobroker hochverfügbar:

                                          Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                                          Ok, dafür nutze ich gstatus als CLI skript

                                          gstatus und dann die werte per simple-api/rest-api an den ioBroker? Ich hatte damals das json aus gstatus in objekt geschrieben und via js auseinander genommen.

                                          und hab zabbix als überwachung generell laufen :-)

                                          Kein CheckMK mehr? ;)

                                          Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                                          apollon77A 1 Reply Last reply
                                          0
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          276

                                          Online

                                          32.7k

                                          Users

                                          82.5k

                                          Topics

                                          1.3m

                                          Posts
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Login

                                          • Don't have an account? Register

                                          • Login or register to search.
                                          • First post
                                            Last post
                                          0
                                          • Home
                                          • Recent
                                          • Tags
                                          • Unread 0
                                          • Categories
                                          • Unreplied
                                          • Popular
                                          • GitHub
                                          • Docu
                                          • Hilfe