Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. iobroker hochverfügbar

NEWS

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    22
    1
    1.1k

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    9.2k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    14
    1
    2.4k

iobroker hochverfügbar

Geplant Angeheftet Gesperrt Verschoben Off Topic
82 Beiträge 12 Kommentatoren 12.1k Aufrufe 13 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • D darkiop

    @sufra

    Guten Morgen @SuFra,

    danke für dein Update. Bin schon sehr gespannt auf deine angepasste Doku.

    Die von dir beschrieben "Probleme" mit GlusterFS und auch dem Netzwerk hatte ich auch.
    Und zusätzlich konnte ich auch den Hardware Watchdog meiner Intel Nucs nicht wirklich zum laufen bekommen.
    Hast du nur VMs im Einsatz - oder auch LXCs? Für letztere Bedarf es ja einen kleinen Workaround im Zusammenspiel mit GlusterFS.

    Ich bin aktuell immer noch auf dem Single-Node Setup. Aber mal schauen, der Winter ist lange - vielleicht kommt da auch mal wieder ein pve cluster zum Einsatz ;)

    Passend dazu, hatte ich die Tage mal angeschaut: https://www.youtube.com/watch?v=dAjw_4EpQdk

    S Offline
    S Offline
    SuFra
    schrieb am zuletzt editiert von
    #62

    @darkiop das wird noch was dauern mit der Doku ;)

    Die "Probleme" waren ja hauptsächlich selbst gemacht.
    Sehe jetzt nicht GlusterFS, sondern eher mein "nicht Wissen" als Auslöser.
    Trotz meiner Redundanz des Clusternetzwerkes... Wenn man beide Switche auf Autoupdate stehen hat ist die Verbindung komplett weg.
    Man muss also schon jede Komponente betrachten.

    Hardware Watchdog läuft bei mir auch noch nicht. Mit Proxmox 7 hat sich auf meinen i5 NUCs teilweise der HA Manager verabschiedet.
    Muss ich noch prüfen ob das mit dem neuen Kernel unter Proxmox 8 immer noch der Fall ist.
    LXCs, VMs.... wie in meiner Signatur zu sehen:
    LXC's: ioBroker, 3x Redis, PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix
    VM's: PBS, trueNAS (Plex)

    Die 3 Redis sind zZ nicht online, habe festgestellt das die Verfügbarkeit der Daten bei ioBroker über File bzw jetzt jsonl ausreicht.
    Lasse mich aber gerne eines besseren belehren ;)

    Nettes Video, mein Redundantes Netzwerk reicht mir.
    Ich habe 3 NUCs mit 2,5Gbit dual LAN.
    Auf der ersten NIC läuft Link0 des Clusternetzes, auf der 2 NIC Link1 und vmbr0 mit allen VLANs.
    Link0 läuft über einen 1GBit Switch, da gehen ja kaum Daten rüber.
    Link1 und vmbr0 über einen 2,5GBit Switch.

    HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
    LXC's: ioBroker, (3x Redis), PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix, Frigate, nextCloud, PeaNUT
    VM's: PBS, trueNAS (Plex)

    1 Antwort Letzte Antwort
    0
    • S Offline
      S Offline
      SuFra
      schrieb am zuletzt editiert von
      #63

      Ich werde mich von GlusterFS verabschieden.
      Seltsamer weise bei einigen Node Wartungen (Updates, Neustarts...) "read only" FS bekommen.
      Aus den Logs konnte ich nicht wirklich erkennen wo das Problem liegt.
      Wenn so etwas im normalen Betrieb, zb durch einen Hardware defekt passiert läuft trotz HA nix mehr.

      Ausserdem fehlt mir bei GlusterFS die Einbindung im Proxmox GUI.
      Ich werde wohl in den nächsten Wochen auf Ceph umsteigen.
      Ist ja zum Glück dank Backups der Container und VMs recht schnell gemacht ;)

      HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
      LXC's: ioBroker, (3x Redis), PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix, Frigate, nextCloud, PeaNUT
      VM's: PBS, trueNAS (Plex)

      D 1 Antwort Letzte Antwort
      0
      • S SuFra

        Ich werde mich von GlusterFS verabschieden.
        Seltsamer weise bei einigen Node Wartungen (Updates, Neustarts...) "read only" FS bekommen.
        Aus den Logs konnte ich nicht wirklich erkennen wo das Problem liegt.
        Wenn so etwas im normalen Betrieb, zb durch einen Hardware defekt passiert läuft trotz HA nix mehr.

        Ausserdem fehlt mir bei GlusterFS die Einbindung im Proxmox GUI.
        Ich werde wohl in den nächsten Wochen auf Ceph umsteigen.
        Ist ja zum Glück dank Backups der Container und VMs recht schnell gemacht ;)

        D Offline
        D Offline
        darkiop
        Most Active
        schrieb am zuletzt editiert von
        #64

        @sufra sagte in iobroker hochverfügbar:

        Seltsamer weise bei einigen Node Wartungen (Updates, Neustarts...) "read only" FS bekommen.

        Solches war ja unter anderem auch bei mir Auslöser wieso ich mein Setup wieder vereinfacht hatte :)

        Aktuell bin ich komplett ohne HA unterwegs ... der zweite Promox Node steht als Backupgerät bereit und zum Testen. Für Ceph müsste ich noch nen dritten besorgen. Hatte aber auch schon überlegt den zweiten Nuc als bare metal PBS zu nutzen :D

        Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

        S 1 Antwort Letzte Antwort
        0
        • D darkiop

          @sufra sagte in iobroker hochverfügbar:

          Seltsamer weise bei einigen Node Wartungen (Updates, Neustarts...) "read only" FS bekommen.

          Solches war ja unter anderem auch bei mir Auslöser wieso ich mein Setup wieder vereinfacht hatte :)

          Aktuell bin ich komplett ohne HA unterwegs ... der zweite Promox Node steht als Backupgerät bereit und zum Testen. Für Ceph müsste ich noch nen dritten besorgen. Hatte aber auch schon überlegt den zweiten Nuc als bare metal PBS zu nutzen :D

          S Offline
          S Offline
          SuFra
          schrieb am zuletzt editiert von
          #65

          @darkiop deshalb werde ich auf Ceph umsteigen.
          Auf HA kann und möchte ich nicht verzichten.
          Dafür läuft zuviel über ioBroker und es sollte bei einem Hardwareausfall automatisch weiter funktionieren.

          Man darf ja auch nie den WAF vergessen ;)

          HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
          LXC's: ioBroker, (3x Redis), PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix, Frigate, nextCloud, PeaNUT
          VM's: PBS, trueNAS (Plex)

          D 1 Antwort Letzte Antwort
          0
          • apollon77A Offline
            apollon77A Offline
            apollon77
            schrieb am zuletzt editiert von
            #66

            Eric war mal auf Ceph umgestiegen auf Nucs und ist davon auch wieder weg weil die manchmal "Nachdenkpausen" und Delays hatten ... am Ende ist halt RAM und ggf CPU für Ceph wohl auf den Nucs nicht genug gegeben ...

            Also ich hatte bisher bei GlusterFS nur RO FS wenn ich mehrere Nodes gleichzeitig aktualisiert oder rebootet hatte .. also bei 3 Hosts müssen halt 2 "immer" da sein ... Sobald es nur einer ist dann blöd

            Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

            • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
            • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
            S D arteckA 3 Antworten Letzte Antwort
            0
            • apollon77A apollon77

              Eric war mal auf Ceph umgestiegen auf Nucs und ist davon auch wieder weg weil die manchmal "Nachdenkpausen" und Delays hatten ... am Ende ist halt RAM und ggf CPU für Ceph wohl auf den Nucs nicht genug gegeben ...

              Also ich hatte bisher bei GlusterFS nur RO FS wenn ich mehrere Nodes gleichzeitig aktualisiert oder rebootet hatte .. also bei 3 Hosts müssen halt 2 "immer" da sein ... Sobald es nur einer ist dann blöd

              S Offline
              S Offline
              SuFra
              schrieb am zuletzt editiert von
              #67

              @apollon77 hört sich auch wieder nicht so toll an...
              Also RAM habe ich mind. 32 GB pro Node.
              Bei 2 Nodes 64 GB.
              Ob das jetzt ausreichend für CEPH ist wird mir wahrscheinlich niemand endgültig sagen können.

              Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

              HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
              LXC's: ioBroker, (3x Redis), PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix, Frigate, nextCloud, PeaNUT
              VM's: PBS, trueNAS (Plex)

              D apollon77A 2 Antworten Letzte Antwort
              0
              • S SuFra

                @darkiop deshalb werde ich auf Ceph umsteigen.
                Auf HA kann und möchte ich nicht verzichten.
                Dafür läuft zuviel über ioBroker und es sollte bei einem Hardwareausfall automatisch weiter funktionieren.

                Man darf ja auch nie den WAF vergessen ;)

                D Offline
                D Offline
                darkiop
                Most Active
                schrieb am zuletzt editiert von
                #68

                @sufra sagte in iobroker hochverfügbar:

                @darkiop deshalb werde ich auf Ceph umsteigen.
                Auf HA kann und möchte ich nicht verzichten.
                Dafür läuft zuviel über ioBroker und es sollte bei einem Hardwareausfall automatisch weiter funktionieren.

                Man darf ja auch nie den WAF vergessen ;)

                Stimmt, aber irgendwie ist die Kiste auch noch nie ausgefallen ;) bisschen Risiko muss sein 😂 restore der Backups dauert max 30min.

                Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                1 Antwort Letzte Antwort
                0
                • apollon77A apollon77

                  Eric war mal auf Ceph umgestiegen auf Nucs und ist davon auch wieder weg weil die manchmal "Nachdenkpausen" und Delays hatten ... am Ende ist halt RAM und ggf CPU für Ceph wohl auf den Nucs nicht genug gegeben ...

                  Also ich hatte bisher bei GlusterFS nur RO FS wenn ich mehrere Nodes gleichzeitig aktualisiert oder rebootet hatte .. also bei 3 Hosts müssen halt 2 "immer" da sein ... Sobald es nur einer ist dann blöd

                  D Offline
                  D Offline
                  darkiop
                  Most Active
                  schrieb am zuletzt editiert von
                  #69

                  @apollon77

                  Denke bei mir war auch der RPI als QDevice oftmals die Ursache für Schluckaufs ;)

                  Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                  1 Antwort Letzte Antwort
                  0
                  • S SuFra

                    @apollon77 hört sich auch wieder nicht so toll an...
                    Also RAM habe ich mind. 32 GB pro Node.
                    Bei 2 Nodes 64 GB.
                    Ob das jetzt ausreichend für CEPH ist wird mir wahrscheinlich niemand endgültig sagen können.

                    Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                    D Offline
                    D Offline
                    darkiop
                    Most Active
                    schrieb am zuletzt editiert von
                    #70

                    @sufra sagte in iobroker hochverfügbar:

                    Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                    Ich hatte über gstatus (Output als json) die Infos in den ioBroker geholt. Oder auch über CheckMk.

                    Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                    S 1 Antwort Letzte Antwort
                    0
                    • D darkiop

                      @sufra sagte in iobroker hochverfügbar:

                      Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                      Ich hatte über gstatus (Output als json) die Infos in den ioBroker geholt. Oder auch über CheckMk.

                      S Offline
                      S Offline
                      SuFra
                      schrieb am zuletzt editiert von
                      #71

                      @darkiop @apollon77 Heute war Umzug!

                      Schnell ein NFS Storage der NAS ins Cluster eingebunden, alle Container und Maschienen gestoppt und Backups gezogen.
                      Auf allen NUCs Proxmox neu installiert und Ceph angelegt.
                      Vom NFS die Backups eingespielt und 3 Stunden später läuft alles wieder :)

                      Mal schauen wie sich jetzt der Cluster die nächsten Tage so macht.

                      HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                      LXC's: ioBroker, (3x Redis), PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix, Frigate, nextCloud, PeaNUT
                      VM's: PBS, trueNAS (Plex)

                      1 Antwort Letzte Antwort
                      0
                      • apollon77A apollon77

                        Eric war mal auf Ceph umgestiegen auf Nucs und ist davon auch wieder weg weil die manchmal "Nachdenkpausen" und Delays hatten ... am Ende ist halt RAM und ggf CPU für Ceph wohl auf den Nucs nicht genug gegeben ...

                        Also ich hatte bisher bei GlusterFS nur RO FS wenn ich mehrere Nodes gleichzeitig aktualisiert oder rebootet hatte .. also bei 3 Hosts müssen halt 2 "immer" da sein ... Sobald es nur einer ist dann blöd

                        arteckA Offline
                        arteckA Offline
                        arteck
                        Developer Most Active
                        schrieb am zuletzt editiert von
                        #72

                        @apollon77 ahh ok .. alle meine Nodes haben 32 Gb.. hab keine Probleme damit..

                        zigbee hab ich, zwave auch, nuc's genauso und HA auch

                        1 Antwort Letzte Antwort
                        0
                        • S Offline
                          S Offline
                          SuFra
                          schrieb am zuletzt editiert von
                          #73

                          Für das Ceph habe ich eine eigene LAN Schnittstelle mit 2.5G und 10G Switch.

                          Testhalber eine OSD gestoppt.
                          Nach nur 10s war der Pool Health OK und nach 2 Minuten rebalanced .

                          Das klappt schonmal.

                          HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                          LXC's: ioBroker, (3x Redis), PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix, Frigate, nextCloud, PeaNUT
                          VM's: PBS, trueNAS (Plex)

                          1 Antwort Letzte Antwort
                          0
                          • S SuFra

                            @apollon77 hört sich auch wieder nicht so toll an...
                            Also RAM habe ich mind. 32 GB pro Node.
                            Bei 2 Nodes 64 GB.
                            Ob das jetzt ausreichend für CEPH ist wird mir wahrscheinlich niemand endgültig sagen können.

                            Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                            apollon77A Offline
                            apollon77A Offline
                            apollon77
                            schrieb am zuletzt editiert von
                            #74

                            @sufra sagte in iobroker hochverfügbar:

                            Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                            Ok, dafür nutze ich gstatus als CLI skript und hab zabbix als überwachung generell laufen :-)

                            Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                            • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                            • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                            S D 2 Antworten Letzte Antwort
                            0
                            • apollon77A apollon77

                              @sufra sagte in iobroker hochverfügbar:

                              Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                              Ok, dafür nutze ich gstatus als CLI skript und hab zabbix als überwachung generell laufen :-)

                              S Offline
                              S Offline
                              SuFra
                              schrieb am zuletzt editiert von
                              #75

                              @apollon77 Ja, das wäre auch eine Möglichkeit.
                              Zabbix ist schon mächtig. Man braucht jedoch auch ein wenig Zeit sich da einzuarbeiten.

                              Jetzt nach 4 Stunden kann ich sagen das alles gut aussieht.
                              Der Load average liegt bei allen Nodes unter 0,1.

                              Ich habe testweise einen Node nach dem anderen Rebootet.
                              HA hat funktioniert, Ceph war auch nach unter einer Minute wieder Okay.
                              Redis Sentinel hatte keine Probleme beim Umschalten.

                              Bin erst einmal zufrieden :)

                              HA-Cluster 1x NUC11TNHI50L00, 2x NUC11TNHI30L00, 1x BSi3, 1x BSi5
                              LXC's: ioBroker, (3x Redis), PiHole, Grafana, Heimdall, MariaDB, InfulxDB, TasmoAdmin, NTP Server, Zabbix, Frigate, nextCloud, PeaNUT
                              VM's: PBS, trueNAS (Plex)

                              1 Antwort Letzte Antwort
                              1
                              • apollon77A apollon77

                                @sufra sagte in iobroker hochverfügbar:

                                Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                                Ok, dafür nutze ich gstatus als CLI skript und hab zabbix als überwachung generell laufen :-)

                                D Offline
                                D Offline
                                darkiop
                                Most Active
                                schrieb am zuletzt editiert von darkiop
                                #76

                                @apollon77 sagte in iobroker hochverfügbar:

                                @sufra sagte in iobroker hochverfügbar:

                                Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                                Ok, dafür nutze ich gstatus als CLI skript

                                gstatus und dann die werte per simple-api/rest-api an den ioBroker? Ich hatte damals das json aus gstatus in objekt geschrieben und via js auseinander genommen.

                                und hab zabbix als überwachung generell laufen :-)

                                Kein CheckMK mehr? ;)

                                Proxmox-ioBroker-Redis-HA Doku: https://forum.iobroker.net/topic/47478/dokumentation-einer-proxmox-iobroker-redis-ha-umgebung

                                apollon77A 1 Antwort Letzte Antwort
                                0
                                • D darkiop

                                  @apollon77 sagte in iobroker hochverfügbar:

                                  @sufra sagte in iobroker hochverfügbar:

                                  Was mich an Gluster halt stört das es keine Anzeige über den Status in Proxmox gibt.

                                  Ok, dafür nutze ich gstatus als CLI skript

                                  gstatus und dann die werte per simple-api/rest-api an den ioBroker? Ich hatte damals das json aus gstatus in objekt geschrieben und via js auseinander genommen.

                                  und hab zabbix als überwachung generell laufen :-)

                                  Kein CheckMK mehr? ;)

                                  apollon77A Offline
                                  apollon77A Offline
                                  apollon77
                                  schrieb am zuletzt editiert von
                                  #77

                                  @darkiop sagte in iobroker hochverfügbar:

                                  Kein CheckMK mehr?

                                  Wollte als och zu Weihachten meinen Cluster neu aufgesetzt hatte mal was neues versuchen. Hab noch nicht 100% wieder das gleiche aber Zabbix auch ok.

                                  Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                  • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                  • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                  1 Antwort Letzte Antwort
                                  0
                                  • M Offline
                                    M Offline
                                    m1k3f15h
                                    schrieb am zuletzt editiert von m1k3f15h
                                    #78

                                    @apollon77 said in iobroker hochverfügbar:

                                    Was noch auf meiner Ideenliste steht ist ein "HA-Adapter" der an der Stelle die Konfiguration annimmt welche Adapterinstanz verschoben werden kann und wer nicht (weil zB lokaler Serieller Port genutzt wird oder so). Und dann monitoren Instanzen dieses HA Adapters die Hosts und wenn einer ausfällt schieben die dann Instanzen durch die Gegend um wirklich so viel Funktionalität wie geht zu erhalten.

                                    Hallo apollon77,

                                    Wie weit "fortgeschritten" ist dein HA Adapter bzw die Ansätze dazu?
                                    Ich bin sehr an dem Thema interessiert.

                                    Eine andere Frage noch zu dem Thema:
                                    Wenn ich eine Multihostumgebung mit Redis(Sentinel) aufbaue... Wo sind die "Adaptersettings" gespeichert? Einen richtigen "Master" gibts ja dann nicht oder?

                                    1. Kann ich den Admin auf beiden Hosts installieren und alles bedienen?
                                    2. Wenn mir ein Host abschmiert, kann ich dann noch die Adapter "verschieben" (vom abgeschmierten host auf den der lauft)

                                    mfg
                                    Mike

                                    apollon77A 1 Antwort Letzte Antwort
                                    0
                                    • M m1k3f15h

                                      @apollon77 said in iobroker hochverfügbar:

                                      Was noch auf meiner Ideenliste steht ist ein "HA-Adapter" der an der Stelle die Konfiguration annimmt welche Adapterinstanz verschoben werden kann und wer nicht (weil zB lokaler Serieller Port genutzt wird oder so). Und dann monitoren Instanzen dieses HA Adapters die Hosts und wenn einer ausfällt schieben die dann Instanzen durch die Gegend um wirklich so viel Funktionalität wie geht zu erhalten.

                                      Hallo apollon77,

                                      Wie weit "fortgeschritten" ist dein HA Adapter bzw die Ansätze dazu?
                                      Ich bin sehr an dem Thema interessiert.

                                      Eine andere Frage noch zu dem Thema:
                                      Wenn ich eine Multihostumgebung mit Redis(Sentinel) aufbaue... Wo sind die "Adaptersettings" gespeichert? Einen richtigen "Master" gibts ja dann nicht oder?

                                      1. Kann ich den Admin auf beiden Hosts installieren und alles bedienen?
                                      2. Wenn mir ein Host abschmiert, kann ich dann noch die Adapter "verschieben" (vom abgeschmierten host auf den der lauft)

                                      mfg
                                      Mike

                                      apollon77A Offline
                                      apollon77A Offline
                                      apollon77
                                      schrieb am zuletzt editiert von
                                      #79

                                      @m1k3f15h Aktuell ist keine Arbeit an einem HA Adapter gestartet. Sorry, aber Prios sind aktuell andere.

                                      Wenn Du einen Redis Sentinel Ansatz hast idt quasi "Der Redis" dein Master ... und ja du kannst (auch jetzt) Admin auf mehreren Hosts installieren und dann von allen gleichermassen verwalten

                                      Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                      • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                      • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                      M 1 Antwort Letzte Antwort
                                      0
                                      • apollon77A apollon77

                                        @m1k3f15h Aktuell ist keine Arbeit an einem HA Adapter gestartet. Sorry, aber Prios sind aktuell andere.

                                        Wenn Du einen Redis Sentinel Ansatz hast idt quasi "Der Redis" dein Master ... und ja du kannst (auch jetzt) Admin auf mehreren Hosts installieren und dann von allen gleichermassen verwalten

                                        M Offline
                                        M Offline
                                        m1k3f15h
                                        schrieb am zuletzt editiert von
                                        #80

                                        @apollon77 Danke für die schnelle Antwort :)
                                        Ja da werde ich mich mal spielen mit 2 Testinstanzen :)
                                        Mir hat auf jeden Fall dein Ansatz sehr gut gefallen, dass die Adapter "automatisch" umgezogen werden und auch, dass Hardwarebezogene Adapter auf einem Host "festgepinnt" werden können :) einfach megageil der Ansatz :)

                                        Ist nur die Frage, wo die Settings der Adapter gespeichert sind.. denn von einem Host der Offline ist, kann ich keine Config mehr kopieren.. Weisst du was ich meine? :)

                                        Mike

                                        apollon77A 1 Antwort Letzte Antwort
                                        0
                                        • M m1k3f15h

                                          @apollon77 Danke für die schnelle Antwort :)
                                          Ja da werde ich mich mal spielen mit 2 Testinstanzen :)
                                          Mir hat auf jeden Fall dein Ansatz sehr gut gefallen, dass die Adapter "automatisch" umgezogen werden und auch, dass Hardwarebezogene Adapter auf einem Host "festgepinnt" werden können :) einfach megageil der Ansatz :)

                                          Ist nur die Frage, wo die Settings der Adapter gespeichert sind.. denn von einem Host der Offline ist, kann ich keine Config mehr kopieren.. Weisst du was ich meine? :)

                                          Mike

                                          apollon77A Offline
                                          apollon77A Offline
                                          apollon77
                                          schrieb am zuletzt editiert von
                                          #81

                                          @m1k3f15h sagte in iobroker hochverfügbar:

                                          Ist nur die Frage, wo die Settings der Adapter gespeichert sind.. denn von einem Host der Offline ist, kann ich keine Config mehr kopieren.. Weisst du was ich meine?

                                          Naja in einer idealen Adapterwelt ist alles in den Objekten und damit im Redis. Das ist ja der Sinn dahinter alles im Redis zu haben. Adapter sollten nur solche Daten im Filesystem ablegen die temporär sind oder im zweifelsfall einfach "neu generiert" werden. Sonst gäbe es ja heute schon mit Multihost Probleme ... bzw Adapter wo man eh "lokal gebunden ist" wegen zb einem USB stick bei denen ists dann auch egal

                                          Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                          • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                          • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                          M 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          415

                                          Online

                                          32.5k

                                          Benutzer

                                          81.7k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe