NEWS
Hosting ioBroker // NAS (Docker) vs. RPi
-
Servus zusammen,
ich stehe grad ebenfalls an der Überlegung mein aktuelles Setup zu ändern.
aktuell habe ich einen RPI4 mit 4GB RAM worauf derzeit iobroker, PIVCCU3, influxdb, grafana läuft.
Das ganze wird derzeit via Raspibackup auf meine Syno gesichert. Auf letzterer DS918+ läuft auch Docker u.a. mit dem PiHole Container.Mein Wunschziel wäre die o.g. Smarthome Applikationen als DockerImages auf dem RPI laufen zu lassen. Das ganze würde ich gerne dann via Portainer managen.
Da ich gern den Ruhezustand meines NAS wieder nutzen würde, wäre PiHole ebenfalls als Docker auf dem PI eine Option.Könnte das Szenario so funktionieren? Speziell frage ich mich:
- ob z.B. der Backitup Adapter dann noch influxdb oder grafana sichern kann, wenn diese in einem eigenen Docker laufen?
- Sollten hier auch jeweils gewisse Ordner/Pfade gemountet werden, dass diese außerhalb des Containers zugreizbar sind?
- het jemand Erfahrung mit einer CCU-Distribution (PIVCCU oder RaspberyMatic) im Docker?
Da ich mir nun eine SSD für die PI geholt habe und damit dann eine frische Installation auf bullseye mit 64bit anstrebe mache ich mir dazu diese Gedanken.
Wäre cool, wenn evtl. jemand Erfahrungen damit hat bzw. auch schon einmal zusammengestellt hat. -
@fila612 Ich fahre genau dieses Szenario auf einem Pi4 mit 2GB und SSD.
Im Docker laufen:
iobroker, grafana, influxdb, adguardhome (statt PiHole), und portainer.
Das ganze läuft super stabil, habe aber trotzdem vor 3 Tagen auf Pi4 mit 4GB gewechselt.
RAM war unter 2GB schon knapp.Die Einrichtung unter Docker war hier und da etwas tricky wegen der Port und Network Settings.
Zwei Dinge - die ich gerne hätte - habe ich nicht hinbekommen:- Ich benutze Join von Tasker (eine Automatisierungs App für Android. Für mich DIE App schlechthin).
Unter node-red gibt es einen Join adapter, den habe ich aber nicht vernünftig ans laufen bekommen.
Aber die Alternative ist sogar besser. Ich habe ein Tablet als VIS. Dort ist Tasker & Join installiert und fungiert als Bot. Von jedem anderen Android Device kann ich via Tasker/Join Nachrichten an das Tablet schicken (braucht kein VPN) und Tasker auf dem Tablet ändert dann per http (simple-api adapter) Werte in iobroker und kann so per Blockly Aktionen triggern. - Spotify Adapter: Da klemmt es an der Authentizierung. Versuche das aber erst seit 2-3 Tagen, muss mich damit noch mal beschäftigen. Würde gerne Spotify vom Tablet per VIS steuern.
Workaround: Kiosk Browser: Spotify zur Whitelist hinzugefügt. Klick auf VIS Spotify Icon startet Spotify (auch wieder per Tasker/Join getriggert).
Bzgl. Backup:
Backitup bietet mir an: iobroker, javascript, und grafana
InfluxDB wird nicht über Backitup gesichert (die Tickbox kann man nicht aktivieren).Mangels 2tem Pi habe ich bisher kein Restore getestet, das steht aber auf meiner ToDo Liste.
Wie gesagt, den 2ten Pi habe ich erst seit 3 Tagen.Unabhängig davon mache ich eigene Backups:
- Full backup des Festplattenimages. Das dauert ca. 1h, mache ich manuell ab und zu.
Plane, das per cron regelmässig im laufenden Betrieb zu machen. Kann jetzt ja einfach testen. - Jede Nacht per cron starte ich ein eigenes einfaches backup script
Das benutzt docker-backup.
Zudem werden alle Volumes in ein zip File mit Datum kopiert und diese Datei wird auf das NAS der Fritzbox und zusätzlich in die cloud (Google oder OneDrive) geladen.
- Ich benutze Join von Tasker (eine Automatisierungs App für Android. Für mich DIE App schlechthin).
-
@simplyclever
Danke für die Infos,spannend für mich wird zum einen die CCU im Docker laufen zu lassen, wobei ich da nen Ansatz aus einem Mix von PIVCCU für die kerneltreiber des USB-Sticks und dem Raspberrymatic Docker Image probieren werden.
Deweiteren nutze ich Influxdb 1.8 direkt auf dem raspi.
Mein Wunsch wäre ein Influxdb 2.1 im Docker und die Daten aus meiner bisherigen DB.
Die Nuss weiss ich noch nicht wie ich sie knacken soll.... -
@fila612 sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
spannend für mich wird zum einen die CCU im Docker laufen zu lassen, wobei ich da nen Ansatz aus einem Mix von PIVCCU
also einen lxc innerhalb eines Dockers
Warum muss es eigentlich Docker sein?
und der auch noch auf einem Pi? -
@homoran
technisch gibts da meinerseits keine Vorgabe.
ich betreibe aktuell einen Raspberry Pi und daran ist das HB-RF-USB angeschlossen und ein Zigbee Stick.ich bin mir nicht ganz sicher ob der lxc im Docker läuft, bisher hab ich das so verstanden, dass pivccu nur die Kerneltreiber genutzt werden und Raspberrymatic als Docker laufen sollten, siehe auch die Anleitung hier.
aktuell läuft das alles direkt auf dem Pi und ich musste schon mind. 3 mal den Pi komplett neu installieren, wenn ich gewisse Dinge verstellt, geupdated oder "verkonfiguriert" habe.
Daher der Ansatz: ich pack die verschiedenen Apps in Container und wenn was kaputt ist, ist bestenfalls nicht alles kaputt und im Schlimmsten Fall wieder schnell deployed.ich könnte das ganze auch auf meinem NSA (DS918+) laufen lassen, aber ich bevorzuge den geringeren Stromverbrauch des Pi's.
-
@fila612 sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
Daher der Ansatz: ich packk die verschiedenen Apps in Container und wenn was kaputt ist, ist bestenfalls nicht alles kaputt und im Schlimmsten Fall wieder schnell deployed.
gut, das ist ein nachvollziehbarer Grund. Ich frage nur deswegen, weil viele User nicht den Hintergrund haben, Container vollumfänglich zu verwalten.
Ob der Pi allerdings als Basis für so ein Unterfangen die richtige wahl ist kann ich nicht sagen.
-
@fila612 sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
ich bin mir nicht ganz sicher ob der lxc im Docker läuft, bisher hab ich das so verstanden, dass pivccu nur die Kerneltreiber genutzt werden und Raspberrymatic als Docker laufen sollten, siehe auch die Anleitung hier.
aber warum sollte man das machen?
docker und lxc ist die gleiche technologie (prozesskapselung) leicht unterschiedlich ausgeführt.
warum auf dem host nicht docker UND lxc nebeneinander laufen lassen?sonst muss sich die lxc mit seinen funktionen noch durch die Virtualisierungsschicht von docker quälen und man muss im docker container allerlei capabilities freischalten, damit lxc überhaupt privilegiert aufs betriebssystem zugreifen darf.
docker und lxc ist keine Virtuelle Maschine, wo ich einen Rechner in einem Rechner in einem Rechner simulieren kann.
auch der netzwerkverkehr muss von lxc dann erst durch den docker container durch.selbst wenn es funktioniert tut man sich da nix gutes und hat ein paar extra fehlerbereiche die schwer zu analysieren sind.
hilfe wird es da im internet auch nicht geben, da das mE Unsinn ist.
aber ich bin mal auf die Gegenargumente hier gespannt. -
@oliverio
wie gesagt, es soll m.M.n. nicht der lxc im Docker laufen, sondern nur die Kerneltreiber der pivccu genutzt werden damit Raspberrymatic im Docker laufen kann.(siehe obigen Link)
Deiner Darstellung stimme ich zu, war auch nicht mein Zieldesign.
Entweder Raspberrymatic läuft im Docker oder Pivccu direkt (als lxc) auf dem Pi (quasi neben dem Docker). -
Hallo zusammen,
ich habe heute meinen PI4 neu installiert und wollte euch kurz teilhaben lassen:
Installiert habe ich RaspberryPi OS bullseye 64bit.
Danach habe ich docker und portainer installiert.
Nach anfänglichen Problemchen und probieren hab ich mich entschlossen, die Container in einem MCVLAN zu administrieren. Dadurch erhalten sie eigene IP Adressen und die Portfreigaben müssen auch nicht in der detaillierten Form sein.
Im Anschluss daran, habe ich gem. Anleitung RaspberryMatic im Docker hochgezogen und das läuft sehr gut bisher mit dem HB-RF-USB.
Dannn folgten die Container influxdb, grafana und zum Schluss iobroker.
Im iobroker habe ich via backitup adapter das meiste Rektoren können.
Influxdb ging nicht über den adapter, das musst ich via Kommandozeile direkt machen, klappte aber auch.wo ich aktuell hänge und noch keine Lösung gefunden habe ist, mein CC2538 Stick für den zigbee adapter erreichbar zu machen.
Ich hab im Portainer den Stick als Environment und auch als bei den device gemapppt.Wenn ich dann im Container nachsehe, finde ich den auch, aber im iobroker bleibt der adapter Gelb
-
Hallo zusammen,
da ich am PI4 den Zigbee Stick nicht zum laufen gebracht habe und dies vermutlich auch nicht funktioniert hätte (bin erst dadurch auf die Probleme im Zusammenhang mit SSD und USB gekommen) und auch der PI4 mit der SSD im Gehäuse mir etwas zu warm wurde, habe ich mich nach alternativer Hardware umgesehen. Ein Intel NUC mit i5 wäre eine Option, wollte aber erstmal nicht so viel investieren und suchte nach passenden Geräten unter 200€.
Gefunden habe ich den BMAX B2 Plus auf Amazon für derzeit 185€.
Kurz und knapp: ich bin mega zufrieden!
Der BMAX läuft sehr leise und im Vergleich zum PI4 doch um einiges performanter. Der Prozessor des BMAX (Intel N4120) ist jetzt nicht das Leistungswunder, aber für 185€ mit 8GB Ram und 120 SSD finde ich ein gutes P/L-Verhältnis.
Ich habe Windows 10 Pro runtergeworfen (vorher Key noch ausgelesen, evtl. braucht man den ja nochmal). und Proxmox installiert.
Darin laufen bis jetzt iobroker, influxdb, grafana und pihole als LXC und RaspberryMatic als VM. Letztere wird auch bald in den LXC wandern, laut Forum is Jens da dran.
Die CPU hat in Summe den höchsten Peak bei 20% gehabt, durchschnitt eher bei 8-10%. RAM Auslastung aktuell bei ca. 3-4GB, also noch Reserven da.
Super ist: ZigbeeStick wurde problemlos erkannt, danke an die Anleitung hier im Forum!!!Einzige Problemchen ist noch der BackitUp Adapter, da ich aus dem LXC noch nicht geschafft habe meinen NAS-Mount zu bedienen. Restore klappte via FTP aber das Sichern nicht.
Zur Überbrückung habe ich mir auf meiner Synology den Proxmox Backup Server ins Docker geworfen und sichere dafür die kompletten Container direkt auf dem NAS. Evtl. lass ich das Setup so und verzichte auf den BackitUp-Adapter. Muss den Restore aber nochmal testen.Ich bin happy und froh den Schritt weg vom Raspberry getan zu haben. Stromverbrauch habe ich nicht gemessen, aber laut eignen Infos sollte der unter 15W liegen, damit wäre ich zufrieden.
-
Ich überlege auch gerade, ob ich meine iobroker Instanz von einem Raspberry Pi 4 mit 4 GB auf meinen unRAID Server (i3 9100, 2TB SSD und 64 GB RAM) umstellen soll. Der unRAID Server läuft ohnehin schon und ist dank SSD und Spindown der HDDs relativ effizient, auch was Stromverbrauch angeht (10-14 W).
Ich bin nur noch etwas voreingenommen, weil ich nicht weiß, wie gut iobroker im Docker läuft und weil ich raspberrymatic noch umziehen muss.
-
@fir3drag0n sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
wie gut iobroker im Docker läuft
Läuft bei mir auf einem HP ProLiant unter DSM 6 problemlos als Container. Und der hat "nur" einen Celeron und 8 GB RAM. Nebenbei laufen dort noch ein paar andere Container.
-
@fir3drag0n sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
wie gut iobroker im Docker läuft
Läuft hervorragend auch auf dem unraid Server