NEWS
Hosting ioBroker // NAS (Docker) vs. RPi
-
@chillkroete1206 sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
Läuft sowieso (Stromverbrauch??)
Wenn dann ioBroker läuft, gehen, die Platten nicht mehr in Ruhemodus. Macht bei mir 25W aus! Alletdings bei 6 Platten.
Da kannst du vieeeeele RasPis für laufen lassen.@chillkroete1206 sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
Contra NAS:
NAS ist nicht das Problem wenn da eine VM drauf läuft. Die Probleme mit Docker hast du auch mit anderen Containern.
Die sind halt nicht so pflegeleicht.Dritte Möglichkeit wäre ein kleiner NUC o.ä.
Da kannst du auch 16-32GB RAM nehmen, wobei 4GB reichen und ein Pi4 mit 8GB schon Luxus wäre -
virtualisierung (ob docker oder vm) kostet primär hauptspeicher (vm etwas mehr wie docker)).
je nachdem wieviel container du parallel laufen lassen möchtest sind bei einem raspi beides irgendwann begrenzt.
das argument mit dem stromverbrauch kannst du bei einem raspi auf jedenfall mit einer ssd begegnen, von der auch gebootet wird. raspi mit sd-karte ist eigentlich keine dauerlösung, obwohl hier einige doch wohl gut mit den kaputt gehenden sd karten zurecht kommen bzw. das wohl doch nicht so oft vorkommt.
raspi als start lösung funktioniert auf jeden fall. bei wachsender anzahl von adaptern und ggfs. andere container die da noch laufen sollen, ist, wie schon erwähnt, ein NUC oder ähnliches, sehr sinnvoll. -
@chillkroete1206
Raspi
Pro:- relativ Günstig, je nach Ausstattung und Zubehör
- geringer Stromverbrauch
Contra:
- SD Karten können schnell Kaputt gehen
- Mäßige Performance
- SSD Anbindung nur mit geringem Datendurchsatz
- Ich hatte bisher Ausschließlich negative Erfahrungen mit dem Pi als Smart Home Zentrale
NAS:
Der Arbeitsspeicher alleine macht es nicht aus. Wie wir seit kurzem wissen zählt für ioBroker auch wie Leistungsstark ein einzelner CPU Kern ist.
Bei den Tests waren auch NAS Systeme dabei, die Leistungsmässig eher unterhalb eines Pi 4 lagen.
In den meisten NAS laufen Atom, Celeron oder Pentium Prozessoren. Interessant wird es erst mit einem Core-i Prozessor.
Generell konnte man eine Tendenz dazu erkennen das Intel Prozessoren mehr Leistung pro Kern bieten als AMD.Docker:
Pro:- leicht zu sichern
- Unabhängig vom Rest der Software, wird davon also nicht beeinflusst
Contra:
- Handhabung erfordert Zusätzliches wissen um den Container richtig ein zu richten
- USB Sticks lassen sich nicht einfach verwenden
NUC:
Pro:- geringer Stromverbrauch 10-20 Watt (je nach Model) bei Moderater Auslastung
- Kompakt
- Arbeitsspeicher erweiterbar
- Anbindung der SSD mit hohem Datendurchsatz
- Modele mit Core-i Prozessoren verfügbar
Contra:
- Teurer als ein Pi*
*Gebraucht bekommt man bereits ab 150€ ältere Modelle mit Core-i und 8 GB RAM. Was einem gut Ausgestattem Pi entspricht.
-
@oliverio sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
je nachdem wieviel container du parallel laufen lassen möchtest sind bei einem raspi beides irgendwann begrenzt.
war denn auf dem Pi auch eine Virtualisierung angedacht?
@oliverio sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
raspi mit sd-karte ist eigentlich keine dauerlösung, obwohl hier einige doch wohl gut mit den kaputt gehenden sd karten zurecht kommen bzw. das wohl doch nicht so oft vorkommt.
Bei mir letzteres.
Ich habe SBCs, die laufen seit 4 Jahren am Stück auf einer SD Karte. Der RasPi4 2GB seit seinem Erscheinen. Trotz massivem Logging mit History. -
@homoran
Hast du eine SD Karte die unter dem Label "Extreme" oder "Endurance" läuft? -
@oliverio sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
@homoran
Hast du eine SD Karte die unter dem Label "Extreme" oder "Endurance" läuft?nöö, stinknormale Sandisk (Ultra) / Intenso / Samsung / Transcend.
Lediglich mit Medion/Tevion gab es ProblemeIch achte nur auf ausreichende Größe, damit genug freie Zellen existieren. (üblicherweise 32GB, aber auch 16 oder 64, je nachdem "was gerade frei ist"
EDIT:
Muss mich ein wenig korrigieren.
Wie man doch Dinge ausblendet
Habe gerade meine "Leichen" angesehen.
Die drei rot-grauen SanDisk Ultra haben beim Brennen im Verify Fehler geworfen und sind deswegen aussortiert worden.
Keine davon jedoch im laufenden Betrieb
(ich glaube das war Discounter-Ware)
die weiß-grauen haben bisher noch keine Problem gehabt -
Servus zusammen,
ich stehe grad ebenfalls an der Überlegung mein aktuelles Setup zu ändern.
aktuell habe ich einen RPI4 mit 4GB RAM worauf derzeit iobroker, PIVCCU3, influxdb, grafana läuft.
Das ganze wird derzeit via Raspibackup auf meine Syno gesichert. Auf letzterer DS918+ läuft auch Docker u.a. mit dem PiHole Container.Mein Wunschziel wäre die o.g. Smarthome Applikationen als DockerImages auf dem RPI laufen zu lassen. Das ganze würde ich gerne dann via Portainer managen.
Da ich gern den Ruhezustand meines NAS wieder nutzen würde, wäre PiHole ebenfalls als Docker auf dem PI eine Option.Könnte das Szenario so funktionieren? Speziell frage ich mich:
- ob z.B. der Backitup Adapter dann noch influxdb oder grafana sichern kann, wenn diese in einem eigenen Docker laufen?
- Sollten hier auch jeweils gewisse Ordner/Pfade gemountet werden, dass diese außerhalb des Containers zugreizbar sind?
- het jemand Erfahrung mit einer CCU-Distribution (PIVCCU oder RaspberyMatic) im Docker?
Da ich mir nun eine SSD für die PI geholt habe und damit dann eine frische Installation auf bullseye mit 64bit anstrebe mache ich mir dazu diese Gedanken.
Wäre cool, wenn evtl. jemand Erfahrungen damit hat bzw. auch schon einmal zusammengestellt hat. -
@fila612 Ich fahre genau dieses Szenario auf einem Pi4 mit 2GB und SSD.
Im Docker laufen:
iobroker, grafana, influxdb, adguardhome (statt PiHole), und portainer.
Das ganze läuft super stabil, habe aber trotzdem vor 3 Tagen auf Pi4 mit 4GB gewechselt.
RAM war unter 2GB schon knapp.Die Einrichtung unter Docker war hier und da etwas tricky wegen der Port und Network Settings.
Zwei Dinge - die ich gerne hätte - habe ich nicht hinbekommen:- Ich benutze Join von Tasker (eine Automatisierungs App für Android. Für mich DIE App schlechthin).
Unter node-red gibt es einen Join adapter, den habe ich aber nicht vernünftig ans laufen bekommen.
Aber die Alternative ist sogar besser. Ich habe ein Tablet als VIS. Dort ist Tasker & Join installiert und fungiert als Bot. Von jedem anderen Android Device kann ich via Tasker/Join Nachrichten an das Tablet schicken (braucht kein VPN) und Tasker auf dem Tablet ändert dann per http (simple-api adapter) Werte in iobroker und kann so per Blockly Aktionen triggern. - Spotify Adapter: Da klemmt es an der Authentizierung. Versuche das aber erst seit 2-3 Tagen, muss mich damit noch mal beschäftigen. Würde gerne Spotify vom Tablet per VIS steuern.
Workaround: Kiosk Browser: Spotify zur Whitelist hinzugefügt. Klick auf VIS Spotify Icon startet Spotify (auch wieder per Tasker/Join getriggert).
Bzgl. Backup:
Backitup bietet mir an: iobroker, javascript, und grafana
InfluxDB wird nicht über Backitup gesichert (die Tickbox kann man nicht aktivieren).Mangels 2tem Pi habe ich bisher kein Restore getestet, das steht aber auf meiner ToDo Liste.
Wie gesagt, den 2ten Pi habe ich erst seit 3 Tagen.Unabhängig davon mache ich eigene Backups:
- Full backup des Festplattenimages. Das dauert ca. 1h, mache ich manuell ab und zu.
Plane, das per cron regelmässig im laufenden Betrieb zu machen. Kann jetzt ja einfach testen. - Jede Nacht per cron starte ich ein eigenes einfaches backup script
Das benutzt docker-backup.
Zudem werden alle Volumes in ein zip File mit Datum kopiert und diese Datei wird auf das NAS der Fritzbox und zusätzlich in die cloud (Google oder OneDrive) geladen.
- Ich benutze Join von Tasker (eine Automatisierungs App für Android. Für mich DIE App schlechthin).
-
@simplyclever
Danke für die Infos,spannend für mich wird zum einen die CCU im Docker laufen zu lassen, wobei ich da nen Ansatz aus einem Mix von PIVCCU für die kerneltreiber des USB-Sticks und dem Raspberrymatic Docker Image probieren werden.
Deweiteren nutze ich Influxdb 1.8 direkt auf dem raspi.
Mein Wunsch wäre ein Influxdb 2.1 im Docker und die Daten aus meiner bisherigen DB.
Die Nuss weiss ich noch nicht wie ich sie knacken soll.... -
@fila612 sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
spannend für mich wird zum einen die CCU im Docker laufen zu lassen, wobei ich da nen Ansatz aus einem Mix von PIVCCU
also einen lxc innerhalb eines Dockers
Warum muss es eigentlich Docker sein?
und der auch noch auf einem Pi? -
@homoran
technisch gibts da meinerseits keine Vorgabe.
ich betreibe aktuell einen Raspberry Pi und daran ist das HB-RF-USB angeschlossen und ein Zigbee Stick.ich bin mir nicht ganz sicher ob der lxc im Docker läuft, bisher hab ich das so verstanden, dass pivccu nur die Kerneltreiber genutzt werden und Raspberrymatic als Docker laufen sollten, siehe auch die Anleitung hier.
aktuell läuft das alles direkt auf dem Pi und ich musste schon mind. 3 mal den Pi komplett neu installieren, wenn ich gewisse Dinge verstellt, geupdated oder "verkonfiguriert" habe.
Daher der Ansatz: ich pack die verschiedenen Apps in Container und wenn was kaputt ist, ist bestenfalls nicht alles kaputt und im Schlimmsten Fall wieder schnell deployed.ich könnte das ganze auch auf meinem NSA (DS918+) laufen lassen, aber ich bevorzuge den geringeren Stromverbrauch des Pi's.
-
@fila612 sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
Daher der Ansatz: ich packk die verschiedenen Apps in Container und wenn was kaputt ist, ist bestenfalls nicht alles kaputt und im Schlimmsten Fall wieder schnell deployed.
gut, das ist ein nachvollziehbarer Grund. Ich frage nur deswegen, weil viele User nicht den Hintergrund haben, Container vollumfänglich zu verwalten.
Ob der Pi allerdings als Basis für so ein Unterfangen die richtige wahl ist kann ich nicht sagen.
-
@fila612 sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
ich bin mir nicht ganz sicher ob der lxc im Docker läuft, bisher hab ich das so verstanden, dass pivccu nur die Kerneltreiber genutzt werden und Raspberrymatic als Docker laufen sollten, siehe auch die Anleitung hier.
aber warum sollte man das machen?
docker und lxc ist die gleiche technologie (prozesskapselung) leicht unterschiedlich ausgeführt.
warum auf dem host nicht docker UND lxc nebeneinander laufen lassen?sonst muss sich die lxc mit seinen funktionen noch durch die Virtualisierungsschicht von docker quälen und man muss im docker container allerlei capabilities freischalten, damit lxc überhaupt privilegiert aufs betriebssystem zugreifen darf.
docker und lxc ist keine Virtuelle Maschine, wo ich einen Rechner in einem Rechner in einem Rechner simulieren kann.
auch der netzwerkverkehr muss von lxc dann erst durch den docker container durch.selbst wenn es funktioniert tut man sich da nix gutes und hat ein paar extra fehlerbereiche die schwer zu analysieren sind.
hilfe wird es da im internet auch nicht geben, da das mE Unsinn ist.
aber ich bin mal auf die Gegenargumente hier gespannt. -
@oliverio
wie gesagt, es soll m.M.n. nicht der lxc im Docker laufen, sondern nur die Kerneltreiber der pivccu genutzt werden damit Raspberrymatic im Docker laufen kann.(siehe obigen Link)
Deiner Darstellung stimme ich zu, war auch nicht mein Zieldesign.
Entweder Raspberrymatic läuft im Docker oder Pivccu direkt (als lxc) auf dem Pi (quasi neben dem Docker). -
Hallo zusammen,
ich habe heute meinen PI4 neu installiert und wollte euch kurz teilhaben lassen:
Installiert habe ich RaspberryPi OS bullseye 64bit.
Danach habe ich docker und portainer installiert.
Nach anfänglichen Problemchen und probieren hab ich mich entschlossen, die Container in einem MCVLAN zu administrieren. Dadurch erhalten sie eigene IP Adressen und die Portfreigaben müssen auch nicht in der detaillierten Form sein.
Im Anschluss daran, habe ich gem. Anleitung RaspberryMatic im Docker hochgezogen und das läuft sehr gut bisher mit dem HB-RF-USB.
Dannn folgten die Container influxdb, grafana und zum Schluss iobroker.
Im iobroker habe ich via backitup adapter das meiste Rektoren können.
Influxdb ging nicht über den adapter, das musst ich via Kommandozeile direkt machen, klappte aber auch.wo ich aktuell hänge und noch keine Lösung gefunden habe ist, mein CC2538 Stick für den zigbee adapter erreichbar zu machen.
Ich hab im Portainer den Stick als Environment und auch als bei den device gemapppt.Wenn ich dann im Container nachsehe, finde ich den auch, aber im iobroker bleibt der adapter Gelb
-
Hallo zusammen,
da ich am PI4 den Zigbee Stick nicht zum laufen gebracht habe und dies vermutlich auch nicht funktioniert hätte (bin erst dadurch auf die Probleme im Zusammenhang mit SSD und USB gekommen) und auch der PI4 mit der SSD im Gehäuse mir etwas zu warm wurde, habe ich mich nach alternativer Hardware umgesehen. Ein Intel NUC mit i5 wäre eine Option, wollte aber erstmal nicht so viel investieren und suchte nach passenden Geräten unter 200€.
Gefunden habe ich den BMAX B2 Plus auf Amazon für derzeit 185€.
Kurz und knapp: ich bin mega zufrieden!
Der BMAX läuft sehr leise und im Vergleich zum PI4 doch um einiges performanter. Der Prozessor des BMAX (Intel N4120) ist jetzt nicht das Leistungswunder, aber für 185€ mit 8GB Ram und 120 SSD finde ich ein gutes P/L-Verhältnis.
Ich habe Windows 10 Pro runtergeworfen (vorher Key noch ausgelesen, evtl. braucht man den ja nochmal). und Proxmox installiert.
Darin laufen bis jetzt iobroker, influxdb, grafana und pihole als LXC und RaspberryMatic als VM. Letztere wird auch bald in den LXC wandern, laut Forum is Jens da dran.
Die CPU hat in Summe den höchsten Peak bei 20% gehabt, durchschnitt eher bei 8-10%. RAM Auslastung aktuell bei ca. 3-4GB, also noch Reserven da.
Super ist: ZigbeeStick wurde problemlos erkannt, danke an die Anleitung hier im Forum!!!Einzige Problemchen ist noch der BackitUp Adapter, da ich aus dem LXC noch nicht geschafft habe meinen NAS-Mount zu bedienen. Restore klappte via FTP aber das Sichern nicht.
Zur Überbrückung habe ich mir auf meiner Synology den Proxmox Backup Server ins Docker geworfen und sichere dafür die kompletten Container direkt auf dem NAS. Evtl. lass ich das Setup so und verzichte auf den BackitUp-Adapter. Muss den Restore aber nochmal testen.Ich bin happy und froh den Schritt weg vom Raspberry getan zu haben. Stromverbrauch habe ich nicht gemessen, aber laut eignen Infos sollte der unter 15W liegen, damit wäre ich zufrieden.
-
Ich überlege auch gerade, ob ich meine iobroker Instanz von einem Raspberry Pi 4 mit 4 GB auf meinen unRAID Server (i3 9100, 2TB SSD und 64 GB RAM) umstellen soll. Der unRAID Server läuft ohnehin schon und ist dank SSD und Spindown der HDDs relativ effizient, auch was Stromverbrauch angeht (10-14 W).
Ich bin nur noch etwas voreingenommen, weil ich nicht weiß, wie gut iobroker im Docker läuft und weil ich raspberrymatic noch umziehen muss.
-
@fir3drag0n sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
wie gut iobroker im Docker läuft
Läuft bei mir auf einem HP ProLiant unter DSM 6 problemlos als Container. Und der hat "nur" einen Celeron und 8 GB RAM. Nebenbei laufen dort noch ein paar andere Container.
-
@fir3drag0n sagte in Hosting ioBroker // NAS (Docker) vs. RPi:
wie gut iobroker im Docker läuft
Läuft hervorragend auch auf dem unraid Server