NEWS
ioBroker sehr hohe Diskwrites in Proxmox
-
@jleg sagte: die objects sind bei ihm offenbar "relevanter"
Normalerweise sollten die nur selten geschrieben werden, da quasi statisch.
-
@paul53 ist möglich, habe diesbezüglich jedoch kein Zeitgefühl, wann ich umgestellt hatte.
also brauche ich"writeFileInterval": 300000,
nicht eintragen?@paul53 sagte in ioBroker sehr hohe Diskwrites in Proxmox:
Dann solltest Du mal beobachten
wenn das hilft? untere Datum letzte Änderung, obere letzter Zugriff
-
@crunchip sagte: also brauche ich "writeFileInterval": 300000, nicht eintragen?
Nein, das hat auf Redis keine Wirkung.
@crunchip sagte in ioBroker sehr hohe Diskwrites in Proxmox:
untere Datum letzte Änderung
Wenn jetzt immer noch 17:22 Uhr angezeigt werden, ist auch das kein Problem.
-
@paul53 sagte in ioBroker sehr hohe Diskwrites in Proxmox:
ist auch das kein Problem.
also hab ich dann ein Problem, hab aktualisiert, jetzt 17:50
-
@crunchip sagte: also hab ich dann ein Problem, hab aktualisiert, jetzt 17:50
Offenbar. Irgendein Adapter / Script ändert laufend Objekte. Das sollte eigentlich nicht sein.
-
@paul53 na bravo, die Nadel im Heuhaufen suchen
ich geh erstmal was essen -
@crunchip Bei mir ist es offensichtlich der Netatmo-Adapter. Der schreibt alle 10 Minuten (eingestelltes Intervall) die
objects.json
(2 x 14,5 MB) neu.Der Umstieg bei den States auf redis hat mir schon eine deutlich Reduktion der Schreibzugriffe gebracht. Jetzt stellt sich nur die Frage ob ich auch bei den Objekten auf redis umstellen soll, oder der Adapter angepasst werden kann? Beim Adapter habe ich mal ein Issue erstellt.
-
@crunchip
Hallo, die Diskussion hat mich angeregt, auch mein System zu überprüfen.
Ich setze zwei Proxmox-Nodes ein (Intel NUC6 und Intel NUC8).
Der neuere Nuc8 (Gekauft Ende 2019) hat eine Samsung 500GB SSD (970Pro).Der Wert für Wearout liegt bei 3%.
Das sieht für mich kritisch aus!
Die 2 Jahre ältere SSD im Nuc6 (Cruxial 250GB) zeigt 42% an.
Nun mache ich mir nach der Diskussion Sorgen um die Datensicherheit.
Hier die Smart-Werte:Das heißt, das System hat seit Ende 2019 53 TB geschrieben.
Meine Frage jetzt an die Experten: Ich würde gerne die SSD tauschen. In den Foren habe ich viel über Probleme beim Klonen gelesen, das z.B. der GPT nicht sauber oder gar nicht mit kopiert wird.
Da ich zwei Nodes habe, hier eine konkrete Frage:
Ich könnte die VMs auf den Node1 verschieben und den Node2 neu mit der Proxmox Boot-Stick erzeugen. Danach die Nodes miteinander verknüpfen und die Maschinen wieder rüberschicken.Würde das so gehen? Oder macht ihr das anders?
Danach muss ich dann das Problem der heftigen Schreibvorgänge angenommen.
Bitte hier um Unterstützung.
-
Warum sind in einem guten Jahr 3% wearout kritisch?
Und wie kann man diese smart Werte anzeigen? Ich kenne nur die unter pve —> disks
-
@saeft_2003
Hier war ja dieser Beitrag:
https://www.thomas-krenn.com/de/wiki/SMART_Attribute_von_Intel_SSDsDas heißt, der Wert sinkt von guten 100% auf 0%. Daher meine Rückfrage zum Austausch der SSD.
Vielleicht habe ich es auch total falsch verstanden?
-
@martybr sagte: das System hat seit Ende 2019 53 TB geschrieben.
Das ist bei 600 TBW (laut Samsung) nicht zu viel.
-
@saeft_2003
In Proxmox - Disks - Kannst du auf Smart Werte anzeigen klicken -
@martybr sagte in ioBroker sehr hohe Diskwrites in Proxmox:
@saeft_2003
In Proxmox - Disks - Kannst du auf Smart Werte anzeigen klickenOk das weiß ich bei mir sieht es aber anders aus...
-
@saeft_2003
Bei meiner Cruxial sieht es auch anders aus:Beide Frage zieht auf Wearout = 3%
Hier mache ich mir Sorgen, ob die SSD nicht bald ausfällt.
-
@martybr sagte in ioBroker sehr hohe Diskwrites in Proxmox:
@saeft_2003
Hier war ja dieser Beitrag:
https://www.thomas-krenn.com/de/wiki/SMART_Attribute_von_Intel_SSDsDas heißt, der Wert sinkt von guten 100% auf 0%. Daher meine Rückfrage zum Austausch der SSD.
Vielleicht habe ich es auch total falsch verstanden?
Da steht folgendes:
Gibt die Anzahl der bisherigen Schreib-Lösch-Zyklen des NAND-Speichers an. Der normalisierte Wert sinkt linear von 100 bis auf 1, während die Zahl der durchschnittlichen Löschzyklen von 0 bis zum Nennwert für die Höchstzahl der Zyklen ansteigt. Nach dem Erreichen des normalisierten Werts 1 sinkt die Zahl nicht weiter, obwohl es wahrscheinlich ist, dass das Laufwerk auch noch deutlich höherer Abnutzung ausgesetzt werden könnte.
Dieser Wert ist bei mir auf 100 und bei wearout in der Übersicht zeigt mir proxmox 0% an.
-
-
Also ich deute das so, bin aber sicherlich kein Profi.
Vielleicht kann das jemand nochmal aufklären?
-
ich lass mal bei einer Platte
smartctl
laufen, dauert ca 80 min, mal vergleichen ob das übereinstimmt, mit dem, was in Proxmox angezeigt wird.Während dessen, auf die Suche nach Adapter bzw Scripten machen
Edit:
smartctl hat hat nichts besonderes ergeben und deckt sich mit der Ausgabe in Proxmox
-
@martybr sagte in ioBroker sehr hohe Diskwrites in Proxmox:
erstmal keine Sorgen machen.
spätestens wenn in der Spalte S.M.A.R.T was anderes als PASSED steht, solltest du dir Gedanken machen, bzw Handeln
-
@crunchip
Okay, danke. Ich werde trotzdem die SSD tauschen. Ich habe mir eine 1TB SSD bestellt. Die kommt dann in den Haupt-Node rein, die 500 GB geht dann in meinen zweiten Node.Meine Idee zum Wechsel:
Ich verschiebe die VMs auf den "Reserve"-Proxmox-Node.
Installation von Proxmox auf der freigewordenen Maschine
Beide Systeme wieder verknüpfen
Die VMs zurück schieben.Was meint ihr dazu? Kann das erfolgreich umgesetzt werden?