NEWS
Fehlermeldung: No connection to states 0.0.0.0:6379[redis]
-
Hallöchen,
irgendwas hakt bei mir. Nachdem meine Zigbee Instanz nicht mehr lief, habe ich die Proxmox VM neu gestartet.
iob status No connection to states 0.0.0.0:6379[redis]
Seitdem hilft mir mein Wissen nicht mehr weiter.
Der iob fix bringt
OK:1 http://deb.debian.org/debian bullseye InRelease OK:2 http://security.debian.org/debian-security bullseye-security InRelease OK:3 http://deb.debian.org/debian bullseye-updates InRelease Fehl:1 http://deb.debian.org/debian bullseye InRelease Splitting up /var/lib/apt/lists/deb.debian.org_debian_dists_bullseye_InRelease into data and signature failed Fehl:2 http://security.debian.org/debian-security bullseye-security InRelease Splitting up /var/lib/apt/lists/security.debian.org_debian-security_dists_bull seye-security_InRelease into data and signature failed Fehl:3 http://deb.debian.org/debian bullseye-updates InRelease Splitting up /var/lib/apt/lists/deb.debian.org_debian_dists_bullseye-updates_I nRelease into data and signature failed Holen:4 https://dl.yarnpkg.com/debian stable InRelease [17,1 kB] Fehl:4 https://dl.yarnpkg.com/debian stable InRelease Fehler beim Schreiben in Datei - write (28: Auf dem Gerät ist kein Speicherpla tz mehr verfügbar) [IP: 2606:4700::6810:a978 443] OK:5 https://deb.nodesource.com/node_18.x nodistro InRelease Fehl:5 https://deb.nodesource.com/node_18.x nodistro InRelease Splitting up /var/lib/apt/lists/deb.nodesource.com_node%5f18.x_dists_nodistro_ InRelease into data and signature failed Paketlisten werden gelesen… Fertig W: Während der Überprüfung der Signatur trat ein Fehler auf. Das Depot wurde nic ht aktualisiert und die vorherigen Indexdateien werden verwendet. GPG-Fehler: ht tp://deb.debian.org/debian bullseye InRelease: Splitting up /var/lib/apt/lists/d eb.debian.org_debian_dists_bullseye_InRelease into data and signature failed W: Während der Überprüfung der Signatur trat ein Fehler auf. Das Depot wurde nic ht aktualisiert und die vorherigen Indexdateien werden verwendet. GPG-Fehler: ht tp://security.debian.org/debian-security bullseye-security InRelease: Splitting up /var/lib/apt/lists/security.debian.org_debian-security_dists_bullseye-securit y_InRelease into data and signature failed W: Während der Überprüfung der Signatur trat ein Fehler auf. Das Depot wurde nic ht aktualisiert und die vorherigen Indexdateien werden verwendet. GPG-Fehler: ht tp://deb.debian.org/debian bullseye-updates InRelease: Splitting up /var/lib/apt /lists/deb.debian.org_debian_dists_bullseye-updates_InRelease into data and sign ature failed W: Während der Überprüfung der Signatur trat ein Fehler auf. Das Depot wurde nic ht aktualisiert und die vorherigen Indexdateien werden verwendet. GPG-Fehler: ht tps://deb.nodesource.com/node_18.x nodistro InRelease: Splitting up /var/lib/apt /lists/deb.nodesource.com_node%5f18.x_dists_nodistro_InRelease into data and sig nature failed W: Fehlschlag beim Holen von http://deb.debian.org/debian/dists/bullseye/InRelea se Splitting up /var/lib/apt/lists/deb.debian.org_debian_dists_bullseye_InReleas e into data and signature failed W: Fehlschlag beim Holen von http://security.debian.org/debian-security/dists/bu llseye-security/InRelease Splitting up /var/lib/apt/lists/security.debian.org_de bian-security_dists_bullseye-security_InRelease into data and signature failed W: Fehlschlag beim Holen von http://deb.debian.org/debian/dists/bullseye-updates /InRelease Splitting up /var/lib/apt/lists/deb.debian.org_debian_dists_bullseye- updates_InRelease into data and signature failed W: Fehlschlag beim Holen von https://deb.nodesource.com/node_18.x/dists/nodistro /InRelease Splitting up /var/lib/apt/lists/deb.nodesource.com_node%5f18.x_dists_ nodistro_InRelease into data and signature failed W: Fehlschlag beim Holen von https://dl.yarnpkg.com/debian/dists/stable/InReleas e Fehler beim Schreiben in Datei - write (28: Auf dem Gerät ist kein Speicherpla tz mehr verfügbar) [IP: 2606:4700::6810:a978 443] W: Einige Indexdateien konnten nicht heruntergeladen werden. Sie wurden ignorier t oder alte an ihrer Stelle benutzt.
und im Schritt 5:
Database maintenance (4/5) ========================================================================== Checking for uncompressed JSONL databases... This might take a while! npm error code ENOSPC npm error syscall write npm error errno -28 npm error nospc ENOSPC: no space left on device, write npm error nospc There appears to be insufficient space on your system to finish. npm error nospc Clear up some disk space and try again. npm error A complete log of this run can be found in: /home/iobroker/.npm/_logs/2024-05-26T13_05_46_769Z-debug-0.log
Der fehlende Speicher schein das Problem zu sein, richtig?
Habt ihr einen Tipp, wo ich bzw. wie ich entweder mehr Speicher für die VM erzeugen kann oder wo ich etwas löschen kann?
-
@kiste01 komplette Ausgabe von
iob diag
Dann sieht man ob ggf etwas gelöscht werden kann.
Andernfalls kannst du mittels live-cd die VM vergrößern
https://beyond.lol/disk-einer-vm-vergroessern-in-proxmox/?amp=1 -
@crunchip sagte in Fehlermeldung: No connection to states 0.0.0.0:6379[redis]:
iob diag
da passiert nix
pi@iobroker:~$ iob diag pi@iobroker:~$
-
Ohne ein wenig Speicherplatz siehst du da nix
-
-
Scheint komplett voll zu sein
pi@iobroker:~$ sudo -Hu iobroker npm cache clean --force [sudo] Passwort für pi: npm error code ENOSPC npm error syscall write npm error errno -28 npm error nospc ENOSPC: no space left on device, write npm error nospc There appears to be insufficient space on your system to finish. npm error nospc Clear up some disk space and try again. npm error A complete log of this run can be found in: /home/iobroker/.npm/_logs/2024-05-26T13_47_49_752Z-debug-0.log
-
@kiste01 zufällig irgendwelche cam Bildchen, oder Backups auf der VM liegen, die gelöscht werden können?
-
df -h sudo apt-get clean df -h
-
@thomas-braun wird das ausgeführt? Dann sollte doch auch das Löschen des Cache funktionieren
-
Der root darf das.
-
df -h Dateisystem Größe Benutzt Verf. Verw% Eingehängt auf udev 3,9G 0 3,9G 0% /dev tmpfs 795M 524K 794M 1% /run /dev/sda1 8,9G 8,0G 396M 96% / tmpfs 3,9G 0 3,9G 0% /dev/shm tmpfs 5,0M 0 5,0M 0% /run/lock tmpfs 795M 0 795M 0% /run/user/1000 pi@iobroker:~$ sudo apt-get clean pi@iobroker:~$ df -h Dateisystem Größe Benutzt Verf. Verw% Eingehängt auf udev 3,9G 0 3,9G 0% /dev tmpfs 795M 524K 794M 1% /run /dev/sda1 8,9G 8,0G 396M 96% / tmpfs 3,9G 0 3,9G 0% /dev/shm tmpfs 5,0M 0 5,0M 0% /run/lock tmpfs 795M 0 795M 0% /run/user/1000
pi@iobroker:~$ sudo -Hu iobroker npm cache clean --force npm warn using --force Recommended protections disabled.
Der iob fix läuft danach zumindest wieder durch, aber
iob status No connection to states 0.0.0.0:6379[redis]
-
Auf der VM liegt nur der iobroker. Bildchen dürften nicht da sein und backups nur die vom backitup
-
@kiste01 sagte in Fehlermeldung: No connection to states 0.0.0.0:6379[redis]:
backups nur die vom backitup
Backups auf der gleichen Maschine sind auch nur bedingt sinnvoll...
Mitsudo ncdu /
findest du die 'dicken Hunde'.
ncdu
ggfls. noch nachinstallieren. -
ich habe die lokalen backup's (noch) nicht deaktiviert. Die sinnvollen backups liegen auf dem NAS und einem cloud-speicher
-
@kiste01 sagte in Fehlermeldung: No connection to states 0.0.0.0:6379[redis]:
Die sinnvollen backups liegen auf dem NAS
Dann würde ich das NAS per NFS oder SMB einbinden. Dann hast du da gar keine Backups mehr lokal im Dateisystem herumliegen.
-
Ok
Hab was gefunden unter
iobroker-data/backup-objects
da sind 24 Dateien von den letzten drei Tagen mit insg. 181 MB
kann ich da was "einfach" löschen?
-
Das NAS ist ist per SMB eingebunden
-
Magere 181MB retten dich nicht.
Ich vermute, da gibt es noch 'lohnendere' Ziele. -
bitte nicht auslachen ...
Hab nen Ordner gefunden
var/log/journal
und versuche per winscp dort was zu löschen. Angemeldet bin ich dort mit pi als Nutzer. Mit welchem Nutzer müsste ich mich anmelden, damit ich ausreichende Rechte zum Löschen habe? -
@kiste01 sagte in Fehlermeldung: No connection to states 0.0.0.0:6379[redis]:
Mit welchem Nutzer müsste ich mich anmelden, damit ich ausreichende Rechte zum Löschen habe?
Mit gar keinem. Die journals löscht man auch nicht per winscp oder sowas.
ls -lah /var/log/journal
sagt?