NEWS
[gelöst] Hilfe, IoBroker startet nach reboot nicht mehr
-
Hallo zusammen,
ich musste heute morgen wegen eines Festplattentausches das Selbstbau-NAS, auf dem auch IoBroker neben OMV läuft (nicht im Docker), neu starten.
Leider läuft seitdem IoBroker nicht mehr.
Die Statusabfrage ergibt folgendes:
christoph@nas:~$ sudo service iobroker status [sudo] Passwort für christoph: ● iobroker.service - ioBroker Server Loaded: loaded (/lib/systemd/system/iobroker.service; enabled; vendor preset: enabled) Active: inactive (dead) Docs: http://iobroker.net christoph@nas:~$
Beim Versuch, IoBroker über "sudo service ioBroker start" zu starten, rödelt er zwar ewig, aber es passiert nicht weiter und er kommt auch zu keinem Ende.
Die Abfrage "iobroker status" funktioniert gar nicht:
christoph@nas:/opt/iobroker$ iobroker status christoph@nas:/opt/iobroker$
Was kann ich tun?
Vor dem Reboot lief IoBroker einwandfrei und störungsfrei. -
Mach mal in / opt/iobroker ein
Iob fixUnd wenn das nicht hilft, ein
Iob diagUnd poste das Ergebnis hier bitte.
-
christoph@nas:/opt/iobroker$ iob fix christoph@nas:/opt/iobroker$ iob diag christoph@nas:/opt/iobroker$
Da tut sich garnichts.
Der Festplattentausch betraf übrigens nur den Raid-Verbund. IoBroker läuft auf einer gesonderten Platte.
Edit:
Ich bin morgen vormittag wieder hier.
Ich wünsche allen noch einen schönen Heiligabend. -
@christophh , wurde der Pi einfach mit Netztrennung gekillt oder vernünftig runtergefahren?
SD-Karte, SSD defekt? Eine bisschen mehr Input wären zum Vorteil.
In der Zeit hätte ich schon komplett neu aufgesetzt. -
Ist kein pi, siehe erster Beitrag, ich nehm an, das System hat sich irgendwie verbogen, mal n reboot tut bestimmt gut..
Er wird morgen mehr berichten… -
@ilovegym , oh ja, Danke.
-
Hallo zusammen,
hier jetzt die gewünschten Infos zum System:
Mainboard: MSI X570-A PRO
Prozessor: AMD Ryzen 7 5700G
RAM: 28 GbSystemplatte: M.2-SSD 32 Gb, 19 Gb frei, ca. 1 Jahr alt
Arbeitsplatte für Dateien, die häufig geändert werden: Hdd 14 Tb
Raid-Platten: Hdd 10x 4 Tb, OMV
Grundsystem: Debian 11 (da OMV unter Debian 12 noch nicht läuft)Das System wurde gestern morgen heruntergefahren, um eine der Raid-Platten zu tauschen, da vor einigen Tagen die Meldung kam, daß die Hot-Spare-Platte aktiviert wurde, also eine Platte ausgefallen war. Das kommt so 1-2 mal im Jahr vor, die Raid-Platten haben alle unterschiedliches Alter, um die Ausfallwahrscheinlichkeit mehrerer Platten gleichzeitig zu minimieren.
Die ausgefallene Platte wurde ausgetauscht und als neue Hot-Spare-Platte eingebunden.Nach dem Reboot hatte ich überprüft, ob alles wieder läuft und musste feststellen, daß IoBroker nicht gestartet war und sich auch nicht starten ließ.
Die Smart-Werte für die M.2, auf der auch IoBroker läuft, sind ok.
Die M.2 wurde mit smartctl überprüft, es wurden keine defekten Blöcke gefunden.
Ich denke, ein Laufwerksschaden kann ich also ausschließen.
Die getauschte Platte hatte ebenfalls nichts mit IoBroker zu tun, IoBroker greift auch nicht aufs Raid zu,Bis zum Herunterfahren zwecks Festplattentausch lief IoBroker einwandfrei und ist auch in der Vergangenheit nach Festplattentauschs immer einwandfrei gestartet.
Der Rechner wurde über die Shutdown-Funktion von OMV heruntergefahren, also nicht einfach ausgeschaltet.
Nachdem ich festgestellt hatte, daß IoBroker sich nicht starten ließ, habe ich den Rechner noch zweimal neu gestartet, leider ohne Besserung.Der Rechner wird alle 14 Tage Nachts automatisch rebootet. Auch Systemupdates laufen, sowit möglich, automatisch. Alle 1-2 Monate schaue ich nach, ob noch Updates offen sind, die nicht automatisch laufen können.
Natürlich könnte ich IoBroker einfach neu installieren.
Ich würde aber schon gerne wissen, was passiert ist, um so etwas in Zukunft vielleicht vermeiden zu können. Zumindest für die aktuelle Ursache,Falls noch weitere Infos benötigt werden, bitte einfach fragen.
Zu guter Letzt möchte ich mich bei euch bedanken, daß ihr, trotz der Feiertage, bereit seid mir zu helfen.
-
systemctl status iobroker
-
@thomas-braun said in Hilfe, IoBroker startet nach reboot nicht mehr:
systemctl status iobroker
christoph@nas:~$ systemctl status iobroker ● iobroker.service - ioBroker Server Loaded: loaded (/lib/systemd/system/iobroker.service; enabled; vendor preset: enabled) Active: inactive (dead) Docs: http://iobroker.net christoph@nas:~$
-
@christophh sagte in Hilfe, IoBroker startet nach reboot nicht mehr:
Ich würde aber schon gerne wissen, was passiert ist, um so etwas in Zukunft vielleicht vermeiden zu können. Zumindest für die aktuelle Ursache,
Das wird dir wohl keiner sagen können. Kann an mehreren Faktoren liegen. Selbst eine Spannungsschwankung könnte schon der Auslöser gewesen sein.
-
sudo systemctl start iobroker.service
-
@esp8266
Bei jedem Neustart die gleiche Spannungsschwankung, die dann auch später einen manuellen Start von IoBroker verhindert?
Ist mir schon klar, daß Spannungsschwankungen zu Fehlern führen können. Die sind dann aber in der Regel nicht unbedingt reproduzierbar. -
@christophh , so ist es. Wenn aus dem Netz die Schwankung kommt, bringt meistens Abhilfe eine UPs. Schon alleine das Netzteil von deinem genutzen Gerät kann am sterben sein. Wer weiß wie die Welligkeit inzwischen ist. Die Dinger laufen 24/7 nehme ich an.
...und beantworte bitte die Frage von @Thomas-Braun.
btw. ich bereibe auch ein NAS und zwar schon seit Jahren. Alles WD Red verbaut.....da ist noch nie eine von gestorben. Schon eigenartig, das eine Festplatte im Jahr immer bei dir hoch geht.
Wäre mir zu teuer mit der Zeit bei einer Platte von 8 TB. -
Vor über 10 Minuten gestartet, gerade eben abgebrochen, da sich nichts tat und die Status-Abfrage in einem zweiten Terminalfenster immer noch dead anzeigte.
@ESP8266
Ich hatte Thomas Braun noch nicht geantwortet, weil der Startversuch bis eben gerade lief und dann von mir abgebrochen wurde, da sich nichts tat.Das Netzteil ist ein Seasonic Focus GX 750W und gerade mal ein halbes Jahr alt, da das alte den Geist aufgegeben hatte.
Es würde mich wundern, wenn das schon nach einem halben Jahr defekt sein sollte. Ist kein NoName und auch kein Billig-Netzteil. -
Dann zieh das Diagnose-Skript wie in meiner Signatur zu sehen heran.
-
@esp8266 said in Hilfe, IoBroker startet nach reboot nicht mehr:
btw. ich bereibe auch ein NAS und zwar schon seit Jahren. Alles WD Red verbaut.....da ist noch nie eine von gestorben. Schon eigenartig, das eine Festplatte im Jahr immer bei dir hoch geht.Wäre mir zu teuer mit der Zeit bei einer Platte von 8 TB.
Ich betreibe das NAS jetzt seit über 15 Jahren. Es wurde im Laufe der Jahre nach Bedarf immer wieder erweitert.
Ich mache jetzt mal eine Rechnung auf:
Aktuell 10 Platten im Raid, 1-2 pro Jahr müssen getauscht werden, macht eine Lebensdauer von 5-10 Jahren pro Platte.
Da die nicht alle zeitgleich angeschafft wurden, sonden im Abstand von 6-12 Monaten, so wie erweitert bzw. Festplatte getauscht wurde, passt das schon.
Verbaut sind aktuell die Seagate Ironwolf - sprich NAS-Platten von Seagate.9 der 10 Platten sind zu einem Raid-6 zusammengeschlossen, die 10. ist jeweils als Hot-Spare konfiguriert.
-
======================= SUMMARY ======================= v.2023-10-10 Static hostname: nas Icon name: computer-desktop Chassis: desktop Operating System: Debian GNU/Linux 11 (bullseye) Kernel: Linux 6.1.0-0.deb11.13-amd64 Architecture: x86-64 Installation: native Kernel: x86_64 Userland: amd64 Timezone: Europe/Berlin (CET, +0100) User-ID: 1000 X-Server: false Boot Target: graphical.target Pending OS-Updates: 0 Pending iob updates: 0 Nodejs-Installation: /usr/bin/nodejs v18.19.0 /usr/bin/node v18.19.0 /usr/bin/npm 10.2.3 /usr/bin/npx 10.2.3 /usr/bin/corepack 0.22.0 Recommended versions are nodejs and npm Your nodejs installation is correct MEMORY: total used free shared buff/cache available Mem: 27G 1.0G 261M 4.0M 26G 26G Swap: 975M 11M 964M Total: 28G 1.0G 1.2G Active iob-Instances: 0 ioBroker Core: js-controller admin ioBroker Status: Status admin and web instance: Objects: 0 States: 0 Size of iob-Database: 51M /opt/iobroker/iobroker-data/objects.jsonl 17M /opt/iobroker/iobroker-data/states.jsonl =================== END OF SUMMARY ====================
-
-
@homoran
Gerne:Skript v.2023-10-10 *** BASE SYSTEM *** Static hostname: nas Icon name: computer-desktop Chassis: desktop Operating System: Debian GNU/Linux 11 (bullseye) Kernel: Linux 6.1.0-0.deb11.13-amd64 Architecture: x86-64 model name : AMD Ryzen 7 5700G with Radeon Graphics Docker : false Virtualization : none Kernel : x86_64 Userland : amd64 Systemuptime and Load: 13:31:23 up 22:04, 1 user, load average: 0.24, 0.16, 0.11 CPU threads: 16 *** Time and Time Zones *** Local time: Mon 2023-12-25 13:31:23 CET Universal time: Mon 2023-12-25 12:31:23 UTC RTC time: Mon 2023-12-25 12:31:23 Time zone: Europe/Berlin (CET, +0100) System clock synchronized: yes NTP service: active RTC in local TZ: no *** User and Groups *** christoph /srv/dev-disk-by-uuid-0cff48bc-8d9b-4ea1-87b6-cb420a6194c0/christoph users root daemon bin sys mail man sudo backup src input crontab ssh clamav qbittorrent-nox openmediavault-notify openmediavault-webgui openmediavault-admin openmediavault-engined openmediavault-config iobroker christoph nogroup *** X-Server-Setup *** X-Server: false Desktop: Terminal: Boot Target: graphical.target *** MEMORY *** total used free shared buff/cache available Mem: 27G 1.0G 224M 4.0M 26G 26G Swap: 975M 11M 964M Total: 28G 1.0G 1.2G 27946 M total memory 1004 M used memory 1652 M active memory 24349 M inactive memory 223 M free memory 663 M buffer memory 26055 M swap cache 975 M total swap 11 M used swap 964 M free swap *** FAILED SERVICES *** UNIT LOAD ACTIVE SUB DESCRIPTION 0 loaded units listed. *** FILESYSTEM *** Filesystem Type Size Used Avail Use% Mounted on udev devtmpfs 14G 0 14G 0% /dev tmpfs tmpfs 2.8G 1.1M 2.8G 1% /run /dev/sdb2 ext4 28G 7.7G 19G 29% / tmpfs tmpfs 14G 0 14G 0% /dev/shm tmpfs tmpfs 5.0M 0 5.0M 0% /run/lock tmpfs tmpfs 14G 0 14G 0% /tmp /dev/sda1 ext4 13T 1.4T 12T 11% /export/AllesTorrents /dev/sdb1 vfat 511M 152K 511M 1% /boot/efi /dev/md0 btrfs 22T 17T 5.4T 76% /export/AllesNAS /dev/md0 btrfs 22T 17T 5.4T 76% /export/Filme Messages concerning ext4 filesystem in dmesg: [sudo] password for christoph: [Sun Dec 24 15:26:42 2023] EXT4-fs (sdb2): mounted filesystem with ordered data mode. Quota mode: none. [Sun Dec 24 15:26:42 2023] EXT4-fs (sdb2): re-mounted. Quota mode: none. [Sun Dec 24 15:26:43 2023] EXT4-fs (sda1): mounted filesystem with ordered data mode. Quota mode: journalled. Show mounted filesystems \(real ones only\): TARGET SOURCE FSTYPE OPTIONS / /dev/sdb2 ext4 rw,relatime,errors=remount-ro |-/srv/dev-disk-by-uuid-0cff48bc-8d9b-4ea1-87b6-cb420a6194c0 | /dev/sda1 ext4 rw,relatime,jqfmt=vfsv0,usrjquota=aquota.user,grpjquota=aquota.group |-/export/AllesTorrents /dev/sda1 ext4 rw,relatime,jqfmt=vfsv0,usrjquota=aquota.user,grpjquota=aquota.group |-/boot/efi /dev/sdb1 vfat rw,relatime,fmask=0077,dmask=0077,codepage=437,iocharset=ascii,shortname=mixed,utf8,er |-/export/AllesNAS /dev/md0 btrfs rw,relatime,space_cache,subvolid=5,subvol=/ |-/srv/dev-disk-by-uuid-21c83eb5-90ea-43e1-a71b-a31d1e29b79a | /dev/md0 btrfs rw,relatime,space_cache,subvolid=5,subvol=/ |-/export/Filme /dev/md0[/NAS/Medien/Filme] btrfs rw,relatime,space_cache,subvolid=257,subvol=/NAS |-/export/Filmsammlungen /dev/md0[/NAS/Medien/Filmsammlungen] btrfs rw,relatime,space_cache,subvolid=257,subvol=/NAS |-/export/Serien /dev/md0[/NAS/Medien/Serien] btrfs rw,relatime,space_cache,subvolid=257,subvol=/NAS `-/export/Weihnachtsfilme /dev/md0[/NAS/Medien/Weihnachtsfilme] btrfs rw,relatime,space_cache,subvolid=257,subvol=/NAS Files in neuralgic directories: /var: 1.9G /var/ 1.5G /var/log 1.4G /var/log/journal/104e3bac8cdd4bebbd38c61f89b56acb 1.4G /var/log/journal 259M /var/cache Hint: You are currently not seeing messages from other users and the system. Users in groups 'adm', 'systemd-journal' can see all messages. Pass -q to turn off this notice. Archived and active journals take up 112.0M in the file system. /opt/iobroker/backups: 4.0K /opt/iobroker/backups/ /opt/iobroker/iobroker-data: 529M /opt/iobroker/iobroker-data/ 275M /opt/iobroker/iobroker-data/files 104M /opt/iobroker/iobroker-data/node-red 91M /opt/iobroker/iobroker-data/node-red/node_modules 84M /opt/iobroker/iobroker-data/backup-objects The five largest files in iobroker-data are: 51M /opt/iobroker/iobroker-data/objects.jsonl 35M /opt/iobroker/iobroker-data/files/devices.admin/static/js/main.24f2bb56.js.map 21M /opt/iobroker/iobroker-data/files/web.admin/static/js/main.aaea95f8.js.map 17M /opt/iobroker/iobroker-data/states.jsonl 11M /opt/iobroker/iobroker-data/node-red/paramsets.json USB-Devices by-id: USB-Sticks - Avoid direct links to /dev/* in your adapter setups, please always prefer the links 'by-id': find: '/dev/serial/by-id/': No such file or directory *** NodeJS-Installation *** /usr/bin/nodejs v18.19.0 /usr/bin/node v18.19.0 /usr/bin/npm 10.2.3 /usr/bin/npx 10.2.3 /usr/bin/corepack 0.22.0 nodejs: Installed: 18.19.0-1nodesource1 Candidate: 18.19.0-1nodesource1 Version table: *** 18.19.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 100 /var/lib/dpkg/status 18.18.2-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.18.1-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.18.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.17.1-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.17.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.16.1-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.16.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.15.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.14.2-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.14.1-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.14.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.13.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.12.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.11.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.10.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.9.1-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.9.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.8.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.7.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.6.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.5.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.4.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.3.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.2.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.1.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 18.0.0-1nodesource1 500 500 https://deb.nodesource.com/node_18.x nodistro/main amd64 Packages 12.22.12~dfsg-1~deb11u4 500 500 http://ftp.de.debian.org/debian bullseye/main amd64 Packages 500 http://security.debian.org/debian-security bullseye-security/main amd64 Packages Temp directories causing npm8 problem: 0 No problems detected Errors in npm tree: *** ioBroker-Installation *** ioBroker Status Core adapters versions js-controller: admin: javascript: Adapters from github: 1 Adapter State Enabled adapters with bindings ioBroker-Repositories Installed ioBroker-Instances Objects and States Please stand by - This may take a while Objects: 0 States: 0 *** OS-Repositories and Updates *** Get:1 file:/var/cache/openmediavault/archives InRelease Ign:1 file:/var/cache/openmediavault/archives InRelease Get:2 file:/var/cache/openmediavault/archives Release Ign:2 file:/var/cache/openmediavault/archives Release Get:3 file:/var/cache/openmediavault/archives Packages Ign:3 file:/var/cache/openmediavault/archives Packages Get:4 file:/var/cache/openmediavault/archives Translation-de Ign:4 file:/var/cache/openmediavault/archives Translation-de Get:5 file:/var/cache/openmediavault/archives Translation-en Ign:5 file:/var/cache/openmediavault/archives Translation-en Get:6 file:/var/cache/openmediavault/archives Translation-de_DE Ign:6 file:/var/cache/openmediavault/archives Translation-de_DE Get:3 file:/var/cache/openmediavault/archives Packages Ign:3 file:/var/cache/openmediavault/archives Packages Get:4 file:/var/cache/openmediavault/archives Translation-de Ign:4 file:/var/cache/openmediavault/archives Translation-de Get:5 file:/var/cache/openmediavault/archives Translation-en Ign:5 file:/var/cache/openmediavault/archives Translation-en Get:6 file:/var/cache/openmediavault/archives Translation-de_DE Ign:6 file:/var/cache/openmediavault/archives Translation-de_DE Get:3 file:/var/cache/openmediavault/archives Packages Ign:3 file:/var/cache/openmediavault/archives Packages Get:4 file:/var/cache/openmediavault/archives Translation-de Ign:4 file:/var/cache/openmediavault/archives Translation-de Get:5 file:/var/cache/openmediavault/archives Translation-en Ign:5 file:/var/cache/openmediavault/archives Translation-en Get:6 file:/var/cache/openmediavault/archives Translation-de_DE Ign:6 file:/var/cache/openmediavault/archives Translation-de_DE Get:3 file:/var/cache/openmediavault/archives Packages Ign:3 file:/var/cache/openmediavault/archives Packages Get:4 file:/var/cache/openmediavault/archives Translation-de Ign:4 file:/var/cache/openmediavault/archives Translation-de Get:5 file:/var/cache/openmediavault/archives Translation-en Ign:5 file:/var/cache/openmediavault/archives Translation-en Get:6 file:/var/cache/openmediavault/archives Translation-de_DE Ign:6 file:/var/cache/openmediavault/archives Translation-de_DE Get:3 file:/var/cache/openmediavault/archives Packages Ign:3 file:/var/cache/openmediavault/archives Packages Get:4 file:/var/cache/openmediavault/archives Translation-de Ign:4 file:/var/cache/openmediavault/archives Translation-de Get:5 file:/var/cache/openmediavault/archives Translation-en Ign:5 file:/var/cache/openmediavault/archives Translation-en Get:6 file:/var/cache/openmediavault/archives Translation-de_DE Ign:6 file:/var/cache/openmediavault/archives Translation-de_DE Get:3 file:/var/cache/openmediavault/archives Packages Ign:3 file:/var/cache/openmediavault/archives Packages Get:4 file:/var/cache/openmediavault/archives Translation-de Ign:4 file:/var/cache/openmediavault/archives Translation-de Get:5 file:/var/cache/openmediavault/archives Translation-en Ign:5 file:/var/cache/openmediavault/archives Translation-en Get:6 file:/var/cache/openmediavault/archives Translation-de_DE Ign:6 file:/var/cache/openmediavault/archives Translation-de_DE Get:3 file:/var/cache/openmediavault/archives Packages Get:4 file:/var/cache/openmediavault/archives Translation-de Ign:4 file:/var/cache/openmediavault/archives Translation-de Get:5 file:/var/cache/openmediavault/archives Translation-en Ign:5 file:/var/cache/openmediavault/archives Translation-en Get:6 file:/var/cache/openmediavault/archives Translation-de_DE Ign:6 file:/var/cache/openmediavault/archives Translation-de_DE Hit:7 http://packages.openmediavault.org/public shaitan InRelease Hit:8 http://httpredir.debian.org/debian bullseye-backports InRelease Hit:9 http://security.debian.org/debian-security bullseye-security InRelease Hit:10 http://ftp.de.debian.org/debian bullseye InRelease Hit:11 http://ftp.de.debian.org/debian bullseye-updates InRelease Hit:12 https://openmediavault.github.io/packages shaitan InRelease Hit:13 https://deb.nodesource.com/node_18.x nodistro InRelease Reading package lists... Done Pending Updates: 0 *** Listening Ports *** Active Internet connections (only servers) Proto Recv-Q Send-Q Local Address Foreign Address State User Inode PID/Program name tcp 0 0 0.0.0.0:111 0.0.0.0:* LISTEN 0 20438 1/init tcp 0 0 0.0.0.0:80 0.0.0.0:* LISTEN 0 18690 3385/nginx: master tcp 0 0 0.0.0.0:23 0.0.0.0:* LISTEN 0 28466 3522/inetd tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN 0 31109 3375/sshd: /usr/sbi tcp 0 0 0.0.0.0:1883 0.0.0.0:* LISTEN 114 28389 3363/mosquitto tcp 0 0 0.0.0.0:2049 0.0.0.0:* LISTEN 0 17714 - tcp 0 0 0.0.0.0:35339 0.0.0.0:* LISTEN 0 17734 - tcp 0 0 127.0.0.53:53 0.0.0.0:* LISTEN 102 32199 3257/systemd-resolv tcp 0 0 192.168.178.7:51000 0.0.0.0:* LISTEN 113 31469 3381/qbittorrent-no tcp 0 0 0.0.0.0:5355 0.0.0.0:* LISTEN 102 32193 3257/systemd-resolv tcp 0 0 0.0.0.0:56327 0.0.0.0:* LISTEN 110 28358 3364/rpc.statd tcp 0 0 127.0.0.1:25 0.0.0.0:* LISTEN 0 15707 3685/master tcp 0 0 127.0.0.1:51000 0.0.0.0:* LISTEN 113 23960 3381/qbittorrent-no tcp 0 0 0.0.0.0:45189 0.0.0.0:* LISTEN 0 16886 3365/rpc.mountd tcp6 0 0 :::111 :::* LISTEN 0 20441 1/init tcp6 0 0 :::22 :::* LISTEN 0 31111 3375/sshd: /usr/sbi tcp6 0 0 :::1883 :::* LISTEN 114 28390 3363/mosquitto tcp6 0 0 :::2049 :::* LISTEN 0 17725 - tcp6 0 0 :::54121 :::* LISTEN 0 16890 3365/rpc.mountd tcp6 0 0 :::5355 :::* LISTEN 102 32196 3257/systemd-resolv tcp6 0 0 :::38463 :::* LISTEN 0 17736 - tcp6 0 0 :::8282 :::* LISTEN 113 31121 3381/qbittorrent-no tcp6 0 0 ::1:51000 :::* LISTEN 113 23963 3381/qbittorrent-no tcp6 0 0 :::46167 :::* LISTEN 110 28362 3364/rpc.statd udp 0 0 0.0.0.0:59046 0.0.0.0:* 0 16884 3365/rpc.mountd udp 0 0 127.0.0.53:53 0.0.0.0:* 102 32198 3257/systemd-resolv udp 0 0 192.168.178.7:68 0.0.0.0:* 101 22202 496/systemd-network udp 0 0 0.0.0.0:111 0.0.0.0:* 0 16601 1/init udp 0 0 127.0.0.1:323 0.0.0.0:* 0 15579 3367/chronyd udp 0 0 127.0.0.1:996 0.0.0.0:* 0 28347 3364/rpc.statd udp 0 0 0.0.0.0:50747 0.0.0.0:* 110 28356 3364/rpc.statd udp 0 768 192.168.178.7:51000 0.0.0.0:* 113 31470 3381/qbittorrent-no udp 0 0 127.0.0.1:51000 0.0.0.0:* 113 23961 3381/qbittorrent-no udp 0 0 0.0.0.0:2049 0.0.0.0:* 0 17724 - udp 0 0 0.0.0.0:36420 0.0.0.0:* 111 22916 3265/avahi-daemon: udp 0 0 0.0.0.0:5353 0.0.0.0:* 111 22914 3265/avahi-daemon: udp 0 0 0.0.0.0:5355 0.0.0.0:* 102 32192 3257/systemd-resolv udp 0 0 0.0.0.0:40391 0.0.0.0:* 0 17733 - udp6 0 0 :::45101 :::* 0 16888 3365/rpc.mountd udp6 0 0 :::111 :::* 0 20919 1/init udp6 0 0 ::1:323 :::* 0 15580 3367/chronyd udp6 0 0 ::1:51000 :::* 113 23964 3381/qbittorrent-no udp6 0 0 :::2049 :::* 0 17726 - udp6 0 0 :::53917 :::* 0 17735 - udp6 0 0 :::5353 :::* 111 22915 3265/avahi-daemon: udp6 0 0 :::5355 :::* 102 32195 3257/systemd-resolv udp6 0 0 :::38581 :::* 110 28360 3364/rpc.statd udp6 0 0 :::57184 :::* 111 22917 3265/avahi-daemon: *** Log File - Last 25 Lines *** 2023-12-24 15:10:09.001 - info: host.nas stopInstance system.adapter.scenes.0 killing pid 921151 2023-12-24 15:10:09.001 - info: host.nas stopInstance system.adapter.hm-rpc.0 killing pid 175368 2023-12-24 15:10:09.001 - info: host.nas stopInstance system.adapter.mqtt.0 killing pid 921495 2023-12-24 15:10:09.001 - info: host.nas stopInstance system.adapter.tr-064.0 killing pid 921521 2023-12-24 15:10:09.001 - info: host.nas stopInstance system.adapter.discovery.0 killing pid 921575 2023-12-24 15:10:09.001 - info: host.nas stopInstance system.adapter.fritzdect.0 killing pid 2339124 2023-12-24 15:10:09.001 - info: host.nas stopInstance system.adapter.bwt.0 killing pid 922427 2023-12-24 15:10:09.001 - info: host.nas stopInstance system.adapter.parser.0 killing pid 922477 2023-12-24 15:10:09.001 - info: host.nas stopInstance system.adapter.vis-inventwo.0 killing pid 922628 2023-12-24 15:10:09.058 - info: host.nas instance system.adapter.hm-rega.0 terminated with code 0 (NO_ERROR) 2023-12-24 15:10:09.058 - info: host.nas instance system.adapter.hm-rpc.1 terminated with code 0 (NO_ERROR) 2023-12-24 15:10:09.163 - info: host.nas instance system.adapter.email.0 terminated with code 0 (NO_ERROR) 2023-12-24 15:10:09.163 - info: host.nas instance system.adapter.mqtt.0 terminated with code 0 (NO_ERROR) 2023-12-24 15:10:09.163 - info: host.nas instance system.adapter.bwt.0 terminated with code 0 (NO_ERROR) 2023-12-24 15:10:09.163 - warn: host.nas instance system.adapter.parser.0 terminated due to SIGTERM 2023-12-24 15:10:09.163 - info: host.nas instance system.adapter.parser.0 terminated with code null () 2023-12-24 15:10:09.191 - info: host.nas instance system.adapter.discovery.0 terminated with code 0 (NO_ERROR) 2023-12-24 15:10:09.345 - info: host.nas instance system.adapter.scenes.0 terminated with code 0 (NO_ERROR) 2023-12-24 15:10:09.345 - info: host.nas instance system.adapter.tr-064.0 terminated with code 0 (NO_ERROR) 2023-12-24 15:10:09.345 - info: host.nas instance system.adapter.vis-inventwo.0 terminated with code 0 (NO_ERROR) 2023-12-24 15:10:09.345 - info: host.nas instance system.adapter.fritzdect.0 terminated with code 0 (NO_ERROR) 2023-12-24 15:10:09.345 - info: host.nas instance system.adapter.hm-rpc.0 terminated with code 0 (NO_ERROR) 2023-12-24 15:10:09.422 - info: host.nas instance system.adapter.node-red.0 terminated with code 0 (NO_ERROR) 2023-12-24 15:10:09.422 - info: host.nas All instances are stopped. 2023-12-24 15:10:09.569 - info: host.nas terminated
-
Nur kurz zur Info:
Wir haben für heute Nachmittag Karten für den Zirkus Flic Flac und müssen gleich los.
Ich melde mich dann nachher wieder, wenn wir wieder da sind.