NEWS
[gelöst] Täglicher Absturz vom ioBroker / Tinkerboard
-
@meicker sagte
2712 root 20 0 270140 56176 4072 S 0,3 2,7 1:27.18 java
Wofür wird Java benötigt?
Sortiere top mal nach Speicherverbrauch mittels Shift-m (großes M). -
-
@homoran sagte: piVCCU
Das läuft doch in einem Container. Java nicht?
-
@paul53 sagte in Fast täglicher Absturz:
Das läuft doch in einem Container. Java nicht?
das müssten wir Alex fragen.
Bei mir auf dem Tinker mit nur piVCCUpi@tinkerboard:~$ top | grep java 31791 root 20 0 293524 119068 11252 S 0.7 5.8 463:58.46 java 31791 root 20 0 293524 119068 11252 S 2.6 5.8 463:58.54 java 31791 root 20 0 293524 119068 11252 S 2.3 5.8 463:58.61 java 31791 root 20 0 293524 119068 11252 S 0.4 5.8 463:58.62 java 31791 root 20 0 293524 119068 11252 S 0.7 5.8 463:58.64 java 31791 root 20 0 293524 119068 11252 S 0.3 5.8 463:58.65 java 31791 root 20 0 293524 119068 11252 S 1.6 5.8 463:58.70 java 31791 root 20 0 293524 119068 11252 S 0.3 5.8 463:58.71 java 31791 root 20 0 293524 119068 11252 S 4.0 5.8 463:58.83 java 31791 root 20 0 293524 119068 11252 S 0.7 5.8 463:58.85 java 31791 root 20 0 293524 119068 11252 S 5.9 5.8 463:59.03 java 31791 root 20 0 293524 119068 11252 S 6.0 5.8 463:59.21 java 31791 root 20 0 293524 119068 11252 S 2.0 5.8 463:59.27 java 31791 root 20 0 293524 119068 11252 S 3.6 5.8 463:59.38 java 31791 root 20 0 293524 119068 11252 S 2.6 5.8 463:59.46 java 31791 root 20 0 293524 119068 11252 S 1.0 5.8 463:59.49 java 31791 root 20 0 293524 119068 11252 S 12.2 5.8 463:59.86 java 31791 root 20 0 293524 119068 11252 S 1.0 5.8 463:59.89 java 31791 root 20 0 293524 119068 11252 S 1.7 5.8 463:59.94 java 31791 root 20 0 293524 119068 11252 S 1.3 5.8 463:59.98 java 31791 root 20 0 293524 119068 11252 S 1.3 5.8 464:00.02 java 31791 root 20 0 293524 119068 11252 S 1.7 5.8 464:00.07 java 31791 root 20 0 293524 119068 11252 S 2.0 5.8 464:00.13 java 31791 root 20 0 293524 119068 11252 S 0.7 5.8 464:00.15 java 31791 root 20 0 293524 119068 11252 S 1.7 5.8 464:00.20 java
-
@homoran sagte: Bei mir auf dem Tinker mit nur piVCCU
Dann ist es bei Containern offenbar anders als bei VM. Ich verwende keine Container.
-
@paul53 sagte in Fast täglicher Absturz:
Ich verwende keine Container.
ich auch nicht wenn ich mich selber drum kümmern muss.
Nur bei piVCCU und den Vorgängern YAHM und lxCCU - und dort absolut problemlos -
@homoran sagte in Fast täglicher Absturz:
Wie groß ist das Backup denn?
ioBroker 7 MB
mysql 60MB
redis 2.2@paul53 sagte in Fast täglicher Absturz:
Wofür wird Java benötigt?
Sortiere top mal nach Speicherverbrauch mittels Shift-m (großes M).top - 23:09:08 up 4:34, 1 user, load average: 0,95, 0,76, 0,78 Tasks: 181 total, 1 running, 180 sleeping, 0 stopped, 0 zombie %CPU(s): 4,4 us, 1,2 sy, 0,0 ni, 94,0 id, 0,0 wa, 0,0 hi, 0,4 si, 0,0 st MiB Spch: 2000,5 total, 198,1 free, 1589,7 used, 212,8 buff/cache MiB Swap: 1000,2 total, 572,7 free, 427,5 used. 468,6 avail Spch PID USER PR NI VIRT RES SHR S %CPU %MEM ZEIT+ BEFEHL 1099 iobroker 20 0 368572 239080 14096 S 2,3 11,7 45:39.06 iobroker.js-con 2477 iobroker 20 0 345216 158468 10848 S 3,3 7,7 54:32.48 io.javascript.0 2126 iobroker 20 0 224764 92916 14344 S 1,3 4,5 4:32.67 io.admin.0 3015 iobroker 20 0 198508 65932 12380 S 0,0 3,2 22:01.88 io.hue-extended 3142 iobroker 20 0 242968 63408 11212 S 0,0 3,1 0:37.85 io.systeminfo.0 3182 iobroker 20 0 235388 62084 10628 S 0,0 3,0 1:06.33 io.tinker.0 21500 iobroker 20 0 172820 61408 27872 S 0,0 3,0 0:14.13 io.hm-rega.0 3034 iobroker 20 0 198076 59560 10920 S 4,0 2,9 17:30.33 io.homepilot20. 3035 iobroker 20 0 190384 57332 14856 S 0,0 2,8 2:42.40 io.info.0 2712 root 20 0 270300 57216 4620 S 0,7 2,8 2:22.69 java 3009 iobroker 20 0 194816 55640 13316 S 0,0 2,7 3:25.56 io.melcloud.0 2505 iobroker 20 0 209124 53648 11660 S 0,7 2,6 3:13.26 io.sql.0 2668 iobroker 20 0 199924 49156 14700 S 0,0 2,4 1:51.79 io.telegram.0 3372 iobroker 20 0 187840 43444 13236 S 0,0 2,1 0:58.46 io.alexa2.0 2497 iobroker 20 0 181776 41576 10852 S 1,3 2,0 2:44.54 io.tr-064.0 27398 iobroker 20 0 175296 41344 14556 S 0,0 2,0 0:16.07 io.nuki-extende 3252 iobroker 20 0 185924 41112 12028 S 0,3 2,0 2:05.41 io.yahka.0 3007 iobroker 20 0 183132 40404 10444 S 0,3 2,0 0:54.15 io.hm-rpc.0 2973 root 10 -10 144112 38508 7332 S 0,0 1,9 0:12.78 node 3212 iobroker 20 0 179796 38144 10764 S 0,0 1,9 0:36.31 io.upnp.0 3088 iobroker 20 0 191916 38044 11332 S 0,0 1,9 2:20.57 io.statistics.0 3322 iobroker 20 0 190048 29872 10304 S 0,3 1,5 0:26.85 io.iot.0 3343 iobroker 20 0 174480 28868 10356 S 0,0 1,4 0:16.58 io.cloud.0 3241 iobroker 20 0 174732 26960 10264 S 0,0 1,3 0:16.33 io.web.0 2490 iobroker 20 0 177980 23772 10388 S 0,7 1,2 0:16.98 io.backitup.0 3149 iobroker 20 0 169516 22300 10132 S 0,0 1,1 0:14.38 io.terminal.0 2661 iobroker 20 0 168552 22212 10208 S 0,0 1,1 0:14.69 io.discovery.0 3054 iobroker 20 0 169536 21980 10160 S 0,3 1,1 0:15.29 io.simple-api.0 3075 iobroker 20 0 170576 21964 10240 S 0,0 1,1 0:14.41 io.socketio.0 2483 iobroker 20 0 170780 21240 10176 S 0,0 1,0 0:15.76 io.scenes.0 2722 iobroker 20 0 166124 21224 10132 S 0,3 1,0 0:14.64 io.geofency.0 2766 iobroker 20 0 168760 20872 10208 S 0,0 1,0 0:19.43 io.harmony.0 3162 iobroker 20 0 169200 20068 10148 S 0,0 1,0 0:15.24 io.text2command 914 redis 20 0 67708 11252 1920 S 7,0 0,5 24:08.50 redis-server 677 root 20 0 56268 6296 4924 S 0,0 0,3 0:12.33 NetworkManager 11508 root 20 0 12100 5996 5108 S 0,0 0,3 0:00.34 sshd 2902 root 20 0 28024 5840 2048 S 0,0 0,3 0:07.76 ReGaHss.communi 11520 marc 20 0 11488 5584 4868 S 0,0 0,3 0:00.21 systemd 1 root 20 0 31056 5396 3936 S 0,0 0,3 0:06.87 systemd 630 root 20 0 31988 5236 4796 S 0,0 0,3 0:03.19 systemd-journal 922 root 20 0 36340 4056 2884 S 0,0 0,2 0:00.25 unattended-upgr 693 root 20 0 18736 3968 3448 S 0,0 0,2 0:00.30 systemd-logind 11699 marc 20 0 12100 3856 2964 S 0,0 0,2 0:00.04 sshd 682 root 20 0 24312 3540 2332 S 0,0 0,2 0:00.30 networkd-dispat 11700 marc 20 0 8348 3504 2544 S 0,0 0,2 0:00.08 bash 4069 root 20 0 37380 3232 2412 S 0,0 0,2 0:01.22 polkitd 12007 marc 20 0 10300 2900 2220 R 0,3 0,1 0:00.28 top 2584 root 20 0 7660 2768 1256 S 0,0 0,1 0:01.73 lighttpd 697 root 20 0 9756 2748 2276 S 0,0 0,1 0:01.32 wpa_supplicant 671 message+ 20 0 6384 2268 1796 S 0,0 0,1 0:05.39 dbus-daemon 685 root 20 0 25244 2188 1312 S 0,0 0,1 0:02.69 rsyslogd 926 vnstat 20 0 3300 2180 1668 S 0,0 0,1 0:02.66 vnstatd 305 root 20 0 17332 2096 1724 S 0,0 0,1 0:09.25 systemd-udevd 689 root 20 0 7416 1936 1496 S 0,0 0,1 0:00.05 smartd 633 root 20 0 7284 1880 1020 S 0,0 0,1 0:04.38 haveged 666 avahi 20 0 5704 1848 1420 S 0,0 0,1 0:26.25 avahi-daemon 11521 marc 20 0 33988 1776 0 S 0,0 0,1 0:00.00 (sd-pam) 975 root 20 0 10188 1740 1592 S 0,0 0,1 0:00.04 sshd 1013 _chrony 20 0 16284 1700 1316 S 0,0 0,1 0:00.14 chronyd 2585 root 20 0 7660 1700 1228 S 0,0 0,1 0:01.99 lighttpd 1050 _chrony 20 0 8408 1692 1408 S 0,0 0,1 0:00.00 chronyd 2586 root 20 0 7660 1688 1216 S 0,0 0,1 0:01.80 lighttpd 2587 root 20 0 7660 1672 1196 S 0,0 0,1 0:01.87 lighttpd 2657 root 20 0 18140 1660 1332 S 0,0 0,1 0:02.00 rfd 1938 root 20 0 4392 1580 1428 S 0,0 0,1 0:05.62 hss_led
@homoran sagte in Fast täglicher Absturz:
Alleine 30 Adapter hast du am Start!
Vielleicht kann ich ja den einen oder anderen Adapter weglassen, bin mir aber nicht ganz sicher deswegen ...
rest-api / socket io / ? Brauche ich die und wofür ? Hab ich glaube ich selber installiert, bin mir aber nicht sicher ...
fb-checkpresence kann definitiv weg und einer der HUE Adapter weil ich nur einen nutze ...@Homoran
wie versorgst Du dein Tinker denn nun mit Strom ? Über den USB am Board oder über das Funkmodul ? -
Ich habe jetzt mal die Stromversorung geändert.
Die Sicherung war es mE nicht. Diemal ist das Ding fast ne Stunde später ausgestiegen und ich habe auch eine Sicherung manuell gestartet und dabei ist nichts passiert.
Abwarten ob die Stromversorgung was gebracht hat ... Ansonsten mal das Homematic Board entfernen ? Das ist ja auch eine Komponente die ich über beide Boards mitgenommen habe. Wenn nicht das Board oder sogar beide Boards kaputt sind und aussteigen, kann es ja nur was externes, oder die Installation selber sein ...
-
@Homoran
Stromversorgung und SD Karte habe ich mittlerweile ebenfalls ausgeschlossen. An Hardware bleibt nur noch das Homematic Modul übrig was ich auch ersteinmal ausschließen würde ...Es bleibt also die Installation selber und ein Gedankenblitz den ich heute beim aufwachen hatte
Irgendwie scheint die Sicherung doch eine Rolle zu spielen. Erst waren die Abstürze um 17 Uhr rum, dann um 19 Uhr nachdem ich die Sicherung verlegt hatte und nun warte ich mal ab ob der Absturz um 21 Uhr rum kommt ...
Und meine Vermutung ist wie folgt: Ich schalte seit einiger Zeit mein NAS nachts aus (ich weiß nicht seit wann und ich weiß auch nicht wirklich seit wann die Abstürze kommen) Wenn das NAS aus ist kann der SQL Adapter nicht mehr schreiben und er macht Fehlermeldungen im Protokoll - und das sind nicht wenige ... Kann es sein, dass das Log bzw. die Sicherung des Logs Probleme macht wenn es zu groß ist ? Vielleicht verursacht das den Speichermangel ? Wobei damit immer noch nicht geklärrt wäre warum das früher ca. 1 Woche gedauert hat bis ein Absturz kam und in den vergangenen Tagen fast täglich ... aber das wollte ich mal beobachten.Wird das Log mitgesichert ? Wenn ja, kann man es von der Sicherung ausklammern ?
vg
Marc -
@Homoran
Das Thema ist für mich gelöst. Nachdem ich ALLES ausgetauscht und untersucht hatte bis hin zum komplett neu aufgesetzzten Image und immer wieder bei den Abstürzen gelandet bin konnte es nur an irgend etwas liegen was ich immer wieder mit installiere ... Daraufhin habe ich sämtliche Adapter ageschaltet die nicht unbedingt für den Betrieb benötigt werden ... ABSTURZ ...Dann habe ich LEIDER zwei sachen fast gleichzeitig gemacht, die allerdings indirekt auch wieder miteinander zu tun haben:
- Ich habe die REDIS Datenbank zurück gesetzt und von vorne angefangen und kein Backup mehr zurück gespielt
- Den Host auf V4 aktualisiert. Hier hat sich für die Objekte etwas geändert, sie wurden, wenn man möchte auf JSON umgestellt. Die Zustände habe ich auf REDIS gelassen.
Somit hat also entweder die Umstellung auf JSON etwas gebracht und der Fehler war in den Objekten unter dem js-controller 3.x oder der Fehler lag nur bei REDIS und wurde durch den Flush der DB entfernt.
Ich hoffe das hilft wenn mal jemand auf das gleiche dämliche Problem stößt