NEWS
[gelöst] Täglicher Absturz vom ioBroker / Tinkerboard
-
Hallo liebe Leute
mein Tinker Board stürz nun fast täglich ab. Ich hatte es auf mein Tinker Board geschoben wo der emmc kaputt gegangen ist, welches ich dann mit SD Karte betrieben habe. Aber leider passiert das bei meinem Ersatzboard jetzt auch...
Also - wie gehe ich jetzt am besten vor ? Es muss ja nicht zwingend ioBroker sein, es kann ja auch die Installation selber sein. Als ich das Board neu augesetzt habe hatte ich Bullseye gewählt. Nutzt das sonst noch jemand und sollte das grundsätzlich funktionieren ? Oder kann es schon daran liegen ? Wie bekomme ich jetzt raus was das verursacht oder was soll ich am schlausten machen ?
Viele Grüße,
Marc -
@meicker sagte in Fast täglicher Absturz:
atte ich Bullseye gewählt. Nutzt das sonst noch jemand und sollte das grundsätzlich funktionieren
bei mir laufen 2 Tinkerboards mit Bullseye. eines als Slave und eines mit piVCCU. Die laufen absolut unauffällig und störungsfrei.
-
@homoran
OK - Dann liegt es schon mal nicht daran ... schon mal gut zu wissen -
022-01-25 15:41:36.350 - [32minfo[39m: geofency.0 (14856) adapter geofency received webhook from device janine with values: name: Home, entry: 1 2022-01-25 15:42:36.399 - [32minfo[39m: nuki-extended.0 (14777) Trigger action -UNLOCK- on Nuki Smartlock Wohnung (via Bridge API). 2022-01-25 15:42:40.954 - [32minfo[39m: nuki-extended.0 (14777) Successfully triggered action -UNLOCK- on Nuki Smartlock Wohnung (via Bridge API). 2022-01-25 15:50:35.204 - [32minfo[39m: mercedesme.0 (14976) Lost WebSocket connection. Reconnect WebSocket 2022-01-25 16:01:00.049 - [33mwarn[39m: systeminfo.0 (15197) State "systeminfo.0.NAS.Space_?" has no existing object, this might lead to an error in future versions 2022-01-25 16:37:20.714 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:37:20.720 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:37:40.147 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:38:24.725 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:38:40.048 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:39:00.204 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:40:39.762 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:41:12.285 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:41:43.059 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:42:49.789 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:43:46.218 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:44:39.929 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:45:19.808 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:46:15.852 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:47:04.266 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:47:55.184 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:48:15.934 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:49:02.584 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:49:15.531 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:49:40.739 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:50:51.631 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:51:56.454 - [32minfo[39m: geofency.0 (14856) adapter geofency received webhook from device marc with values: name: Home, entry: 1 2022-01-25 16:52:00.472 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:52:25.223 - [32minfo[39m: mercedesme.0 (14976) State value to set for "mercedesme.0..history.socLevelLast" has to be stringified but received type "number" 2022-01-25 16:52:56.484 - [32minfo[39m: nuki-extended.0 (14777) Trigger action -UNLOCK- on Nuki Smartlock Wohnung (via Bridge API). 2022-01-25 16:52:57.161 - [32minfo[39m: nuki-extended.0 (14777) Successfully triggered action -UNLOCK- on Nuki Smartlock Wohnung (via Bridge API). 2022-01-25 17:01:00.045 - [33mwarn[39m: systeminfo.0 (15197) State "systeminfo.0.NAS.Space_?" has no existing object, this might lead to an error in future versions 2022-01-25 17:03:39.136 - [33mwarn[39m: telegram.0 (14739) 1 of 1 recipients are unknown! 2022-01-25 16:17:12.603 - [32minfo[39m: host.ioBroker iobroker.js-controller version 3.3.22 js-controller starting 2022-01-25 16:17:12.611 - [32minfo[39m: host.ioBroker Copyright (c) 2014-2021 bluefox, 2014 hobbyquaker 2022-01-25 16:17:12.612 - [32minfo[39m: host.ioBroker hostname: ioBroker, node: v14.18.3 2022-01-25 16:17:12.613 - [32minfo[39m: host.ioBroker ip addresses: 2022-01-25 16:17:14.482 - [32minfo[39m: host.ioBroker connected to Objects and States 2022-01-25 16:17:14.508 - [32minfo[39m: host.ioBroker added notifications configuration of host 2022-01-25 16:17:15.663 - [32minfo[39m: host.ioBroker 40 instances found 2022-01-25 16:17:15.783 - [32minfo[39m: host.ioBroker starting 31 instances 2022-01-25 16:17:15.965 - [32minfo[39m: host.ioBroker instance system.adapter.admin.0 started with pid 1503 2022-01-25 16:17:17.959 - [31merror[39m: admin.0 (1503) admin.0 already running
Das sind die letzzten Einträge vor dem Absturz. Komisch ist: bis 17:03 alles firtlaufend. Der letzte Eintrag ist Telegram und der Neustart beginnt bei 16:17 und kommt nach 17:03. Das einzige was mir bisher aufgefallen ist, ist der Mercedes Adapter, der steht immer kurz vor dem Ende ... Vielleicht schalte ich den mal ab ...
-
@meicker sagte in Fast täglicher Absturz:
Das sind die letzzten Einträge vor dem Absturz.
ich sehe nichts von einem Absturz.
Dann steht da üblicherweise das beenden der Adapter usw. auch drin.@meicker sagte in Fast täglicher Absturz:
der Neustart beginnt bei 16:17 und kommt nach 17:03. Das
das könnte sein, dass da die Zeitzone noch nicht korrigiert war, durchaus üblich bei einem reboot.
@meicker sagte in Fast täglicher Absturz:
as mir bisher aufgefallen ist, ist der Mercedes Adapter,
was davon im log steht sind nur Warnungen wegen falscher Datentypen.
Nichts was wirklich zum Absturz führen könnte.Evtl. ist es dein Netzteil und das Tinker stirbt wirklich ohne Vorwarnung komplett weg.
Was hängt denn bei dir so alles noch dran? -
@homoran
Ok - Netzteil könnte ich mal austauschen. Die Abstürze waren sonst so 1x pro Woche ... Jetzt fast täglich. Die Temperatur evtl ? Steht zwischen 60 und 65 Grad. Hab jetzt noch einen anderen Kühlkörper bestellt ...
Bestelle ich mal ein neues Netzteil ... Ich hab noch die Platine für Homematic drauf. Was soll ich für ein Netzteil nehmen ? Hast Du einen Tip ?Was meinst Du was sonst noch so dranhängt ? Installierte Adapter habe ich u-A für Homepilot, Hue ..., Klimaanlage ... aber nichts ist kürzlich hinzu gekommen worauf ich das schieben würde ...
-
@meicker sagte in Fast täglicher Absturz:
Steht zwischen 60 und 65 Grad
sollte nicht wirklich ein Problem sein.
Das müsste noch gehen.
Mein Slave, der nicht gerade viel zu tun hat liegt allerdings gerade bei 37.5 Grad@meicker sagte in Fast täglicher Absturz:
Ich hab noch die Platine für Homematic drauf. Was soll ich für ein Netzteil nehmen ?
also so wie bei meiner piVCCU. Die hängt an einem normalen 60W 6-Port USB Ladegerät.
Du müsstest dann mal im syslog sehen, ob da was von "under voltage" drin steht
@meicker sagte in Fast täglicher Absturz:
Installierte Adapter habe ich u-A
Da steht halt nichts im log, dass es zu Problemen kommt
und Anzahl Instanzen?
iobroker list instances
Selbst mit 2GB RAM kommt man heute nicht mehr so weit wie früher.
Hier kommt mal ein Skript dazu, dann ein größer werdendes Backup.....Alleine 30 Adapter hast du am Start!
Was sagt denn
top
? oderhtop
-
@homoran sagte in Fast täglicher Absturz:
Die hängt an einem normalen 60W 6-Port USB Ladegerät.
Dann bräuchte ich noch ein USB Kabel wo am anderen Ende dieser rund Gerätestecker dran ist ... gibt es das ? Oder gibst Du Power trotzdem über das Tinker rein ? Ich habe Strom am Homematic Modul angeklemmt ...
@homoran sagte in Fast täglicher Absturz:
Du müsstest dann mal im syslog
/var/log/ ? Da hab ich im syslog nichts auffälliges gesehen. Nach dem Absturz ist das ja leider weg ... also könnte ich nur etwas sehen wenn es zuvor schon mal vorkäme mit der Unterversorgung und das Tinke nicht abschmiert ...
@homoran sagte in Fast täglicher Absturz:
und Anzahl Instanzen?
iobroker list instancesmarc@ioBroker:~$ iob list instances + system.adapter.admin.0 : admin : ioBroker - enabled, port: 8081, bind: 0.0.0.0, run as: admin + system.adapter.alexa2.0 : alexa2 : ioBroker - enabled + system.adapter.backitup.0 : backitup : ioBroker - enabled + system.adapter.cloud.0 : cloud : ioBroker - enabled system.adapter.devices.0 : devices : ioBroker - disabled + system.adapter.discovery.0 : discovery : ioBroker - enabled system.adapter.fb-checkpresence.0 : fb-checkpresence : ioBroker - disabled system.adapter.flot.0 : flot : ioBroker - disabled + system.adapter.geofency.0 : geofency : ioBroker - enabled, port: 7999 + system.adapter.harmony.0 : harmony : ioBroker - enabled + system.adapter.hm-rega.0 : hm-rega : ioBroker - enabled + system.adapter.hm-rpc.0 : hm-rpc : ioBroker - enabled, port: 0 system.adapter.homekit-controller.0 : homekit-controller : ioBroker - disabled + system.adapter.homepilot20.0 : homepilot20 : ioBroker - enabled + system.adapter.hue-extended.0 : hue-extended : ioBroker - enabled system.adapter.hue.0 : hue : ioBroker - disabled, port: 80 + system.adapter.info.0 : info : ioBroker - enabled + system.adapter.iot.0 : iot : ioBroker - enabled + system.adapter.javascript.0 : javascript : ioBroker - enabled system.adapter.material.0 : material : ioBroker - disabled + system.adapter.melcloud.0 : melcloud : ioBroker - enabled system.adapter.mercedesme.0 : mercedesme : ioBroker - disabled system.adapter.mobile.0 : mobile : ioBroker - disabled + system.adapter.nuki-extended.0 : nuki-extended : ioBroker - enabled + system.adapter.scenes.0 : scenes : ioBroker - enabled + system.adapter.simple-api.0 : simple-api : ioBroker - enabled, port: 8087, bind: 192.168.1.31, run as: admin + system.adapter.socketio.0 : socketio : ioBroker - enabled, port: 8084, bind: 0.0.0.0, run as: admin + system.adapter.sql.0 : sql : ioBroker - enabled, port: 3307 + system.adapter.statistics.0 : statistics : ioBroker - enabled + system.adapter.systeminfo.0 : systeminfo : ioBroker - enabled + system.adapter.telegram.0 : telegram : ioBroker - enabled, port: 8443, bind: 0.0.0.0 + system.adapter.terminal.0 : terminal : ioBroker - enabled, port: 8088, bind: 192.168.1.31, run as: admin + system.adapter.text2command.0 : text2command : ioBroker - enabled + system.adapter.tinker.0 : tinker : ioBroker - enabled + system.adapter.tr-064.0 : tr-064 : ioBroker - enabled + system.adapter.upnp.0 : upnp : ioBroker - enabled system.adapter.vis-materialdesign.0 : vis-materialdesign : ioBroker - disabled system.adapter.vis.0 : vis : ioBroker - disabled + system.adapter.web.0 : web : ioBroker - enabled, port: 8082, bind: 192.168.1.31, run as: admin + system.adapter.yahka.0 : yahka : ioBroker - enabled
@homoran sagte in Fast täglicher Absturz:
Was sagt denn top?
top - 21:11:40 up 2:37, 2 users, load average: 0,56, 0,86, 0,85 Tasks: 188 total, 2 running, 186 sleeping, 0 stopped, 0 zombie %CPU(s): 19,7 us, 2,7 sy, 0,0 ni, 76,9 id, 0,0 wa, 0,0 hi, 0,7 si, 0,0 st MiB Spch: 2000,5 total, 331,1 free, 1481,3 used, 188,1 buff/cache MiB Swap: 1000,2 total, 583,5 free, 416,8 used. 570,9 avail Spch PID USER PR NI VIRT RES SHR S %CPU %MEM ZEIT+ BEFEHL 1099 iobroker 20 0 285436 155972 13912 S 33,4 7,6 26:49.32 iobroker.js-con 3015 iobroker 20 0 195664 63820 12260 R 32,1 3,1 12:32.88 io.hue-extended 914 redis 20 0 67644 10844 1924 S 9,9 0,5 13:57.16 redis-server 3034 iobroker 20 0 196620 63328 10692 S 7,0 3,1 10:10.41 io.homepilot20. 2477 iobroker 20 0 344268 154060 10776 S 3,6 7,5 31:37.07 io.javascript.0 2126 iobroker 20 0 231120 89052 10668 S 1,0 4,3 2:32.01 io.admin.0 2668 iobroker 20 0 197284 46876 14644 S 0,7 2,3 1:07.45 io.telegram.0 2774 iobroker 20 0 173928 27372 10656 S 0,7 1,3 0:19.35 io.hm-rega.0 3142 iobroker 20 0 240920 62968 11088 S 0,7 3,1 0:27.59 io.systeminfo.0 13 root 20 0 0 0 0 I 0,3 0,0 0:09.71 rcu_preempt 2712 root 20 0 270140 56176 4072 S 0,3 2,7 1:27.18 java 3007 iobroker 20 0 180544 38212 10356 S 0,3 1,9 0:33.29 io.hm-rpc.0 3182 iobroker 20 0 232572 60012 10628 S 0,3 2,9 0:42.06 io.tinker.0 16342 marc 20 0 10368 3044 2308 R 0,3 0,1 0:00.41 top 1 root 20 0 31056 5396 3936 S 0,0 0,3 0:06.55 systemd 2 root 20 0 0 0 0 S 0,0 0,0 0:00.02 kthreadd 3 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 rcu_gp 4 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 rcu_par_gp 8 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 mm_percpu_wq 9 root 20 0 0 0 0 S 0,0 0,0 0:00.00 rcu_tasks_kthre 10 root 20 0 0 0 0 S 0,0 0,0 0:00.00 rcu_tasks_rude_ 11 root 20 0 0 0 0 S 0,0 0,0 0:00.00 rcu_tasks_trace 12 root 20 0 0 0 0 S 0,0 0,0 0:01.15 ksoftirqd/0 14 root rt 0 0 0 0 S 0,0 0,0 0:00.00 migration/0 15 root 20 0 0 0 0 S 0,0 0,0 0:00.00 cpuhp/0 16 root 20 0 0 0 0 S 0,0 0,0 0:00.00 cpuhp/1 17 root rt 0 0 0 0 S 0,0 0,0 0:00.00 migration/1 18 root 20 0 0 0 0 S 0,0 0,0 0:00.69 ksoftirqd/1 21 root 20 0 0 0 0 S 0,0 0,0 0:00.00 cpuhp/2 22 root rt 0 0 0 0 S 0,0 0,0 0:00.00 migration/2 23 root 20 0 0 0 0 S 0,0 0,0 0:00.58 ksoftirqd/2 26 root 20 0 0 0 0 S 0,0 0,0 0:00.00 cpuhp/3 27 root rt 0 0 0 0 S 0,0 0,0 0:00.00 migration/3 28 root 20 0 0 0 0 S 0,0 0,0 0:00.48 ksoftirqd/3 31 root 20 0 0 0 0 S 0,0 0,0 0:00.01 kdevtmpfs 32 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 netns 34 root 20 0 0 0 0 S 0,0 0,0 0:00.00 kauditd 35 root 20 0 0 0 0 S 0,0 0,0 0:00.01 khungtaskd 36 root 20 0 0 0 0 S 0,0 0,0 0:00.00 oom_reaper 37 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 writeback 38 root 20 0 0 0 0 S 0,0 0,0 0:00.92 kcompactd0 39 root 25 5 0 0 0 S 0,0 0,0 0:00.00 ksmd 99 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 kintegrityd 100 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 kblockd 101 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 blkcg_punt_bio 106 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 tpm_dev_wq 107 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 devfreq_wq 110 root -51 0 0 0 0 S 0,0 0,0 0:00.00 watchdogd 111 root 0 -20 0 0 0 I 0,0 0,0 0:00.35 kworker/1:1H-kblockd 112 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 rpciod 113 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 kworker/u9:0 114 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 xprtiod 115 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 cfg80211 116 root 20 0 0 0 0 S 0,0 0,0 0:09.97 kswapd0 117 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 nfsiod 118 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 xfsalloc 119 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 xfs_mru_cache 121 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 kthrotld 123 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 libertastf 124 root -51 0 0 0 0 S 0,0 0,0 0:00.00 irq/79-rk808 127 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 ipv6_addrconf 128 root 10 -10 0 0 0 S 0,0 0,0 0:00.00 krfcommd 129 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 kstrp 130 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 zswap1 131 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 zswap1
@homoran sagte in Fast täglicher Absturz:
oder htop
-
@meicker sagte in Fast täglicher Absturz:
MiB Spch: 2000,5 total, 331,1 free, 1481,3 used, 188,1 buff/cache
MiB Swap: 1000,2 total, 583,5 free, 416,8 used. 570,9 avail SpchDa wird es tatsächlich knapp. Spätestens wenn backitup zuschlägt.
Da hat es tatsächlich auch in den letzten 2:37 schon mindestens einmal nicht gereicht und es wurde der SWAP ebnötigt -
@homoran sagte in Fast täglicher Absturz:
Da wird es tatsächlich knapp. Spätestens wenn backitup zuschlägt.
Das startet um 17 Uhr
War aber sonst nie ein Problem .... Aber wenn es das wäre, was kann ich tun ? Adapter ausdünnen ?
-
@meicker sagte in Fast täglicher Absturz:
Das startet um 17 Uhr
siehste
@meicker sagte in Fast täglicher Absturz:
War aber sonst nie ein Problem ....
wie im richtigen Leben...
Wie groß ist das Backup denn?
nicht dass da einfach zuviel drin ist was in dem wenigen restlichen RAM noch gepackt werden muss -
@meicker sagte
2712 root 20 0 270140 56176 4072 S 0,3 2,7 1:27.18 java
Wofür wird Java benötigt?
Sortiere top mal nach Speicherverbrauch mittels Shift-m (großes M). -
-
@homoran sagte: piVCCU
Das läuft doch in einem Container. Java nicht?
-
@paul53 sagte in Fast täglicher Absturz:
Das läuft doch in einem Container. Java nicht?
das müssten wir Alex fragen.
Bei mir auf dem Tinker mit nur piVCCUpi@tinkerboard:~$ top | grep java 31791 root 20 0 293524 119068 11252 S 0.7 5.8 463:58.46 java 31791 root 20 0 293524 119068 11252 S 2.6 5.8 463:58.54 java 31791 root 20 0 293524 119068 11252 S 2.3 5.8 463:58.61 java 31791 root 20 0 293524 119068 11252 S 0.4 5.8 463:58.62 java 31791 root 20 0 293524 119068 11252 S 0.7 5.8 463:58.64 java 31791 root 20 0 293524 119068 11252 S 0.3 5.8 463:58.65 java 31791 root 20 0 293524 119068 11252 S 1.6 5.8 463:58.70 java 31791 root 20 0 293524 119068 11252 S 0.3 5.8 463:58.71 java 31791 root 20 0 293524 119068 11252 S 4.0 5.8 463:58.83 java 31791 root 20 0 293524 119068 11252 S 0.7 5.8 463:58.85 java 31791 root 20 0 293524 119068 11252 S 5.9 5.8 463:59.03 java 31791 root 20 0 293524 119068 11252 S 6.0 5.8 463:59.21 java 31791 root 20 0 293524 119068 11252 S 2.0 5.8 463:59.27 java 31791 root 20 0 293524 119068 11252 S 3.6 5.8 463:59.38 java 31791 root 20 0 293524 119068 11252 S 2.6 5.8 463:59.46 java 31791 root 20 0 293524 119068 11252 S 1.0 5.8 463:59.49 java 31791 root 20 0 293524 119068 11252 S 12.2 5.8 463:59.86 java 31791 root 20 0 293524 119068 11252 S 1.0 5.8 463:59.89 java 31791 root 20 0 293524 119068 11252 S 1.7 5.8 463:59.94 java 31791 root 20 0 293524 119068 11252 S 1.3 5.8 463:59.98 java 31791 root 20 0 293524 119068 11252 S 1.3 5.8 464:00.02 java 31791 root 20 0 293524 119068 11252 S 1.7 5.8 464:00.07 java 31791 root 20 0 293524 119068 11252 S 2.0 5.8 464:00.13 java 31791 root 20 0 293524 119068 11252 S 0.7 5.8 464:00.15 java 31791 root 20 0 293524 119068 11252 S 1.7 5.8 464:00.20 java
-
@homoran sagte: Bei mir auf dem Tinker mit nur piVCCU
Dann ist es bei Containern offenbar anders als bei VM. Ich verwende keine Container.
-
@paul53 sagte in Fast täglicher Absturz:
Ich verwende keine Container.
ich auch nicht wenn ich mich selber drum kümmern muss.
Nur bei piVCCU und den Vorgängern YAHM und lxCCU - und dort absolut problemlos -
@homoran sagte in Fast täglicher Absturz:
Wie groß ist das Backup denn?
ioBroker 7 MB
mysql 60MB
redis 2.2@paul53 sagte in Fast täglicher Absturz:
Wofür wird Java benötigt?
Sortiere top mal nach Speicherverbrauch mittels Shift-m (großes M).top - 23:09:08 up 4:34, 1 user, load average: 0,95, 0,76, 0,78 Tasks: 181 total, 1 running, 180 sleeping, 0 stopped, 0 zombie %CPU(s): 4,4 us, 1,2 sy, 0,0 ni, 94,0 id, 0,0 wa, 0,0 hi, 0,4 si, 0,0 st MiB Spch: 2000,5 total, 198,1 free, 1589,7 used, 212,8 buff/cache MiB Swap: 1000,2 total, 572,7 free, 427,5 used. 468,6 avail Spch PID USER PR NI VIRT RES SHR S %CPU %MEM ZEIT+ BEFEHL 1099 iobroker 20 0 368572 239080 14096 S 2,3 11,7 45:39.06 iobroker.js-con 2477 iobroker 20 0 345216 158468 10848 S 3,3 7,7 54:32.48 io.javascript.0 2126 iobroker 20 0 224764 92916 14344 S 1,3 4,5 4:32.67 io.admin.0 3015 iobroker 20 0 198508 65932 12380 S 0,0 3,2 22:01.88 io.hue-extended 3142 iobroker 20 0 242968 63408 11212 S 0,0 3,1 0:37.85 io.systeminfo.0 3182 iobroker 20 0 235388 62084 10628 S 0,0 3,0 1:06.33 io.tinker.0 21500 iobroker 20 0 172820 61408 27872 S 0,0 3,0 0:14.13 io.hm-rega.0 3034 iobroker 20 0 198076 59560 10920 S 4,0 2,9 17:30.33 io.homepilot20. 3035 iobroker 20 0 190384 57332 14856 S 0,0 2,8 2:42.40 io.info.0 2712 root 20 0 270300 57216 4620 S 0,7 2,8 2:22.69 java 3009 iobroker 20 0 194816 55640 13316 S 0,0 2,7 3:25.56 io.melcloud.0 2505 iobroker 20 0 209124 53648 11660 S 0,7 2,6 3:13.26 io.sql.0 2668 iobroker 20 0 199924 49156 14700 S 0,0 2,4 1:51.79 io.telegram.0 3372 iobroker 20 0 187840 43444 13236 S 0,0 2,1 0:58.46 io.alexa2.0 2497 iobroker 20 0 181776 41576 10852 S 1,3 2,0 2:44.54 io.tr-064.0 27398 iobroker 20 0 175296 41344 14556 S 0,0 2,0 0:16.07 io.nuki-extende 3252 iobroker 20 0 185924 41112 12028 S 0,3 2,0 2:05.41 io.yahka.0 3007 iobroker 20 0 183132 40404 10444 S 0,3 2,0 0:54.15 io.hm-rpc.0 2973 root 10 -10 144112 38508 7332 S 0,0 1,9 0:12.78 node 3212 iobroker 20 0 179796 38144 10764 S 0,0 1,9 0:36.31 io.upnp.0 3088 iobroker 20 0 191916 38044 11332 S 0,0 1,9 2:20.57 io.statistics.0 3322 iobroker 20 0 190048 29872 10304 S 0,3 1,5 0:26.85 io.iot.0 3343 iobroker 20 0 174480 28868 10356 S 0,0 1,4 0:16.58 io.cloud.0 3241 iobroker 20 0 174732 26960 10264 S 0,0 1,3 0:16.33 io.web.0 2490 iobroker 20 0 177980 23772 10388 S 0,7 1,2 0:16.98 io.backitup.0 3149 iobroker 20 0 169516 22300 10132 S 0,0 1,1 0:14.38 io.terminal.0 2661 iobroker 20 0 168552 22212 10208 S 0,0 1,1 0:14.69 io.discovery.0 3054 iobroker 20 0 169536 21980 10160 S 0,3 1,1 0:15.29 io.simple-api.0 3075 iobroker 20 0 170576 21964 10240 S 0,0 1,1 0:14.41 io.socketio.0 2483 iobroker 20 0 170780 21240 10176 S 0,0 1,0 0:15.76 io.scenes.0 2722 iobroker 20 0 166124 21224 10132 S 0,3 1,0 0:14.64 io.geofency.0 2766 iobroker 20 0 168760 20872 10208 S 0,0 1,0 0:19.43 io.harmony.0 3162 iobroker 20 0 169200 20068 10148 S 0,0 1,0 0:15.24 io.text2command 914 redis 20 0 67708 11252 1920 S 7,0 0,5 24:08.50 redis-server 677 root 20 0 56268 6296 4924 S 0,0 0,3 0:12.33 NetworkManager 11508 root 20 0 12100 5996 5108 S 0,0 0,3 0:00.34 sshd 2902 root 20 0 28024 5840 2048 S 0,0 0,3 0:07.76 ReGaHss.communi 11520 marc 20 0 11488 5584 4868 S 0,0 0,3 0:00.21 systemd 1 root 20 0 31056 5396 3936 S 0,0 0,3 0:06.87 systemd 630 root 20 0 31988 5236 4796 S 0,0 0,3 0:03.19 systemd-journal 922 root 20 0 36340 4056 2884 S 0,0 0,2 0:00.25 unattended-upgr 693 root 20 0 18736 3968 3448 S 0,0 0,2 0:00.30 systemd-logind 11699 marc 20 0 12100 3856 2964 S 0,0 0,2 0:00.04 sshd 682 root 20 0 24312 3540 2332 S 0,0 0,2 0:00.30 networkd-dispat 11700 marc 20 0 8348 3504 2544 S 0,0 0,2 0:00.08 bash 4069 root 20 0 37380 3232 2412 S 0,0 0,2 0:01.22 polkitd 12007 marc 20 0 10300 2900 2220 R 0,3 0,1 0:00.28 top 2584 root 20 0 7660 2768 1256 S 0,0 0,1 0:01.73 lighttpd 697 root 20 0 9756 2748 2276 S 0,0 0,1 0:01.32 wpa_supplicant 671 message+ 20 0 6384 2268 1796 S 0,0 0,1 0:05.39 dbus-daemon 685 root 20 0 25244 2188 1312 S 0,0 0,1 0:02.69 rsyslogd 926 vnstat 20 0 3300 2180 1668 S 0,0 0,1 0:02.66 vnstatd 305 root 20 0 17332 2096 1724 S 0,0 0,1 0:09.25 systemd-udevd 689 root 20 0 7416 1936 1496 S 0,0 0,1 0:00.05 smartd 633 root 20 0 7284 1880 1020 S 0,0 0,1 0:04.38 haveged 666 avahi 20 0 5704 1848 1420 S 0,0 0,1 0:26.25 avahi-daemon 11521 marc 20 0 33988 1776 0 S 0,0 0,1 0:00.00 (sd-pam) 975 root 20 0 10188 1740 1592 S 0,0 0,1 0:00.04 sshd 1013 _chrony 20 0 16284 1700 1316 S 0,0 0,1 0:00.14 chronyd 2585 root 20 0 7660 1700 1228 S 0,0 0,1 0:01.99 lighttpd 1050 _chrony 20 0 8408 1692 1408 S 0,0 0,1 0:00.00 chronyd 2586 root 20 0 7660 1688 1216 S 0,0 0,1 0:01.80 lighttpd 2587 root 20 0 7660 1672 1196 S 0,0 0,1 0:01.87 lighttpd 2657 root 20 0 18140 1660 1332 S 0,0 0,1 0:02.00 rfd 1938 root 20 0 4392 1580 1428 S 0,0 0,1 0:05.62 hss_led
@homoran sagte in Fast täglicher Absturz:
Alleine 30 Adapter hast du am Start!
Vielleicht kann ich ja den einen oder anderen Adapter weglassen, bin mir aber nicht ganz sicher deswegen ...
rest-api / socket io / ? Brauche ich die und wofür ? Hab ich glaube ich selber installiert, bin mir aber nicht sicher ...
fb-checkpresence kann definitiv weg und einer der HUE Adapter weil ich nur einen nutze ...@Homoran
wie versorgst Du dein Tinker denn nun mit Strom ? Über den USB am Board oder über das Funkmodul ? -
Ich habe jetzt mal die Stromversorung geändert.
Die Sicherung war es mE nicht. Diemal ist das Ding fast ne Stunde später ausgestiegen und ich habe auch eine Sicherung manuell gestartet und dabei ist nichts passiert.
Abwarten ob die Stromversorgung was gebracht hat ... Ansonsten mal das Homematic Board entfernen ? Das ist ja auch eine Komponente die ich über beide Boards mitgenommen habe. Wenn nicht das Board oder sogar beide Boards kaputt sind und aussteigen, kann es ja nur was externes, oder die Installation selber sein ...
-
@Homoran
Stromversorgung und SD Karte habe ich mittlerweile ebenfalls ausgeschlossen. An Hardware bleibt nur noch das Homematic Modul übrig was ich auch ersteinmal ausschließen würde ...Es bleibt also die Installation selber und ein Gedankenblitz den ich heute beim aufwachen hatte
Irgendwie scheint die Sicherung doch eine Rolle zu spielen. Erst waren die Abstürze um 17 Uhr rum, dann um 19 Uhr nachdem ich die Sicherung verlegt hatte und nun warte ich mal ab ob der Absturz um 21 Uhr rum kommt ...
Und meine Vermutung ist wie folgt: Ich schalte seit einiger Zeit mein NAS nachts aus (ich weiß nicht seit wann und ich weiß auch nicht wirklich seit wann die Abstürze kommen) Wenn das NAS aus ist kann der SQL Adapter nicht mehr schreiben und er macht Fehlermeldungen im Protokoll - und das sind nicht wenige ... Kann es sein, dass das Log bzw. die Sicherung des Logs Probleme macht wenn es zu groß ist ? Vielleicht verursacht das den Speichermangel ? Wobei damit immer noch nicht geklärrt wäre warum das früher ca. 1 Woche gedauert hat bis ein Absturz kam und in den vergangenen Tagen fast täglich ... aber das wollte ich mal beobachten.Wird das Log mitgesichert ? Wenn ja, kann man es von der Sicherung ausklammern ?
vg
Marc