Weiter zum Inhalt
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Hell
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dunkel
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. ioBroker Allgemein
  4. ioBroker / Vis / Pi sind immer wieder nicht erreichbar

NEWS

  • Neuer ioBroker-Blog online: Monatsrückblick März/April 2026
    BluefoxB
    Bluefox
    6
    1
    247

  • Verwendung von KI bitte immer deutlich kennzeichnen
    HomoranH
    Homoran
    9
    1
    238

  • Monatsrückblick Januar/Februar 2026 ist online!
    BluefoxB
    Bluefox
    18
    1
    898

ioBroker / Vis / Pi sind immer wieder nicht erreichbar

Geplant Angeheftet Gesperrt Verschoben ioBroker Allgemein
vispi3+absturz
8 Beiträge 2 Kommentatoren 565 Aufrufe 1 Beobachtet
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • GregorSG Offline
    GregorSG Offline
    GregorS
    schrieb am zuletzt editiert von GregorS
    #1

    Hallo,
    habe seit einiger Zeit Probleme mit meinem ioBroker-System auf einem Pi3.
    Regelmäßig fällt es aus. Ich konnte bis jetzt nicht den Fehler identifizieren.
    Das Tablet kann keine Verbindung aufbauen, und mit dem Terminal komme ich nicht auf den Pi.
    Irgendwann ist es dann wieder gut und alles funktioniert wieder.
    Ich hänge hier mal die Logdatei dran, vieleicht könnt ihr den Fehler dort lokalisieren.

    Logdatei ioBroker:
    2019-04-19 16:57:09.769 - warn: sonoff.0 Reconnection to DB.
    2019-04-19 16:57:09.772 - warn: sonoff.0 Reconnection to DB.
    2019-04-19 16:57:09.895 - warn: lgtv.0 Reconnection to DB.
    2019-04-19 16:57:09.897 - warn: lgtv.0 Reconnection to DB.
    2019-04-19 16:57:09.978 - warn: socketio.0 Reconnection to DB.
    2019-04-19 16:57:09.981 - warn: socketio.0 Reconnection to DB.
    2019-04-19 16:57:10.593 - warn: backitup.0 Reconnection to DB.
    2019-04-19 16:57:10.598 - warn: backitup.0 Reconnection to DB.
    2019-04-19 16:57:10.654 - warn: rpi2.0 Reconnection to DB.
    2019-04-19 16:57:10.659 - warn: rpi2.0 Reconnection to DB.
    2019-04-19 16:57:11.702 - debug: statistics.0 redis pmessage io.lgtv.0.states.on io.lgtv.0.states.on {"val":false,"ack":true,"ts":1555685831701,"q":0,"from":"system.adapter.lgtv.0","lc":1555617750672}
    2019-04-19 16:57:11.702 - debug: statistics.0 [STATE CHANGE] ======================= lgtv.0.states.on =======================
    2019-04-19 16:57:11.703 - debug: statistics.0 [STATE CHANGE] stateChange => false [true]
    2019-04-19 16:57:11.703 - debug: statistics.0 [STATE CHANGE] count call lgtv.0.states.on with false
    2019-04-19 16:57:11.703 - debug: statistics.0 new pulse false ? false
    2019-04-19 16:57:11.704 - debug: statistics.0 [STATE CHANGE] timecount call lgtv.0.states.on with false
    2019-04-19 16:57:11.706 - debug: statistics.0 [STATE CHANGE] 1->0 delta 10703171 state 1555617750672 last 1555607047501
    2019-04-19 16:57:11.715 - debug: statistics.0 redis pmessage io.lgtv.0.states.on io.lgtv.0.states.on {"val":false,"ack":true,"ts":1555685831710,"q":0,"from":"system.adapter.lgtv.0","lc":1555617750672}
    2019-04-19 16:57:11.715 - debug: statistics.0 [STATE CHANGE] ======================= lgtv.0.states.on =======================
    2019-04-19 16:57:11.716 - debug: statistics.0 [STATE CHANGE] stateChange => false [true]
    2019-04-19 16:57:11.716 - debug: statistics.0 [STATE CHANGE] count call lgtv.0.states.on with false
    2019-04-19 16:57:11.716 - debug: statistics.0 new pulse false ? false
    2019-04-19 16:57:11.716 - debug: statistics.0 [STATE CHANGE] timecount call lgtv.0.states.on with false
    2019-04-19 16:57:11.723 - debug: statistics.0 [STATE CHANGE] 1->0 delta 10703171 state 1555617750672 last 1555607047501
    2019-04-19 16:57:12.531 - info: sonoff.0 Client [Schalter_WZ] connected with secret 1555685832530_7368
    2019-04-19 16:57:12.587 - info: sonoff.0 Client [Temp_Gefrierschrank] connected with secret 1555685832585_5997
    2019-04-19 16:57:16.194 - info: web.0 ==>Connected system.user.admin from ::ffff:192.168.10.86
    2019-04-19 16:57:28.171 - info: modbus.0 Connected to slave 192.168.10.99
    2019-04-19 16:57:38.151 - info: denon.0 [CONNECT] Adapter connected to DENON-AVR: 192.168.10.14:23
    2019-04-19 16:57:38.602 - info: host.ioBroker-RasPi instance system.adapter.javascript.0 started with pid 9341
    2019-04-19 16:57:38.757 - debug: statistics.0 redis pmessage io.denon.0.zoneMain.powerZone io.denon.0.zoneMain.powerZone {"val":false,"ack":true,"ts":1555685858756,"q":0,"from":"system.adapter.denon.0","lc":1555617653545}
    2019-04-19 16:57:38.758 - debug: statistics.0 [STATE CHANGE] ======================= denon.0.zoneMain.powerZone =======================
    2019-04-19 16:57:38.758 - debug: statistics.0 [STATE CHANGE] stateChange => false [true]
    2019-04-19 16:57:38.758 - debug: statistics.0 [STATE CHANGE] count call denon.0.zoneMain.powerZone with false
    2019-04-19 16:57:38.758 - debug: statistics.0 new pulse false ? false
    2019-04-19 16:57:38.758 - debug: statistics.0 [STATE CHANGE] timecount call denon.0.zoneMain.powerZone with false
    2019-04-19 16:57:38.761 - debug: statistics.0 [STATE CHANGE] 1->0 delta 17936947 state 1555617653545 last 1555599716598
    2019-04-19 16:57:39.245 - info: host.ioBroker-RasPi instance system.adapter.ping.0 started with pid 9347
    2019-04-19 16:57:41.154 - info: ping.0 States connected to redis: 127.0.0.1:6379
    2019-04-19 16:57:41.318 - info: ping.0 starting. Version 1.3.2 in /opt/iobroker/node_modules/iobroker.ping, node: v8.15.0
    2019-04-19 16:57:43.784 - info: javascript.0 States connected to redis: 127.0.0.1:6379
    2019-04-19 16:57:43.858 - info: javascript.0 starting. Version 4.1.12 in /opt/iobroker/node_modules/iobroker.javascript, node: v8.15.0
    2019-04-19 16:57:43.882 - info: javascript.0 requesting all states
    2019-04-19 16:57:43.886 - info: javascript.0 requesting all objects
    2019-04-19 16:57:46.741 - info: javascript.0 received all states
    2019-04-19 16:58:25.978 - warn: modbus.0 Poll error count: 1 code: "App Timeout"
    2019-04-19 16:58:26.005 - info: sonoff.0 Client [Temp_Gefrierschrank] reconnected. Old secret 1555685832585_5997. New secret 1555685905971_6052
    2019-04-19 16:58:26.005 - warn: modbus.0 Error: undefined
    2019-04-19 16:58:26.006 - error: modbus.0 Request timed out.
    2019-04-19 16:58:26.007 - error: modbus.0 Client in error state.
    2019-04-19 16:58:26.236 - info: sonoff.0 Client [Schalter_WZ] reconnected. Old secret 1555685832530_7368. New secret 1555685906002_9696
    2019-04-19 16:58:26.251 - info: sonoff.0 Client [Temp_Gefrierschrank] connection closed: closed
    2019-04-19 16:58:26.367 - error: ping.0 uncaught exception: spawn ENOMEM
    2019-04-19 16:58:26.368 - error: ping.0 Error: spawn ENOMEM
    at ChildProcess.spawn (internal/child_process.js:313:11)
    at Object.exports.spawn (child_process.js:508:9)
    at Object.probe (/opt/iobroker/node_modules/iobroker.ping/lib/ping.js:35:17)
    at pingAll (/opt/iobroker/node_modules/iobroker.ping/main.js:98:10)
    at Timeout._onTimeout (/opt/iobroker/node_modules/iobroker.ping/main.js:107:17)
    at ontimeout (timers.js:498:11)
    at tryOnTimeout (timers.js:323:5)
    at Timer.listOnTimeout (timers.js:290:5)
    2019-04-19 16:58:26.659 - warn: host.ioBroker-RasPi instance system.adapter.javascript.0 terminated due to SIGKILL
    2019-04-19 16:58:26.661 - error: host.ioBroker-RasPi instance system.adapter.javascript.0 terminated with code null ()
    2019-04-19 16:58:26.663 - info: host.ioBroker-RasPi Restart adapter system.adapter.javascript.0 because enabled
    2019-04-19 16:58:26.678 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610099542.power io.fritzdect.0.DECT200_087610099542.power {"val":24.53,"ack":true,"ts":1555685906677,"q":0,"from":"system.adapter.fritzdect.0","lc":1555685829023}
    2019-04-19 16:58:26.679 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610099542.power =======================
    2019-04-19 16:58:26.683 - debug: statistics.0 [STATE CHANGE] stateChange => 24.53 [true]
    2019-04-19 16:58:26.684 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610099542.power value 24.53
    2019-04-19 16:58:26.691 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610450557.power io.fritzdect.0.DECT200_087610450557.power {"val":98.91,"ack":true,"ts":1555685906685,"q":0,"from":"system.adapter.fritzdect.0","lc":1555685906685}
    2019-04-19 16:58:26.692 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610450557.power =======================
    2019-04-19 16:58:26.692 - debug: statistics.0 [STATE CHANGE] stateChange => 98.91 [true]
    2019-04-19 16:58:26.694 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610450557.power value 98.91
    2019-04-19 16:58:26.697 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610490139.power io.fritzdect.0.DECT200_087610490139.power {"val":0.28,"ack":true,"ts":1555685906692,"q":0,"from":"system.adapter.fritzdect.0","lc":1555682653521}
    2019-04-19 16:58:26.697 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610490139.power =======================
    2019-04-19 16:58:26.698 - debug: statistics.0 [STATE CHANGE] stateChange => 0.28 [true]
    2019-04-19 16:58:26.698 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610490139.power value 0.28
    2019-04-19 16:58:26.706 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610473548.power io.fritzdect.0.DECT200_087610473548.power {"val":0,"ack":true,"ts":1555685906697,"q":0,"from":"system.adapter.fritzdect.0","lc":1555346195409}
    2019-04-19 16:58:26.706 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610473548.power =======================
    2019-04-19 16:58:26.706 - debug: statistics.0 [STATE CHANGE] stateChange => 0 [true]
    2019-04-19 16:58:26.712 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610473548.power value 0
    2019-04-19 16:58:26.715 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610029095.power io.fritzdect.0.DECT200_087610029095.power {"val":108.21,"ack":true,"ts":1555685906710,"q":0,"from":"system.adapter.fritzdect.0","lc":1555685906710}
    2019-04-19 16:58:26.715 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610029095.power =======================
    2019-04-19 16:58:26.715 - debug: statistics.0 [STATE CHANGE] stateChange => 108.21 [true]
    2019-04-19 16:58:26.715 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610029095.power value 108.21
    2019-04-19 16:58:26.718 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610490149.power io.fritzdect.0.DECT200_087610490149.power {"val":0,"ack":true,"ts":1555685906715,"q":0,"from":"system.adapter.fritzdect.0","lc":1555541923767}
    2019-04-19 16:58:26.718 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610490149.power =======================
    2019-04-19 16:58:26.718 - debug: statistics.0 [STATE CHANGE] stateChange => 0 [true]
    2019-04-19 16:58:26.719 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610490149.power value 0
    2019-04-19 16:58:26.721 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610482090.power io.fritzdect.0.DECT200_087610482090.power {"val":0,"ack":true,"ts":1555685906718,"q":0,"from":"system.adapter.fritzdect.0","lc":1555175962730}
    2019-04-19 16:58:26.721 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610482090.power =======================
    2019-04-19 16:58:26.722 - debug: statistics.0 [STATE CHANGE] stateChange => 0 [true]
    2019-04-19 16:58:26.722 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610482090.power value 0
    2019-04-19 16:58:26.816 - warn: fritzbox.0 Reconnection to DB.
    2019-04-19 16:58:26.821 - warn: fritzdect.0 Reconnection to DB.
    2019-04-19 16:58:26.823 - warn: fritzbox.0 Reconnection to DB.
    2019-04-19 16:58:26.824 - warn: fritzdect.0 Reconnection to DB.
    2019-04-19 16:58:26.876 - warn: backitup.0 Reconnection to DB.
    2019-04-19 16:58:26.878 - info: ping.0 terminating
    2019-04-19 16:58:26.881 - warn: backitup.0 Reconnection to DB.
    2019-04-19 16:58:26.949 - error: Caught by controller[0]: { Error: spawn ENOMEM
    2019-04-19 16:58:26.950 - error: Caught by controller[0]: at ChildProcess.spawn (internal/child_process.js:313:11)
    2019-04-19 16:58:26.950 - error: Caught by controller[0]: at Object.exports.spawn (child_process.js:508:9)
    2019-04-19 16:58:26.950 - error: Caught by controller[0]: at Object.probe (/opt/iobroker/node_modules/iobroker.ping/lib/ping.js:35:17)
    2019-04-19 16:58:26.950 - error: Caught by controller[0]: at pingAll (/opt/iobroker/node_modules/iobroker.ping/main.js:98:10)
    2019-04-19 16:58:26.951 - error: Caught by controller[0]: at Timeout._onTimeout (/opt/iobroker/node_modules/iobroker.ping/main.js:107:17)
    2019-04-19 16:58:26.951 - error: Caught by controller[0]: at ontimeout (timers.js:498:11)
    2019-04-19 16:58:26.951 - error: Caught by controller[0]: at tryOnTimeout (timers.js:323:5)
    2019-04-19 16:58:26.951 - error: Caught by controller[0]: at Timer.listOnTimeout (timers.js:290:5) errno: 'ENOMEM', code: 'ENOMEM', syscall: 'spawn' }
    2019-04-19 16:58:26.951 - error: host.ioBroker-RasPi instance system.adapter.ping.0 terminated with code 0 (OK)
    2019-04-19 16:58:26.951 - info: host.ioBroker-RasPi Restart adapter system.adapter.ping.0 because enabled
    2019-04-19 16:58:27.007 - info: modbus.0 Disconnected from slave 192.168.10.99
    2019-04-19 16:58:27.061 - warn: history.0 Reconnection to DB.
    2019-04-19 16:58:27.065 - warn: history.0 Reconnection to DB.
    2019-04-19 16:58:27.101 - warn: maxcube.0 Reconnection to DB.
    2019-04-19 16:58:27.105 - warn: maxcube.0 Reconnection to DB.
    2019-04-19 16:58:27.256 - warn: tr-064.0 Reconnection to DB.
    2019-04-19 16:58:27.258 - warn: tr-064.0 Reconnection to DB.
    2019-04-19 16:58:27.280 - warn: discovery.0 Reconnection to DB.
    2019-04-19 16:58:27.283 - warn: discovery.0 Reconnection to DB.
    2019-04-19 16:58:27.308 - warn: statistics.0 Reconnection to DB.
    2019-04-19 16:58:27.311 - warn: statistics.0 Reconnection to DB.
    2019-04-19 16:58:27.385 - warn: socketio.0 Reconnection to DB.
    2019-04-19 16:58:27.388 - warn: socketio.0 Reconnection to DB.
    2019-04-19 16:58:27.419 - warn: web.0 Reconnection to DB.
    2019-04-19 16:58:27.422 - warn: web.0 Reconnection to DB.
    2019-04-19 16:58:27.471 - warn: modbus.0 Reconnection to DB.
    2019-04-19 16:58:27.474 - warn: modbus.0 Reconnection to DB.
    2019-04-19 16:58:27.944 - warn: cloud.0 Reconnection to DB.
    2019-04-19 16:58:27.944 - warn: admin.0 Reconnection to DB.
    2019-04-19 16:58:27.947 - warn: cloud.0 Reconnection to DB.
    2019-04-19 16:58:27.947 - warn: admin.0 Reconnection to DB.
    2019-04-19 16:58:27.957 - warn: lgtv.0 Reconnection to DB.
    2019-04-19 16:58:27.964 - warn: tr-064.1 Reconnection to DB.
    2019-04-19 16:58:27.966 - warn: tr-064.1 Reconnection to DB.
    2019-04-19 16:58:27.959 - warn: lgtv.0 Reconnection to DB.
    2019-04-19 16:58:27.995 - warn: sonoff.0 Reconnection to DB.
    2019-04-19 16:58:27.998 - warn: sonoff.0 Reconnection to DB.
    2019-04-19 16:58:28.181 - warn: denon.0 Reconnection to DB.
    2019-04-19 16:58:28.184 - warn: denon.0 Reconnection to DB.
    2019-04-19 16:58:28.715 - warn: rpi2.0 Reconnection to DB.
    2019-04-19 16:58:28.720 - warn: rpi2.0 Reconnection to DB.
    2019-04-19 16:58:29.384 - info: sonoff.0 Client [Temp_Gefrierschrank] connected with secret 1555685909382_1458
    2019-04-19 16:58:29.459 - debug: statistics.0 redis pmessage io.lgtv.0.states.on io.lgtv.0.states.on {"val":false,"ack":true,"ts":1555685909458,"q":0,"from":"system.adapter.lgtv.0","lc":1555617750672}
    2019-04-19 16:58:29.460 - debug: statistics.0 [STATE CHANGE] ======================= lgtv.0.states.on =======================
    2019-04-19 16:58:29.460 - debug: statistics.0 [STATE CHANGE] stateChange => false [true]
    2019-04-19 16:58:29.460 - debug: statistics.0 [STATE CHANGE] count call lgtv.0.states.on with false
    2019-04-19 16:58:29.461 - debug: statistics.0 new pulse false ? false
    2019-04-19 16:58:29.461 - debug: statistics.0 [STATE CHANGE] timecount call lgtv.0.states.on with false
    2019-04-19 16:58:29.464 - debug: statistics.0 [STATE CHANGE] 1->0 delta 10703171 state 1555617750672 last 1555607047501

    Noch zur Info:
    History und Statistic werden auf einem USB-Stick gespeichert.
    Die Datenpunkte im RAM habe ich auf 400 verkleinert.

    Ich hoffe das Log ist aussagekräftig. Wollte nicht noch mehr hier hinein kopieren.

    Ich danke Euch

    Gregor

    INTEL NUC i7, Sonoff, hmIP, AVM, Jeelink, T-Link, Alexa, Saia-Burgess, uvm.

    HomoranH 1 Antwort Letzte Antwort
    0
    • GregorSG GregorS

      Hallo,
      habe seit einiger Zeit Probleme mit meinem ioBroker-System auf einem Pi3.
      Regelmäßig fällt es aus. Ich konnte bis jetzt nicht den Fehler identifizieren.
      Das Tablet kann keine Verbindung aufbauen, und mit dem Terminal komme ich nicht auf den Pi.
      Irgendwann ist es dann wieder gut und alles funktioniert wieder.
      Ich hänge hier mal die Logdatei dran, vieleicht könnt ihr den Fehler dort lokalisieren.

      Logdatei ioBroker:
      2019-04-19 16:57:09.769 - warn: sonoff.0 Reconnection to DB.
      2019-04-19 16:57:09.772 - warn: sonoff.0 Reconnection to DB.
      2019-04-19 16:57:09.895 - warn: lgtv.0 Reconnection to DB.
      2019-04-19 16:57:09.897 - warn: lgtv.0 Reconnection to DB.
      2019-04-19 16:57:09.978 - warn: socketio.0 Reconnection to DB.
      2019-04-19 16:57:09.981 - warn: socketio.0 Reconnection to DB.
      2019-04-19 16:57:10.593 - warn: backitup.0 Reconnection to DB.
      2019-04-19 16:57:10.598 - warn: backitup.0 Reconnection to DB.
      2019-04-19 16:57:10.654 - warn: rpi2.0 Reconnection to DB.
      2019-04-19 16:57:10.659 - warn: rpi2.0 Reconnection to DB.
      2019-04-19 16:57:11.702 - debug: statistics.0 redis pmessage io.lgtv.0.states.on io.lgtv.0.states.on {"val":false,"ack":true,"ts":1555685831701,"q":0,"from":"system.adapter.lgtv.0","lc":1555617750672}
      2019-04-19 16:57:11.702 - debug: statistics.0 [STATE CHANGE] ======================= lgtv.0.states.on =======================
      2019-04-19 16:57:11.703 - debug: statistics.0 [STATE CHANGE] stateChange => false [true]
      2019-04-19 16:57:11.703 - debug: statistics.0 [STATE CHANGE] count call lgtv.0.states.on with false
      2019-04-19 16:57:11.703 - debug: statistics.0 new pulse false ? false
      2019-04-19 16:57:11.704 - debug: statistics.0 [STATE CHANGE] timecount call lgtv.0.states.on with false
      2019-04-19 16:57:11.706 - debug: statistics.0 [STATE CHANGE] 1->0 delta 10703171 state 1555617750672 last 1555607047501
      2019-04-19 16:57:11.715 - debug: statistics.0 redis pmessage io.lgtv.0.states.on io.lgtv.0.states.on {"val":false,"ack":true,"ts":1555685831710,"q":0,"from":"system.adapter.lgtv.0","lc":1555617750672}
      2019-04-19 16:57:11.715 - debug: statistics.0 [STATE CHANGE] ======================= lgtv.0.states.on =======================
      2019-04-19 16:57:11.716 - debug: statistics.0 [STATE CHANGE] stateChange => false [true]
      2019-04-19 16:57:11.716 - debug: statistics.0 [STATE CHANGE] count call lgtv.0.states.on with false
      2019-04-19 16:57:11.716 - debug: statistics.0 new pulse false ? false
      2019-04-19 16:57:11.716 - debug: statistics.0 [STATE CHANGE] timecount call lgtv.0.states.on with false
      2019-04-19 16:57:11.723 - debug: statistics.0 [STATE CHANGE] 1->0 delta 10703171 state 1555617750672 last 1555607047501
      2019-04-19 16:57:12.531 - info: sonoff.0 Client [Schalter_WZ] connected with secret 1555685832530_7368
      2019-04-19 16:57:12.587 - info: sonoff.0 Client [Temp_Gefrierschrank] connected with secret 1555685832585_5997
      2019-04-19 16:57:16.194 - info: web.0 ==>Connected system.user.admin from ::ffff:192.168.10.86
      2019-04-19 16:57:28.171 - info: modbus.0 Connected to slave 192.168.10.99
      2019-04-19 16:57:38.151 - info: denon.0 [CONNECT] Adapter connected to DENON-AVR: 192.168.10.14:23
      2019-04-19 16:57:38.602 - info: host.ioBroker-RasPi instance system.adapter.javascript.0 started with pid 9341
      2019-04-19 16:57:38.757 - debug: statistics.0 redis pmessage io.denon.0.zoneMain.powerZone io.denon.0.zoneMain.powerZone {"val":false,"ack":true,"ts":1555685858756,"q":0,"from":"system.adapter.denon.0","lc":1555617653545}
      2019-04-19 16:57:38.758 - debug: statistics.0 [STATE CHANGE] ======================= denon.0.zoneMain.powerZone =======================
      2019-04-19 16:57:38.758 - debug: statistics.0 [STATE CHANGE] stateChange => false [true]
      2019-04-19 16:57:38.758 - debug: statistics.0 [STATE CHANGE] count call denon.0.zoneMain.powerZone with false
      2019-04-19 16:57:38.758 - debug: statistics.0 new pulse false ? false
      2019-04-19 16:57:38.758 - debug: statistics.0 [STATE CHANGE] timecount call denon.0.zoneMain.powerZone with false
      2019-04-19 16:57:38.761 - debug: statistics.0 [STATE CHANGE] 1->0 delta 17936947 state 1555617653545 last 1555599716598
      2019-04-19 16:57:39.245 - info: host.ioBroker-RasPi instance system.adapter.ping.0 started with pid 9347
      2019-04-19 16:57:41.154 - info: ping.0 States connected to redis: 127.0.0.1:6379
      2019-04-19 16:57:41.318 - info: ping.0 starting. Version 1.3.2 in /opt/iobroker/node_modules/iobroker.ping, node: v8.15.0
      2019-04-19 16:57:43.784 - info: javascript.0 States connected to redis: 127.0.0.1:6379
      2019-04-19 16:57:43.858 - info: javascript.0 starting. Version 4.1.12 in /opt/iobroker/node_modules/iobroker.javascript, node: v8.15.0
      2019-04-19 16:57:43.882 - info: javascript.0 requesting all states
      2019-04-19 16:57:43.886 - info: javascript.0 requesting all objects
      2019-04-19 16:57:46.741 - info: javascript.0 received all states
      2019-04-19 16:58:25.978 - warn: modbus.0 Poll error count: 1 code: "App Timeout"
      2019-04-19 16:58:26.005 - info: sonoff.0 Client [Temp_Gefrierschrank] reconnected. Old secret 1555685832585_5997. New secret 1555685905971_6052
      2019-04-19 16:58:26.005 - warn: modbus.0 Error: undefined
      2019-04-19 16:58:26.006 - error: modbus.0 Request timed out.
      2019-04-19 16:58:26.007 - error: modbus.0 Client in error state.
      2019-04-19 16:58:26.236 - info: sonoff.0 Client [Schalter_WZ] reconnected. Old secret 1555685832530_7368. New secret 1555685906002_9696
      2019-04-19 16:58:26.251 - info: sonoff.0 Client [Temp_Gefrierschrank] connection closed: closed
      2019-04-19 16:58:26.367 - error: ping.0 uncaught exception: spawn ENOMEM
      2019-04-19 16:58:26.368 - error: ping.0 Error: spawn ENOMEM
      at ChildProcess.spawn (internal/child_process.js:313:11)
      at Object.exports.spawn (child_process.js:508:9)
      at Object.probe (/opt/iobroker/node_modules/iobroker.ping/lib/ping.js:35:17)
      at pingAll (/opt/iobroker/node_modules/iobroker.ping/main.js:98:10)
      at Timeout._onTimeout (/opt/iobroker/node_modules/iobroker.ping/main.js:107:17)
      at ontimeout (timers.js:498:11)
      at tryOnTimeout (timers.js:323:5)
      at Timer.listOnTimeout (timers.js:290:5)
      2019-04-19 16:58:26.659 - warn: host.ioBroker-RasPi instance system.adapter.javascript.0 terminated due to SIGKILL
      2019-04-19 16:58:26.661 - error: host.ioBroker-RasPi instance system.adapter.javascript.0 terminated with code null ()
      2019-04-19 16:58:26.663 - info: host.ioBroker-RasPi Restart adapter system.adapter.javascript.0 because enabled
      2019-04-19 16:58:26.678 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610099542.power io.fritzdect.0.DECT200_087610099542.power {"val":24.53,"ack":true,"ts":1555685906677,"q":0,"from":"system.adapter.fritzdect.0","lc":1555685829023}
      2019-04-19 16:58:26.679 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610099542.power =======================
      2019-04-19 16:58:26.683 - debug: statistics.0 [STATE CHANGE] stateChange => 24.53 [true]
      2019-04-19 16:58:26.684 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610099542.power value 24.53
      2019-04-19 16:58:26.691 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610450557.power io.fritzdect.0.DECT200_087610450557.power {"val":98.91,"ack":true,"ts":1555685906685,"q":0,"from":"system.adapter.fritzdect.0","lc":1555685906685}
      2019-04-19 16:58:26.692 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610450557.power =======================
      2019-04-19 16:58:26.692 - debug: statistics.0 [STATE CHANGE] stateChange => 98.91 [true]
      2019-04-19 16:58:26.694 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610450557.power value 98.91
      2019-04-19 16:58:26.697 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610490139.power io.fritzdect.0.DECT200_087610490139.power {"val":0.28,"ack":true,"ts":1555685906692,"q":0,"from":"system.adapter.fritzdect.0","lc":1555682653521}
      2019-04-19 16:58:26.697 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610490139.power =======================
      2019-04-19 16:58:26.698 - debug: statistics.0 [STATE CHANGE] stateChange => 0.28 [true]
      2019-04-19 16:58:26.698 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610490139.power value 0.28
      2019-04-19 16:58:26.706 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610473548.power io.fritzdect.0.DECT200_087610473548.power {"val":0,"ack":true,"ts":1555685906697,"q":0,"from":"system.adapter.fritzdect.0","lc":1555346195409}
      2019-04-19 16:58:26.706 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610473548.power =======================
      2019-04-19 16:58:26.706 - debug: statistics.0 [STATE CHANGE] stateChange => 0 [true]
      2019-04-19 16:58:26.712 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610473548.power value 0
      2019-04-19 16:58:26.715 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610029095.power io.fritzdect.0.DECT200_087610029095.power {"val":108.21,"ack":true,"ts":1555685906710,"q":0,"from":"system.adapter.fritzdect.0","lc":1555685906710}
      2019-04-19 16:58:26.715 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610029095.power =======================
      2019-04-19 16:58:26.715 - debug: statistics.0 [STATE CHANGE] stateChange => 108.21 [true]
      2019-04-19 16:58:26.715 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610029095.power value 108.21
      2019-04-19 16:58:26.718 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610490149.power io.fritzdect.0.DECT200_087610490149.power {"val":0,"ack":true,"ts":1555685906715,"q":0,"from":"system.adapter.fritzdect.0","lc":1555541923767}
      2019-04-19 16:58:26.718 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610490149.power =======================
      2019-04-19 16:58:26.718 - debug: statistics.0 [STATE CHANGE] stateChange => 0 [true]
      2019-04-19 16:58:26.719 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610490149.power value 0
      2019-04-19 16:58:26.721 - debug: statistics.0 redis pmessage io.fritzdect.0.DECT200_087610482090.power io.fritzdect.0.DECT200_087610482090.power {"val":0,"ack":true,"ts":1555685906718,"q":0,"from":"system.adapter.fritzdect.0","lc":1555175962730}
      2019-04-19 16:58:26.721 - debug: statistics.0 [STATE CHANGE] ======================= fritzdect.0.DECT200_087610482090.power =======================
      2019-04-19 16:58:26.722 - debug: statistics.0 [STATE CHANGE] stateChange => 0 [true]
      2019-04-19 16:58:26.722 - debug: statistics.0 [STATE CHANGE] avg call: fritzdect.0.DECT200_087610482090.power value 0
      2019-04-19 16:58:26.816 - warn: fritzbox.0 Reconnection to DB.
      2019-04-19 16:58:26.821 - warn: fritzdect.0 Reconnection to DB.
      2019-04-19 16:58:26.823 - warn: fritzbox.0 Reconnection to DB.
      2019-04-19 16:58:26.824 - warn: fritzdect.0 Reconnection to DB.
      2019-04-19 16:58:26.876 - warn: backitup.0 Reconnection to DB.
      2019-04-19 16:58:26.878 - info: ping.0 terminating
      2019-04-19 16:58:26.881 - warn: backitup.0 Reconnection to DB.
      2019-04-19 16:58:26.949 - error: Caught by controller[0]: { Error: spawn ENOMEM
      2019-04-19 16:58:26.950 - error: Caught by controller[0]: at ChildProcess.spawn (internal/child_process.js:313:11)
      2019-04-19 16:58:26.950 - error: Caught by controller[0]: at Object.exports.spawn (child_process.js:508:9)
      2019-04-19 16:58:26.950 - error: Caught by controller[0]: at Object.probe (/opt/iobroker/node_modules/iobroker.ping/lib/ping.js:35:17)
      2019-04-19 16:58:26.950 - error: Caught by controller[0]: at pingAll (/opt/iobroker/node_modules/iobroker.ping/main.js:98:10)
      2019-04-19 16:58:26.951 - error: Caught by controller[0]: at Timeout._onTimeout (/opt/iobroker/node_modules/iobroker.ping/main.js:107:17)
      2019-04-19 16:58:26.951 - error: Caught by controller[0]: at ontimeout (timers.js:498:11)
      2019-04-19 16:58:26.951 - error: Caught by controller[0]: at tryOnTimeout (timers.js:323:5)
      2019-04-19 16:58:26.951 - error: Caught by controller[0]: at Timer.listOnTimeout (timers.js:290:5) errno: 'ENOMEM', code: 'ENOMEM', syscall: 'spawn' }
      2019-04-19 16:58:26.951 - error: host.ioBroker-RasPi instance system.adapter.ping.0 terminated with code 0 (OK)
      2019-04-19 16:58:26.951 - info: host.ioBroker-RasPi Restart adapter system.adapter.ping.0 because enabled
      2019-04-19 16:58:27.007 - info: modbus.0 Disconnected from slave 192.168.10.99
      2019-04-19 16:58:27.061 - warn: history.0 Reconnection to DB.
      2019-04-19 16:58:27.065 - warn: history.0 Reconnection to DB.
      2019-04-19 16:58:27.101 - warn: maxcube.0 Reconnection to DB.
      2019-04-19 16:58:27.105 - warn: maxcube.0 Reconnection to DB.
      2019-04-19 16:58:27.256 - warn: tr-064.0 Reconnection to DB.
      2019-04-19 16:58:27.258 - warn: tr-064.0 Reconnection to DB.
      2019-04-19 16:58:27.280 - warn: discovery.0 Reconnection to DB.
      2019-04-19 16:58:27.283 - warn: discovery.0 Reconnection to DB.
      2019-04-19 16:58:27.308 - warn: statistics.0 Reconnection to DB.
      2019-04-19 16:58:27.311 - warn: statistics.0 Reconnection to DB.
      2019-04-19 16:58:27.385 - warn: socketio.0 Reconnection to DB.
      2019-04-19 16:58:27.388 - warn: socketio.0 Reconnection to DB.
      2019-04-19 16:58:27.419 - warn: web.0 Reconnection to DB.
      2019-04-19 16:58:27.422 - warn: web.0 Reconnection to DB.
      2019-04-19 16:58:27.471 - warn: modbus.0 Reconnection to DB.
      2019-04-19 16:58:27.474 - warn: modbus.0 Reconnection to DB.
      2019-04-19 16:58:27.944 - warn: cloud.0 Reconnection to DB.
      2019-04-19 16:58:27.944 - warn: admin.0 Reconnection to DB.
      2019-04-19 16:58:27.947 - warn: cloud.0 Reconnection to DB.
      2019-04-19 16:58:27.947 - warn: admin.0 Reconnection to DB.
      2019-04-19 16:58:27.957 - warn: lgtv.0 Reconnection to DB.
      2019-04-19 16:58:27.964 - warn: tr-064.1 Reconnection to DB.
      2019-04-19 16:58:27.966 - warn: tr-064.1 Reconnection to DB.
      2019-04-19 16:58:27.959 - warn: lgtv.0 Reconnection to DB.
      2019-04-19 16:58:27.995 - warn: sonoff.0 Reconnection to DB.
      2019-04-19 16:58:27.998 - warn: sonoff.0 Reconnection to DB.
      2019-04-19 16:58:28.181 - warn: denon.0 Reconnection to DB.
      2019-04-19 16:58:28.184 - warn: denon.0 Reconnection to DB.
      2019-04-19 16:58:28.715 - warn: rpi2.0 Reconnection to DB.
      2019-04-19 16:58:28.720 - warn: rpi2.0 Reconnection to DB.
      2019-04-19 16:58:29.384 - info: sonoff.0 Client [Temp_Gefrierschrank] connected with secret 1555685909382_1458
      2019-04-19 16:58:29.459 - debug: statistics.0 redis pmessage io.lgtv.0.states.on io.lgtv.0.states.on {"val":false,"ack":true,"ts":1555685909458,"q":0,"from":"system.adapter.lgtv.0","lc":1555617750672}
      2019-04-19 16:58:29.460 - debug: statistics.0 [STATE CHANGE] ======================= lgtv.0.states.on =======================
      2019-04-19 16:58:29.460 - debug: statistics.0 [STATE CHANGE] stateChange => false [true]
      2019-04-19 16:58:29.460 - debug: statistics.0 [STATE CHANGE] count call lgtv.0.states.on with false
      2019-04-19 16:58:29.461 - debug: statistics.0 new pulse false ? false
      2019-04-19 16:58:29.461 - debug: statistics.0 [STATE CHANGE] timecount call lgtv.0.states.on with false
      2019-04-19 16:58:29.464 - debug: statistics.0 [STATE CHANGE] 1->0 delta 10703171 state 1555617750672 last 1555607047501

      Noch zur Info:
      History und Statistic werden auf einem USB-Stick gespeichert.
      Die Datenpunkte im RAM habe ich auf 400 verkleinert.

      Ich hoffe das Log ist aussagekräftig. Wollte nicht noch mehr hier hinein kopieren.

      Ich danke Euch

      Gregor

      HomoranH Nicht stören
      HomoranH Nicht stören
      Homoran
      Global Moderator Administrators
      schrieb am zuletzt editiert von Homoran
      #2

      @GregorS sagte in ioBroker / Vis / Pi sind immer wieder nicht erreichbar:

      code: 'ENOMEM

      Dein Speicher ist voll.

      Wieviele Adapter laufen bei dir

      kein Support per PN! - Fragen im Forum stellen -
      Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.
      Das Forum freut sich über eine Spende. Benutzt dazu den Spendenbutton oben rechts. Danke!
      der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

      GregorSG 1 Antwort Letzte Antwort
      0
      • HomoranH Homoran

        @GregorS sagte in ioBroker / Vis / Pi sind immer wieder nicht erreichbar:

        code: 'ENOMEM

        Dein Speicher ist voll.

        Wieviele Adapter laufen bei dir

        GregorSG Offline
        GregorSG Offline
        GregorS
        schrieb am zuletzt editiert von GregorS
        #3

        @Homoran
        Es sind 31 Adapter mit Instanzen und 20 Prozesse.
        😔 😔

        Woran hast du es erkannt?

        INTEL NUC i7, Sonoff, hmIP, AVM, Jeelink, T-Link, Alexa, Saia-Burgess, uvm.

        HomoranH 1 Antwort Letzte Antwort
        0
        • GregorSG GregorS

          @Homoran
          Es sind 31 Adapter mit Instanzen und 20 Prozesse.
          😔 😔

          Woran hast du es erkannt?

          HomoranH Nicht stören
          HomoranH Nicht stören
          Homoran
          Global Moderator Administrators
          schrieb am zuletzt editiert von
          #4

          @GregorS
          Ein pi 2/3 ist nur bis 15/20 Adapter "sicher".
          Darüberhinaus wird das RAM knapp.

          Mit 31 Adaptern hast du den RAM schon 3xtrem ausgereizt.
          Hier solltest du dir über eine andere Hardware Gedanken machen.

          kein Support per PN! - Fragen im Forum stellen -
          Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.
          Das Forum freut sich über eine Spende. Benutzt dazu den Spendenbutton oben rechts. Danke!
          der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

          GregorSG 1 Antwort Letzte Antwort
          0
          • HomoranH Homoran

            @GregorS
            Ein pi 2/3 ist nur bis 15/20 Adapter "sicher".
            Darüberhinaus wird das RAM knapp.

            Mit 31 Adaptern hast du den RAM schon 3xtrem ausgereizt.
            Hier solltest du dir über eine andere Hardware Gedanken machen.

            GregorSG Offline
            GregorSG Offline
            GregorS
            schrieb am zuletzt editiert von
            #5

            @Homoran
            Ok. Das ist natürlich Mist.
            Aber so ein System wird von selber immer größer.
            Weclche Hardware würdest du empfehlen?
            Sollte ein kleiner Rechner sein wegen dem Stromverbrauch.

            Ich danke dir für deine Hilfe.
            Hätte ewig nach dem Fehler gesucht.
            👍 👍

            INTEL NUC i7, Sonoff, hmIP, AVM, Jeelink, T-Link, Alexa, Saia-Burgess, uvm.

            HomoranH 1 Antwort Letzte Antwort
            0
            • GregorSG GregorS

              @Homoran
              Ok. Das ist natürlich Mist.
              Aber so ein System wird von selber immer größer.
              Weclche Hardware würdest du empfehlen?
              Sollte ein kleiner Rechner sein wegen dem Stromverbrauch.

              Ich danke dir für deine Hilfe.
              Hätte ewig nach dem Fehler gesucht.
              👍 👍

              HomoranH Nicht stören
              HomoranH Nicht stören
              Homoran
              Global Moderator Administrators
              schrieb am zuletzt editiert von
              #6

              @GregorS sagte in ioBroker / Vis / Pi sind immer wieder nicht erreichbar:

              Hätte ewig nach dem Fehler gesucht.

              Steht doch im log. Hatte ich dir im vorletzten post rausgesucht.

              @GregorS sagte in ioBroker / Vis / Pi sind immer wieder nicht erreichbar:

              Weclche Hardware würdest du empfehlen?

              Wenn die immer größer wird, solltest du vielleict an ei en NUC denken.
              Ich hatte allerdings meine Installation (die produktive) über Jahre auf einem Tinkerboard bevor ich jetzt wegen proxmox auch auf einen nuc mit mehreren VMs umgezogen bin.

              Der Nuc (je nach Modell) braucht etwa 6-10W, was im Bereich von 2-3 raspis liegt.

              kein Support per PN! - Fragen im Forum stellen -
              Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.
              Das Forum freut sich über eine Spende. Benutzt dazu den Spendenbutton oben rechts. Danke!
              der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

              GregorSG 1 Antwort Letzte Antwort
              0
              • HomoranH Homoran

                @GregorS sagte in ioBroker / Vis / Pi sind immer wieder nicht erreichbar:

                Hätte ewig nach dem Fehler gesucht.

                Steht doch im log. Hatte ich dir im vorletzten post rausgesucht.

                @GregorS sagte in ioBroker / Vis / Pi sind immer wieder nicht erreichbar:

                Weclche Hardware würdest du empfehlen?

                Wenn die immer größer wird, solltest du vielleict an ei en NUC denken.
                Ich hatte allerdings meine Installation (die produktive) über Jahre auf einem Tinkerboard bevor ich jetzt wegen proxmox auch auf einen nuc mit mehreren VMs umgezogen bin.

                Der Nuc (je nach Modell) braucht etwa 6-10W, was im Bereich von 2-3 raspis liegt.

                GregorSG Offline
                GregorSG Offline
                GregorS
                schrieb am zuletzt editiert von
                #7

                @Homoran
                Hab mir mal das Tinkerboard angeschaut.
                Würde mir persönlich zusagen, die Version mit 16GB MMC
                Wo ist bei ihm die Leistungsgrenze erreicht?
                Kann ich mit einem Backup und dem entsprechenden Image für das Tinkerboard direkt umsteigen,
                oder muss ich alles neu konfigurieren?

                Last but not least
                Vielen Dank für die kompetente Hilfe.

                Gruß
                Gregor

                INTEL NUC i7, Sonoff, hmIP, AVM, Jeelink, T-Link, Alexa, Saia-Burgess, uvm.

                HomoranH 1 Antwort Letzte Antwort
                0
                • GregorSG GregorS

                  @Homoran
                  Hab mir mal das Tinkerboard angeschaut.
                  Würde mir persönlich zusagen, die Version mit 16GB MMC
                  Wo ist bei ihm die Leistungsgrenze erreicht?
                  Kann ich mit einem Backup und dem entsprechenden Image für das Tinkerboard direkt umsteigen,
                  oder muss ich alles neu konfigurieren?

                  Last but not least
                  Vielen Dank für die kompetente Hilfe.

                  Gruß
                  Gregor

                  HomoranH Nicht stören
                  HomoranH Nicht stören
                  Homoran
                  Global Moderator Administrators
                  schrieb am zuletzt editiert von
                  #8

                  @GregorS sagte in ioBroker / Vis / Pi sind immer wieder nicht erreichbar:

                  Würde mir persönlich zusagen, die Version mit 16GB MMC
                  Wo ist bei ihm die Leistungsgrenze erreicht?

                  Ich habe noch das gute alte Tinkerboard (ohne S und ohne emmc).
                  Ich bin damit nie an Grenzen gestoßen, obwohl meine Installation nicht gerade klein ist.
                  Allerdings keine alexa und noch wenig scripte.

                  Das Tinkerboard war/ist mein Favorit, weil es den schnellsten Cardreader (bei emmc nicht wichtig) und ein dual achannel ddr4 ram besitzt.
                  Dadurch ist er um längen besser was die I/O last sngeht, als anderer SBC.

                  kein Support per PN! - Fragen im Forum stellen -
                  Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.
                  Das Forum freut sich über eine Spende. Benutzt dazu den Spendenbutton oben rechts. Danke!
                  der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

                  1 Antwort Letzte Antwort
                  0

                  Hey! Du scheinst an dieser Unterhaltung interessiert zu sein, hast aber noch kein Konto.

                  Hast du es satt, bei jedem Besuch durch die gleichen Beiträge zu scrollen? Wenn du dich für ein Konto anmeldest, kommst du immer genau dorthin zurück, wo du zuvor warst, und kannst dich über neue Antworten benachrichtigen lassen (entweder per E-Mail oder Push-Benachrichtigung). Du kannst auch Lesezeichen speichern und Beiträge positiv bewerten, um anderen Community-Mitgliedern deine Wertschätzung zu zeigen.

                  Mit deinem Input könnte dieser Beitrag noch besser werden 💗

                  Registrieren Anmelden
                  Antworten
                  • In einem neuen Thema antworten
                  Anmelden zum Antworten
                  • Älteste zuerst
                  • Neuste zuerst
                  • Meiste Stimmen


                  Support us

                  ioBroker
                  Community Adapters
                  Donate
                  FAQ Cloud / IOT
                  HowTo: Node.js-Update
                  HowTo: Backup/Restore
                  Downloads
                  BLOG

                  531

                  Online

                  32.8k

                  Benutzer

                  82.8k

                  Themen

                  1.3m

                  Beiträge
                  Community
                  Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                  ioBroker Community 2014-2025
                  logo
                  • Anmelden

                  • Du hast noch kein Konto? Registrieren

                  • Anmelden oder registrieren, um zu suchen
                  • Erster Beitrag
                    Letzter Beitrag
                  0
                  • Home
                  • Aktuell
                  • Tags
                  • Ungelesen 0
                  • Kategorien
                  • Unreplied
                  • Beliebt
                  • GitHub
                  • Docu
                  • Hilfe