NEWS
[gelöst] pivccu3 3.71.12 und nodejs 18.x
[gelöst] pivccu3 3.71.12 und nodejs 18.x
-
@wildbill sagte in pivccu3 3.71.12 und nodejs 18.x:
PiVCCU erstellt einen eigenen Container in dem dann die CCU läuft.
Und baut network bridges. Das weiß ich auch noch.
@thomas-braun Wenn man PiVCCU und NodeJS googled kommen auch nur ein paar Threads im iobroker-Forum und einmal was in Vebindung mit Homebridge. Also sollte es PiVCCU meiner Meinung nach nicht jucken, ob da NodeJS parallel läuft und in welcher Version. Aber wer weiss schon...
Gruss, Jürgen
-
@thomas-braun Wenn man PiVCCU und NodeJS googled kommen auch nur ein paar Threads im iobroker-Forum und einmal was in Vebindung mit Homebridge. Also sollte es PiVCCU meiner Meinung nach nicht jucken, ob da NodeJS parallel läuft und in welcher Version. Aber wer weiss schon...
Gruss, Jürgen
@wildbill sagte in pivccu3 3.71.12 und nodejs 18.x:
@thomas-braun Wenn man PiVCCU und NodeJS googled kommen auch nur ein paar Threads im iobroker-Forum und einmal was in Vebindung mit Homebridge. Also sollte es PiVCCU meiner Meinung nach nicht jucken, ob da NodeJS parallel läuft und in welcher Version. Aber wer weiss schon...
Gruss, Jürgen
tut es nicht! zumindest bisher
ich weiß nich wieviele All in one Images ich damals gebaut habe und auch selber genutzt habe. -
@meicker sagte in pivccu3 3.71.12 und nodejs 18.x:
[ 57.313687] IPv6: ADDRCONF(NETDEV_CHANGE): br0: link becomes ready [ 68.910512] eq3loop: created slave mmd_hmip [ 68.912558] eq3loop: created slave mmd_bidcos [ 71.041605] eq3loop: eq3loop_open_slave() mmd_bidcos [ 88.427092] eq3loop: eq3loop_open_slave() mmd_hmip [ 88.427254] eq3loop: eq3loop_close_slave() mmd_hmip [ 88.433391] eq3loop: eq3loop_open_slave() mmd_hmip [ 88.433539] eq3loop: eq3loop_close_slave() mmd_hmip [ 88.434407] eq3loop: eq3loop_open_slave() mmd_hmip [ 88.434589] eq3loop: eq3loop_close_slave() mmd_hmip [ 88.442111] eq3loop: eq3loop_open_slave() mmd_hmipda scheint es loszugehen
ob die open/close so sein dürfen weiss ich nicht -
Hi Thomas,
läuft wohl doch nicht zu 100% - Gestern war alles OK. Eben war das Board scheinbar am abschmieren und ist dann letztlich abgeschmiert. Das passiert zwischendurch und ich weiß bis heute nicht warum, Hab damals schon alles komplett neu gemacht und dennoch hängt sich das Board alle paar Tage mal auf ...
Aber jetzt ist alles wieder so wie es war als es nicht lief. Homematic ist nicht erreichbar auf 192.168.1.30 - Funk scheint aber noch anzukommen, Homematic Fensterkontakte z.B signalisieren mit Grün aber die beiden hm-rega und rpc starten nicht mehr.
Hier mal die komplette diagnose:
======== Start marking the full check here ========= Skript v.2023-06-20 *** BASE SYSTEM *** Static hostname: ioBroker Icon name: computer Machine ID: 078479a1b0a4459f80590dd571c3d6de Boot ID: 8f20e4fc59964966a9ffbb09a7990217 Operating System: Armbian 23.8.1 bullseye Kernel: Linux 6.1.50-current-rockchip Architecture: arm model name : ARMv7 Processor rev 1 (v7l) Docker : false Virtualization : none Kernel : armv7l Userland : armhf Systemuptime and Load: 19:32:15 up 13 min, 1 user, load average: 1.41, 6.61, 6.58 CPU threads: 4 *** Time and Time Zones *** Local time: Fri 2023-09-29 19:32:15 CEST Universal time: Fri 2023-09-29 17:32:15 UTC RTC time: Tue 1973-08-14 17:06:08 Time zone: Europe/Berlin (CEST, +0200) System clock synchronized: yes NTP service: active RTC in local TZ: no *** User and Groups *** marc /home/marc marc tty disk dialout sudo audio video plugdev games users systemd-journal input netdev ssh bluetooth iobroker *** X-Server-Setup *** X-Server: false Desktop: Terminal: tty Boot Target: graphical.target *** MEMORY *** total used free shared buff/cache available Mem: 2.0G 1.6G 212M 0.0K 231M 373M Swap: 1.0G 245M 756M Total: 3.0G 1.8G 969M 2004 M total memory 1560 M used memory 800 M active memory 722 M inactive memory 212 M free memory 14 M buffer memory 216 M swap cache 1002 M total swap 245 M used swap 756 M free swap *** FILESYSTEM *** Filesystem Type Size Used Avail Use% Mounted on udev devtmpfs 988M 0 988M 0% /dev tmpfs tmpfs 201M 3.5M 197M 2% /run /dev/mmcblk1p1 ext4 15G 9.9G 4.4G 70% / tmpfs tmpfs 1003M 0 1003M 0% /dev/shm tmpfs tmpfs 5.0M 4.0K 5.0M 1% /run/lock tmpfs tmpfs 1003M 288K 1002M 1% /tmp /dev/zram1 ext4 49M 31M 15M 69% /var/log tmpfs tmpfs 201M 0 201M 0% /run/user/1000 Messages concerning ext4 filesystem in dmesg: [Fri Sep 29 19:19:14 2023] Kernel command line: earlyprintk root=UUID=f9d46ad4-5004-44cd-9239-a862108641c5 rootwait rootfstype=ext4 console=ttyS2,115200n8 console=tty1 consoleblank=0 loglevel=1 ubootpart=ecdd8161-01 usb-storage.quirks=0x2537:0x1066:u,0x2537:0x1068:u cgroup_enable=cpuset cgroup_memory=1 cgroup_enable=memory swapaccount=1 [Fri Sep 29 19:19:21 2023] EXT4-fs (mmcblk1p1): mounted filesystem with writeback data mode. Quota mode: none. [Fri Sep 29 19:19:25 2023] EXT4-fs (mmcblk1p1): re-mounted. Quota mode: none. [Fri Sep 29 19:19:28 2023] EXT4-fs (zram1): mounted filesystem without journal. Quota mode: none. [Fri Sep 29 19:19:28 2023] ext4 filesystem being mounted at /var/log supports timestamps until 2038 (0x7fffffff) Show mounted filesystems (real ones only): TARGET SOURCE FSTYPE OPTIONS / /dev/mmcblk1p1 ext4 rw,noatime,errors=remount-ro,commit=600 |-/var/log.hdd /dev/mmcblk1p1[/var/log] ext4 rw,noatime,errors=remount-ro,commit=600 `-/var/log /dev/zram1 ext4 rw,relatime,discard Files in neuralgic directories: /var: 1.7G /var/ 885M /var/cache 880M /var/cache/apt 815M /var/cache/apt/archives 678M /var/lib Archived and active journals take up 7.5M in the file system. /opt/iobroker/backups: 913M /opt/iobroker/backups/ /opt/iobroker/iobroker-data: 684M /opt/iobroker/iobroker-data/ 401M /opt/iobroker/iobroker-data/files 167M /opt/iobroker/iobroker-data/backup-objects 72M /opt/iobroker/iobroker-data/files/telegram.admin 55M /opt/iobroker/iobroker-data/files/material The five largest files in iobroker-data are: 41M /opt/iobroker/iobroker-data/files/material/static/js/main.c5478f66.js.map 37M /opt/iobroker/iobroker-data/objects.jsonl 35M /opt/iobroker/iobroker-data/files/devices.admin/static/js/main.24f2bb56.js.map 33M /opt/iobroker/iobroker-data/files/iot.admin/static/js/main.a3f9f634.js.map 25M /opt/iobroker/iobroker-data/objects.json.broken *** NodeJS-Installation *** /usr/bin/nodejs v18.18.0 /usr/bin/node v18.18.0 /usr/bin/npm 9.8.1 /usr/bin/npx 9.8.1 nodejs: Installed: 18.18.0-1nodesource1 Candidate: 18.18.0-1nodesource1 Version table: *** 18.18.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 100 /var/lib/dpkg/status 18.17.1-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.17.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.16.1-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.16.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.15.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.14.2-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.14.1-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.14.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.13.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.12.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.11.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.10.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.9.1-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.9.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.8.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.7.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.6.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.5.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.4.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.3.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.2.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.1.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 18.0.0-1nodesource1 1001 500 https://deb.nodesource.com/node_18.x nodistro/main armhf Packages 12.22.12~dfsg-1~deb11u3 500 500 http://deb.debian.org/debian bullseye/main armhf Packages Temp directories causing npm8 problem: 0 No problems detected Errors in npm tree: 0 *** ioBroker-Installation *** ioBroker Status iobroker is running on this host. Objects type: jsonl States type: jsonl No configuration change needed. Multihost discovery server: disabled Discovery authentication: enabled Persistent activation: disabled Objects: jsonl on 127.0.0.1 States: jsonl on 127.0.0.1 Core adapters versions js-controller: 5.0.12 admin: 6.10.1 javascript: 7.1.4 Adapters from github: 2 Adapter State + system.adapter.admin.0 : admin : ioBroker - enabled, port: 8081, bind: 0.0.0.0, run as: admin + system.adapter.alexa2.0 : alexa2 : ioBroker - enabled + system.adapter.backitup.0 : backitup : ioBroker - enabled system.adapter.cloud.0 : cloud : ioBroker - disabled + system.adapter.controme.0 : controme : ioBroker - enabled system.adapter.devices.0 : devices : ioBroker - disabled + system.adapter.discovery.0 : discovery : ioBroker - enabled system.adapter.flot.0 : flot : ioBroker - disabled + system.adapter.geofency.0 : geofency : ioBroker - enabled, port: 7999, bind: 0.0.0.0 + system.adapter.hm-rega.0 : hm-rega : ioBroker - enabled + system.adapter.hm-rpc.0 : hm-rpc : ioBroker - enabled, port: 0 + system.adapter.homepilot20.0 : homepilot20 : ioBroker - enabled + system.adapter.hue-extended.0 : hue-extended : ioBroker - enabled + system.adapter.info.0 : info : ioBroker - enabled + system.adapter.iot.0 : iot : ioBroker - enabled + system.adapter.jarvis.0 : jarvis : ioBroker - enabled + system.adapter.javascript.0 : javascript : ioBroker - enabled system.adapter.klf200.0 : klf200 : ioBroker - disabled system.adapter.material.0 : material : ioBroker - disabled + system.adapter.melcloud.0 : melcloud : ioBroker - enabled + system.adapter.mercedesme.0 : mercedesme : ioBroker - enabled system.adapter.mobile.0 : mobile : ioBroker - disabled + system.adapter.nuki-extended.0 : nuki-extended : ioBroker - enabled system.adapter.simple-api.0 : simple-api : ioBroker - disabled, port: 8087, bind: 192.168.1.31, run as: admin system.adapter.socketio.0 : socketio : ioBroker - disabled, port: 8084, bind: 0.0.0.0, run as: admin + system.adapter.sql.0 : sql : ioBroker - enabled, port: 3306 + system.adapter.statistics.0 : statistics : ioBroker - enabled system.adapter.synology.0 : synology : ioBroker - disabled, port: 5001 system.adapter.systeminfo.0 : systeminfo : ioBroker - disabled + system.adapter.telegram.0 : telegram : ioBroker - enabled, port: 8443, bind: 0.0.0.0 + system.adapter.terminal.0 : terminal : ioBroker - enabled, port: 8088, bind: 192.168.1.31, run as: admin + system.adapter.text2command.0 : text2command : ioBroker - enabled + system.adapter.tinker.0 : tinker : ioBroker - enabled + system.adapter.tr-064.0 : tr-064 : ioBroker - enabled + system.adapter.upnp.0 : upnp : ioBroker - enabled system.adapter.vis-materialdesign.0 : vis-materialdesign : ioBroker - disabled system.adapter.vis.0 : vis : ioBroker - disabled + system.adapter.web.0 : web : ioBroker - enabled, port: 8082, bind: 192.168.1.31, run as: admin + system.adapter.withings.0 : withings : ioBroker - enabled + system.adapter.yahka.0 : yahka : ioBroker - enabled + instance is alive Enabled adapters with bindings + system.adapter.admin.0 : admin : ioBroker - enabled, port: 8081, bind: 0.0.0.0, run as: admin + system.adapter.geofency.0 : geofency : ioBroker - enabled, port: 7999, bind: 0.0.0.0 + system.adapter.hm-rpc.0 : hm-rpc : ioBroker - enabled, port: 0 + system.adapter.sql.0 : sql : ioBroker - enabled, port: 3306 + system.adapter.telegram.0 : telegram : ioBroker - enabled, port: 8443, bind: 0.0.0.0 + system.adapter.terminal.0 : terminal : ioBroker - enabled, port: 8088, bind: 192.168.1.31, run as: admin + system.adapter.web.0 : web : ioBroker - enabled, port: 8082, bind: 192.168.1.31, run as: admin ioBroker-Repositories stable : http://download.iobroker.net/sources-dist.json beta : http://download.iobroker.net/sources-dist-latest.json Active repo(s): stable Installed ioBroker-Instances Used repository: stable Adapter "admin" : 6.10.1 , installed 6.10.1 Adapter "alexa2" : 3.25.2 , installed 3.25.2 Adapter "backitup" : 2.8.1 , installed 2.8.1 Adapter "cloud" : 4.4.1 , installed 4.4.1 Adapter "devices" : 1.1.5 , installed 1.1.5 Adapter "discovery" : 3.1.0 , installed 3.2.0 Adapter "flot" : 1.12.0 , installed 1.12.0 Adapter "geofency" : 1.2.4 , installed 1.2.4 Adapter "history" : 2.2.6 , installed 2.2.6 Adapter "hm-rega" : 3.0.47 , installed 3.0.47 Adapter "hm-rpc" : 1.15.19 , installed 1.15.19 Adapter "hue-extended" : 2.0.0 , installed 2.0.0 Adapter "info" : 1.9.26 , installed 1.9.26 Adapter "iot" : 1.14.5 , installed 2.0.10 Adapter "jarvis" : 3.1.2 , installed 3.1.8 Adapter "javascript" : 7.1.4 , installed 7.1.4 Controller "js-controller": 5.0.12 , installed 5.0.12 Adapter "klf200" : 1.0.1 , installed 1.0.1 Adapter "material" : 1.3.1 , installed 1.3.1 Adapter "melcloud" : 1.3.5 , installed 1.3.5 Adapter "mercedesme" : 0.1.1 , installed 0.1.1 Adapter "mobile" : 1.0.1 , installed 1.0.1 Adapter "net-tools" : 0.2.0 , installed 0.2.0 Adapter "nuki-extended": 2.6.5 , installed 2.6.5 Adapter "ping" : 1.6.2 , installed 1.6.2 Adapter "plex" : 1.0.5 , installed 1.0.5 Adapter "simple-api" : 2.7.2 , installed 2.7.2 Adapter "socketio" : 6.5.5 , installed 6.5.5 Adapter "sql" : 2.2.0 , installed 2.2.0 Adapter "statistics" : 2.3.0 , installed 2.3.0 Adapter "synology" : 3.0.0 , installed 3.0.0 Adapter "systeminfo" : 1.1.0 , installed 1.1.0 Adapter "telegram" : 1.16.0 , installed 1.16.0 Adapter "terminal" : 1.0.0 , installed 1.0.0 Adapter "text2command" : 3.0.2 , installed 3.0.2 Adapter "tinker" : 1.2.0 , installed 1.2.0 Adapter "tr-064" : 4.2.18 , installed 4.2.18 Adapter "upnp" : 1.0.21 , installed 1.0.21 Adapter "vis" : 1.4.16 , installed 1.4.16 Adapter "web" : 6.1.2 , installed 6.1.2 Adapter "withings" : 0.0.13 , installed 0.0.13 Adapter "ws" : 2.5.5 , installed 2.5.5 Adapter "yahka" : 1.0.3 , installed 1.0.3 Objects and States Please stand by - This may take a while Objects: 33801 States: 22753 *** OS-Repositories and Updates *** Hit:1 http://deb.debian.org/debian bullseye InRelease Hit:2 http://deb.debian.org/debian bullseye-updates InRelease Hit:3 http://deb.debian.org/debian bullseye-backports InRelease Hit:4 https://deb.nodesource.com/node_18.x nodistro InRelease Hit:5 https://apt.pivccu.de/piVCCU stable InRelease Get:6 http://imola.armbian.com/apt bullseye InRelease [53.3 kB] Fetched 53.3 kB in 3s (18.6 kB/s) Reading package lists... Pending Updates: 0 *** Listening Ports *** Active Internet connections (only servers) Proto Recv-Q Send-Q Local Address Foreign Address State User Inode PID/Program name tcp 0 0 127.0.0.1:6379 0.0.0.0:* LISTEN 112 20015 1143/redis-server 1 tcp 0 0 127.0.0.1:36499 0.0.0.0:* LISTEN 1001 27500 3805/io.yahka.0 tcp 0 0 0.0.0.0:8400 0.0.0.0:* LISTEN 1001 33006 3848/io.jarvis.0 tcp 0 0 192.168.1.31:8082 0.0.0.0:* LISTEN 1001 27561 3935/io.web.0 tcp 0 0 192.168.1.31:2010 0.0.0.0:* LISTEN 1001 42737 8290/io.hm-rpc.0 tcp 0 0 0.0.0.0:111 0.0.0.0:* LISTEN 0 17638 1/init tcp 0 0 10.0.3.1:53 0.0.0.0:* LISTEN 0 21064 1260/dnsmasq tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN 0 21019 1206/sshd: /usr/sbi tcp 0 0 127.0.0.1:9000 0.0.0.0:* LISTEN 1001 20254 1235/iobroker.js-co tcp 0 0 127.0.0.1:9001 0.0.0.0:* LISTEN 1001 20249 1235/iobroker.js-co tcp6 0 0 :::8088 :::* LISTEN 1001 32226 3892/io.terminal.0 tcp6 0 0 :::8081 :::* LISTEN 1001 30764 3006/io.admin.0 tcp6 0 0 :::40709 :::* LISTEN 1001 32094 3805/io.yahka.0 tcp6 0 0 :::51989 :::* LISTEN 1001 32167 3748/io.nuki-extend tcp6 0 0 :::7999 :::* LISTEN 1001 31096 3629/io.geofency.0 tcp6 0 0 :::111 :::* LISTEN 0 17641 1/init tcp6 0 0 :::22 :::* LISTEN 0 21030 1206/sshd: /usr/sbi udp 0 0 10.0.3.1:53 0.0.0.0:* 0 21063 1260/dnsmasq udp 0 0 0.0.0.0:67 0.0.0.0:* 0 21060 1260/dnsmasq udp 0 0 0.0.0.0:48725 0.0.0.0:* 1001 32170 3902/io.upnp.0 udp 0 0 0.0.0.0:111 0.0.0.0:* 0 13149 1/init udp 0 0 0.0.0.0:5353 0.0.0.0:* 1001 32095 3805/io.yahka.0 udp 0 0 192.168.1.31:5353 0.0.0.0:* 1001 31160 3731/io.tr-064.0 udp 0 0 127.0.0.1:323 0.0.0.0:* 0 21696 1157/chronyd udp 0 0 0.0.0.0:1900 0.0.0.0:* 1001 33035 3902/io.upnp.0 udp6 0 0 :::111 :::* 0 13152 1/init udp6 0 0 ::1:323 :::* 0 21697 1157/chronyd udp6 0 0 fe80::74ec:e37a:b8b:546 :::* 0 23679 727/NetworkManager *** Log File - Last 25 Lines *** 2023-09-29 19:30:22.692 - error: hm-rega.0 (3643) CCU 192.168.1.30 unreachable 2023-09-29 19:30:32.108 - error: hm-rpc.0 (6019) Init not possible, going to stop: connect EHOSTUNREACH 192.168.1.30:2010 2023-09-29 19:30:55.780 - error: hm-rega.0 (3643) CCU 192.168.1.30 unreachable 2023-09-29 19:31:02.086 - error: hm-rpc.0 (6019) Init not possible, going to stop: connect EHOSTUNREACH 192.168.1.30:2010 2023-09-29 19:31:04.021 - info: host.ioBroker instance system.adapter.hm-rpc.0 terminated with code 0 (NO_ERROR) 2023-09-29 19:31:04.022 - info: host.ioBroker Restart adapter system.adapter.hm-rpc.0 because enabled 2023-09-29 19:31:28.836 - error: hm-rega.0 (3643) CCU 192.168.1.30 unreachable 2023-09-29 19:31:34.858 - info: host.ioBroker Updating repository "stable" under "http://download.iobroker.net/sources-dist.json" 2023-09-29 19:31:35.595 - info: host.ioBroker instance system.adapter.hm-rpc.0 started with pid 6615 2023-09-29 19:31:46.063 - error: hm-rpc.0 (6615) Init not possible, going to stop: connect EHOSTUNREACH 192.168.1.30:2010 2023-09-29 19:32:01.924 - error: hm-rega.0 (3643) CCU 192.168.1.30 unreachable 2023-09-29 19:32:16.074 - error: hm-rpc.0 (6615) Init not possible, going to stop: connect EHOSTUNREACH 192.168.1.30:2010 2023-09-29 19:32:18.072 - info: host.ioBroker instance system.adapter.hm-rpc.0 terminated with code 0 (NO_ERROR) 2023-09-29 19:32:18.074 - info: host.ioBroker Restart adapter system.adapter.hm-rpc.0 because enabled 2023-09-29 19:32:35.012 - error: hm-rega.0 (3643) CCU 192.168.1.30 unreachable 2023-09-29 19:32:49.987 - info: host.ioBroker instance system.adapter.hm-rpc.0 started with pid 7584 2023-09-29 19:33:00.717 - error: hm-rpc.0 (7584) Init not possible, going to stop: connect EHOSTUNREACH 192.168.1.30:2010 2023-09-29 19:33:08.068 - error: hm-rega.0 (3643) CCU 192.168.1.30 unreachable 2023-09-29 19:33:30.693 - error: hm-rpc.0 (7584) Init not possible, going to stop: connect EHOSTUNREACH 192.168.1.30:2010 2023-09-29 19:33:34.244 - info: host.ioBroker instance system.adapter.hm-rpc.0 terminated with code 0 (NO_ERROR) 2023-09-29 19:33:34.246 - info: host.ioBroker Restart adapter system.adapter.hm-rpc.0 because enabled 2023-09-29 19:33:41.123 - error: hm-rega.0 (3643) CCU 192.168.1.30 unreachable 2023-09-29 19:34:06.440 - info: host.ioBroker instance system.adapter.hm-rpc.0 started with pid 8290 2023-09-29 19:34:14.180 - error: hm-rega.0 (3643) CCU 192.168.1.30 unreachable 2023-09-29 19:34:17.258 - error: hm-rpc.0 (8290) Init not possible, going to stop: connect EHOSTUNREACH 192.168.1.30:2010 ============ Mark until here for C&P =============Eine Frage ,
da es ja zwei Container sind , wie lange hast du gewartet bis alles gestartet ist .Eventuell ist der CCU Container noch nicht vollständig geladen und du schaust im Log vom ioBroker und siehst dann keine Verbindung !?
Wäre jetzt noch die Frage , wie kann man herrausfinden ob überhaupt der CCU Container läuft , kenne mich leider mit pivccu3 nicht aus .
-
Eine Frage ,
da es ja zwei Container sind , wie lange hast du gewartet bis alles gestartet ist .Eventuell ist der CCU Container noch nicht vollständig geladen und du schaust im Log vom ioBroker und siehst dann keine Verbindung !?
Wäre jetzt noch die Frage , wie kann man herrausfinden ob überhaupt der CCU Container läuft , kenne mich leider mit pivccu3 nicht aus .
@glasfaser sagte in pivccu3 3.71.12 und nodejs 18.x:
wie kann man herrausfinden ob überhaupt der CCU Container läuft , kenne mich leider mit pivccu3 nicht aus .
sudo pivccu-infoaber ich check es nochmal
EDIT
_____ _ _ ____ _ |_ _(_)_ __ | | _____ _ __ | __ ) ___ __ _ _ __ __| | | | | | '_ \| |/ / _ \ '__| | _ \ / _ \ / _` | '__/ _` | | | | | | | | < __/ | | |_) | (_) | (_| | | | (_| | |_| |_|_| |_|_|\_\___|_| |____/ \___/ \__,_|_| \__,_| Welcome to Armbian 22.11.1 Buster with Linux 5.15.80-rockchip No end-user support: unsupported (buster) userspace! System load: 2% Up time: 38 days 11:41 Memory usage: 13% of 1.96G IP: 192.168.138.66 CPU temp: 60°C Usage of /: 6% of 28G RX today: 147.2 MiB Tip of the day: Submit your desktop wallpaper creation! https://forum.armbian.com/topic/29433-armbian-desktop-wallpaper-contest/ [ General system configuration (beta): armbian-config ] Last login: Fri Feb 3 11:13:04 2023 from 192.168.138.145 pi@tinkerboard:~$ sudo pivccu-info [sudo] password for pi: piVCCU version: 3.65.8-74 Kernel modules: Available Raw UART dev: Available HMRF Hardware: RPI-RF-MOD Connected via: GPIO@ff190000.serial (/dev/raw-uart) Board serial: 58A992F452 Radio MAC: 0xFFF452 HMIP Hardware: RPI-RF-MOD Connected via: GPIO@ff190000.serial (/dev/raw-uart) SGTIN: 3014F711A0001F58A992F452 Radio MAC: 0xB3424E State: RUNNING PID: 25935 IP: 192.168.138.92 CPU use: 133343.53 seconds BlkIO use: 8.89 MiB Memory use: 199.88 MiB KMem use: 4.24 MiB Link: vethpivccu TX bytes: 8.87 GiB RX bytes: 4.17 GiB Total bytes: 13.05 GiB pi@tinkerboard:~$ -
Eine Frage ,
da es ja zwei Container sind , wie lange hast du gewartet bis alles gestartet ist .Eventuell ist der CCU Container noch nicht vollständig geladen und du schaust im Log vom ioBroker und siehst dann keine Verbindung !?
Wäre jetzt noch die Frage , wie kann man herrausfinden ob überhaupt der CCU Container läuft , kenne mich leider mit pivccu3 nicht aus .
@glasfaser Mittels
sudo systemctl status pivccu3sieht man zumindest mal, ob der zugehörige serivce, der dann den Container startet irgendwelche fehler geworfen hat oder sauber gestartet ist.
PiVCCU gibt es wohl noch einige Befehle direkt, müsste ich aber auch mal googlen.Gruss, Jürgen
EDIT: Genau, @Homoran hat den befehl für PiVCCU parat. Also schauen, was der service macht und dann mit pivccu-info direkt in den Container horchen, was da los ist
-
ich leider auch nicht .... Daher vielleicht wieder auf 16 zurück und testen:
@Thomas-Braun
wie komme ich sauber auf 16 zurück ? Hast Du da eine schöne Anleitung ?
Das was ich im Forum gefunden hatte war ja scheinbar veraltet ...@meicker sagte in pivccu3 3.71.12 und nodejs 18.x:
Hast Du da eine schöne Anleitung ?
Ja, mein vollumfängliches 'Node-HowTo'.
https://forum.iobroker.net/topic/35090/howto-nodejs-installation-und-upgrades-unter-debian
-
Siehe edit
könnt ich auch mal neu aufsetzen 
-
@glasfaser Mittels
sudo systemctl status pivccu3sieht man zumindest mal, ob der zugehörige serivce, der dann den Container startet irgendwelche fehler geworfen hat oder sauber gestartet ist.
PiVCCU gibt es wohl noch einige Befehle direkt, müsste ich aber auch mal googlen.Gruss, Jürgen
EDIT: Genau, @Homoran hat den befehl für PiVCCU parat. Also schauen, was der service macht und dann mit pivccu-info direkt in den Container horchen, was da los ist
@wildbill sagte in pivccu3 3.71.12 und nodejs 18.x:
mit pivccu-info direkt in den Container horchen, was da los ist
aber nicht im Container ausführen, das wsr bei lxccu
-
@wildbill sagte in pivccu3 3.71.12 und nodejs 18.x:
mit pivccu-info direkt in den Container horchen, was da los ist
aber nicht im Container ausführen, das wsr bei lxccu
-
Eine Frage ,
da es ja zwei Container sind , wie lange hast du gewartet bis alles gestartet ist .Eventuell ist der CCU Container noch nicht vollständig geladen und du schaust im Log vom ioBroker und siehst dann keine Verbindung !?
Wäre jetzt noch die Frage , wie kann man herrausfinden ob überhaupt der CCU Container läuft , kenne mich leider mit pivccu3 nicht aus .
@glasfaser
hat immer alles funktioniert bis update auf 18 .... Es scheint ja auch das pivccu läuft und auch das hm Modul Funk empfängt. Fensterkontakte quittieren grün. Die Adapter gehen nicht mehr an. Normalerweise ist nach 2-3 Minuten alles hochgelaufen und funktioniert ... -
@glasfaser
hat immer alles funktioniert bis update auf 18 .... Es scheint ja auch das pivccu läuft und auch das hm Modul Funk empfängt. Fensterkontakte quittieren grün. Die Adapter gehen nicht mehr an. Normalerweise ist nach 2-3 Minuten alles hochgelaufen und funktioniert ... -
@glasfaser sagte in pivccu3 3.71.12 und nodejs 18.x:
wie kann man herrausfinden ob überhaupt der CCU Container läuft , kenne mich leider mit pivccu3 nicht aus .
sudo pivccu-infoaber ich check es nochmal
EDIT
_____ _ _ ____ _ |_ _(_)_ __ | | _____ _ __ | __ ) ___ __ _ _ __ __| | | | | | '_ \| |/ / _ \ '__| | _ \ / _ \ / _` | '__/ _` | | | | | | | | < __/ | | |_) | (_) | (_| | | | (_| | |_| |_|_| |_|_|\_\___|_| |____/ \___/ \__,_|_| \__,_| Welcome to Armbian 22.11.1 Buster with Linux 5.15.80-rockchip No end-user support: unsupported (buster) userspace! System load: 2% Up time: 38 days 11:41 Memory usage: 13% of 1.96G IP: 192.168.138.66 CPU temp: 60°C Usage of /: 6% of 28G RX today: 147.2 MiB Tip of the day: Submit your desktop wallpaper creation! https://forum.armbian.com/topic/29433-armbian-desktop-wallpaper-contest/ [ General system configuration (beta): armbian-config ] Last login: Fri Feb 3 11:13:04 2023 from 192.168.138.145 pi@tinkerboard:~$ sudo pivccu-info [sudo] password for pi: piVCCU version: 3.65.8-74 Kernel modules: Available Raw UART dev: Available HMRF Hardware: RPI-RF-MOD Connected via: GPIO@ff190000.serial (/dev/raw-uart) Board serial: 58A992F452 Radio MAC: 0xFFF452 HMIP Hardware: RPI-RF-MOD Connected via: GPIO@ff190000.serial (/dev/raw-uart) SGTIN: 3014F711A0001F58A992F452 Radio MAC: 0xB3424E State: RUNNING PID: 25935 IP: 192.168.138.92 CPU use: 133343.53 seconds BlkIO use: 8.89 MiB Memory use: 199.88 MiB KMem use: 4.24 MiB Link: vethpivccu TX bytes: 8.87 GiB RX bytes: 4.17 GiB Total bytes: 13.05 GiB pi@tinkerboard:~$@homoran sagte in pivccu3 3.71.12 und nodejs 18.x:
sudo pivccu-info
piVCCU version: 3.71.12-85 OS: Armbian 23.8.1 bullseye Kernel: 6.1.50-current-rockchip armv7l Kernel modules: Available Raw UART dev: Available HMRF Hardware: RPI-RF-MOD Connected via: GPIO@ff190000.serial (/dev/raw-uart) Board serial: 58A992FB3B Radio MAC: 0xFFFB3B HMIP Hardware: RPI-RF-MOD Connected via: GPIO@ff190000.serial (/dev/raw-uart) SGTIN: 3014F711A0001F58A992FB3B Radio MAC: 0xB3D162 State: RUNNING PID: 1701 IP: 192.168.1.30 Link: vethpivccu TX bytes: 56.93 KiB RX bytes: 0 bytes Total bytes: 56.93 KiBdie IP stimmt - ist aber nicht erreichbar. Vielleicht doch das Board ... ? Ich kann die 192.168.1.30 nicht erreichen:
marc@ioBroker:~$ ping 192.168.1.30
PING 192.168.1.30 (192.168.1.30) 56(84) bytes of data.
From 192.168.1.31 icmp_seq=1 Destination Host Unreachable
^C
--- 192.168.1.30 ping statistics ---
4 packets transmitted, 0 received, +1 errors, 100% packet loss, time 3034ms -
@glasfaser Mittels
sudo systemctl status pivccu3sieht man zumindest mal, ob der zugehörige serivce, der dann den Container startet irgendwelche fehler geworfen hat oder sauber gestartet ist.
PiVCCU gibt es wohl noch einige Befehle direkt, müsste ich aber auch mal googlen.Gruss, Jürgen
EDIT: Genau, @Homoran hat den befehl für PiVCCU parat. Also schauen, was der service macht und dann mit pivccu-info direkt in den Container horchen, was da los ist
-
@meicker Hast Du die beiden Befehle mal ausgeführt und geschaut, was dabei rum kommt?
sudo systemctl status pivccu3 sudo pivccu-infoGruss, Jürgen
@wildbill sagte in pivccu3 3.71.12 und nodejs 18.x:
sudo pivccu-info
war unter gegangen - hatte ich aber gemacht:
marc@ioBroker:~$ sudo systemctl status pivccu3 Unit pivccu3.service could not be found. marc@ioBroker:~$ sudo systemctl status pivccu3 Unit pivccu3.service could not be found. marc@ioBroker:~$ sudo pivccu-info piVCCU version: 3.71.12-85 OS: Armbian 23.8.1 bullseye Kernel: 6.1.50-current-rockchip armv7l Kernel modules: Available Raw UART dev: Available HMRF Hardware: RPI-RF-MOD Connected via: GPIO@ff190000.serial (/dev/raw-uart) Board serial: 58A992FB3B Radio MAC: 0xFFFB3B HMIP Hardware: RPI-RF-MOD Connected via: GPIO@ff190000.serial (/dev/raw-uart) SGTIN: 3014F711A0001F58A992FB3B Radio MAC: 0xB3D162 State: RUNNING PID: 1701 IP: 192.168.1.30 Link: vethpivccu TX bytes: 60.97 KiB RX bytes: 0 bytes Total bytes: 60.97 KiB marc@ioBroker:~$ -
@wildbill sagte in pivccu3 3.71.12 und nodejs 18.x:
sudo systemctl status pivccu3
marc@ioBroker:~$ sudo systemctl status pivccu3 Unit pivccu3.service could not be found.@meicker sagte in pivccu3 3.71.12 und nodejs 18.x:
@wildbill sagte in pivccu3 3.71.12 und nodejs 18.x:
sudo systemctl status pivccu3
marc@ioBroker:~$ sudo systemctl status pivccu3 Unit pivccu3.service could not be found.Sorry, der Befehl heisst
sudo systemctl status pivccuohne 3 hinten. Das wurde wohl mal geändert. Früher gabe es Unterschiede zwischen „alter“ CCU per PiVCCU und neuer CCU3 per PiVCCU3.
Aber da Du Infos mit pivccu-info bekommst scheint es zu laufen. Dann weiss ich grad auch nicht so wirklich weiter.
Welche IP hat denn der Host, also der Rechner auf dem PiVCCU installiert ist. Und welche IP hat Dein Rechner, auf dem Du per Browser zugreifen willst?Gruss, Jürgen
-
Ich habe mein Tinker *kein S' wieder ausgegraben.
Gleich tausche ich die SD, das Homematic Board um auf das alte Tinker und starte die Kiste mal. Bin gespannt ob es dann läuft. Wenn nicht liegt es nicht am Board.
Ich hoffe nur das der Wechsel zwischen den beiden Tinker mit dem laufenden Betriebssystem kein Problem ist ... -
@meicker sagte in pivccu3 3.71.12 und nodejs 18.x:
@wildbill sagte in pivccu3 3.71.12 und nodejs 18.x:
sudo systemctl status pivccu3
marc@ioBroker:~$ sudo systemctl status pivccu3 Unit pivccu3.service could not be found.Sorry, der Befehl heisst
sudo systemctl status pivccuohne 3 hinten. Das wurde wohl mal geändert. Früher gabe es Unterschiede zwischen „alter“ CCU per PiVCCU und neuer CCU3 per PiVCCU3.
Aber da Du Infos mit pivccu-info bekommst scheint es zu laufen. Dann weiss ich grad auch nicht so wirklich weiter.
Welche IP hat denn der Host, also der Rechner auf dem PiVCCU installiert ist. Und welche IP hat Dein Rechner, auf dem Du per Browser zugreifen willst?Gruss, Jürgen
● pivccu.service - piVCCU Loaded: loaded (/lib/systemd/system/pivccu.service; enabled; vendor preset: enabled) Active: active (running) since Fri 2023-09-29 18:17:16 CEST; 2h 33min ago Process: 1141 ExecStart=/var/lib/piVCCU3/start_container.sh (code=exited, status=0/SUCCESS) Main PID: 1700 (lxc-start) Tasks: 0 (limit: 4740) Memory: 312.0K CPU: 1.180s CGroup: /system.slice/pivccu.service ‣ 1700 /usr/bin/lxc-start --lxcpath /var/lib/piVCCU3 --name lxc --pidfile /var/run/pivccu3.pid --daemon Sep 29 18:17:11 ioBroker systemd[1]: Starting piVCCU... Sep 29 18:17:14 ioBroker start_container.sh[1334]: cat: /sys/class/net//address: No such file or directory Sep 29 18:17:16 ioBroker start_container.sh[1697]: kernel.sched_rt_runtime_us = -1 Sep 29 18:17:16 ioBroker systemd[1]: Started piVCCU. -
● pivccu.service - piVCCU Loaded: loaded (/lib/systemd/system/pivccu.service; enabled; vendor preset: enabled) Active: active (running) since Fri 2023-09-29 18:17:16 CEST; 2h 33min ago Process: 1141 ExecStart=/var/lib/piVCCU3/start_container.sh (code=exited, status=0/SUCCESS) Main PID: 1700 (lxc-start) Tasks: 0 (limit: 4740) Memory: 312.0K CPU: 1.180s CGroup: /system.slice/pivccu.service ‣ 1700 /usr/bin/lxc-start --lxcpath /var/lib/piVCCU3 --name lxc --pidfile /var/run/pivccu3.pid --daemon Sep 29 18:17:11 ioBroker systemd[1]: Starting piVCCU... Sep 29 18:17:14 ioBroker start_container.sh[1334]: cat: /sys/class/net//address: No such file or directory Sep 29 18:17:16 ioBroker start_container.sh[1697]: kernel.sched_rt_runtime_us = -1 Sep 29 18:17:16 ioBroker systemd[1]: Started piVCCU.@meicker Bei mir sieht es so aus:
pivccu.service - piVCCU Loaded: loaded (/lib/systemd/system/pivccu.service; enabled; preset: enabled) Active: active (running) since Sat 2023-09-02 10:51:00 CEST; 3 weeks 6 days ago Process: 757 ExecStart=/var/lib/piVCCU3/start_container.sh (code=exited, status=0/SUCCESS) Main PID: 1420 (lxc-start) Tasks: 0 (limit: 2057) CPU: 3.179s CGroup: /system.slice/pivccu.service ‣ 1420 /usr/bin/lxc-start --lxcpath /var/lib/piVCCU3 --name lxc --pidfile /var/run/pivccu3.pid --> Sep 02 10:50:46 raspberrypi systemd[1]: Starting pivccu.service - piVCCU... Sep 02 10:50:57 raspberrypi start_container.sh[1417]: kernel.sched_rt_runtime_us = -1 Sep 02 10:51:00 raspberrypi systemd[1]: Started pivccu.service - piVCCU.Bei Dir scheint der Container keine Adresse nach außen zu bekommen. Warum, habe ich keine Ahnung. Habe den Thread aber jetzt nicht ganz im Kopf. Ist der Host jetzt das Gerät, auf dem PiVCCU immer schon lief und wo Du nur auf NodeJS 18 gegangen bist und schon lief es nicht mehr? Oder ist das jetzt andere Hardware? Ich meine, die Network-Bridge, die PiVCCU aufbaut ist irgendwie an die MAC-Adresse der realen Netzwerkkarte gekoppelt, aber da bin ich dann auch raus. Das wäre dann eher etwas für das Homematic-Forum, wenn Du PiVCCU direkt so umziehen wolltest. Das geht im Normalfall nur per Backup, neu installieren auf der neuen Hardware und dann wieder ein restore.
Gruss, Jürgen
-
@meicker Bei mir sieht es so aus:
pivccu.service - piVCCU Loaded: loaded (/lib/systemd/system/pivccu.service; enabled; preset: enabled) Active: active (running) since Sat 2023-09-02 10:51:00 CEST; 3 weeks 6 days ago Process: 757 ExecStart=/var/lib/piVCCU3/start_container.sh (code=exited, status=0/SUCCESS) Main PID: 1420 (lxc-start) Tasks: 0 (limit: 2057) CPU: 3.179s CGroup: /system.slice/pivccu.service ‣ 1420 /usr/bin/lxc-start --lxcpath /var/lib/piVCCU3 --name lxc --pidfile /var/run/pivccu3.pid --> Sep 02 10:50:46 raspberrypi systemd[1]: Starting pivccu.service - piVCCU... Sep 02 10:50:57 raspberrypi start_container.sh[1417]: kernel.sched_rt_runtime_us = -1 Sep 02 10:51:00 raspberrypi systemd[1]: Started pivccu.service - piVCCU.Bei Dir scheint der Container keine Adresse nach außen zu bekommen. Warum, habe ich keine Ahnung. Habe den Thread aber jetzt nicht ganz im Kopf. Ist der Host jetzt das Gerät, auf dem PiVCCU immer schon lief und wo Du nur auf NodeJS 18 gegangen bist und schon lief es nicht mehr? Oder ist das jetzt andere Hardware? Ich meine, die Network-Bridge, die PiVCCU aufbaut ist irgendwie an die MAC-Adresse der realen Netzwerkkarte gekoppelt, aber da bin ich dann auch raus. Das wäre dann eher etwas für das Homematic-Forum, wenn Du PiVCCU direkt so umziehen wolltest. Das geht im Normalfall nur per Backup, neu installieren auf der neuen Hardware und dann wieder ein restore.
Gruss, Jürgen
jetzt bei mir so mit dem alten Tinker 'ohne S'
● pivccu.service - piVCCU Loaded: loaded (/lib/systemd/system/pivccu.service; enabled; vendor preset: enabled) Active: active (running) since Fri 2023-09-29 20:54:01 CEST; 9min ago Process: 1027 ExecStart=/var/lib/piVCCU3/start_container.sh (code=exited, status=0/SUCCESS) Main PID: 1680 (lxc-start) Tasks: 0 (limit: 4740) Memory: 312.0K CPU: 1.054s CGroup: /system.slice/pivccu.service ‣ 1680 /usr/bin/lxc-start --lxcpath /var/lib/piVCCU3 --name lxc --pidfile /var/run/pivccu3.pid --daemon Sep 29 20:53:57 ioBroker systemd[1]: Starting piVCCU... Sep 29 20:54:00 ioBroker start_container.sh[1324]: cat: /sys/class/net//address: No such file or directory Sep 29 20:54:01 ioBroker start_container.sh[1677]: kernel.sched_rt_runtime_us = -1 Sep 29 20:54:01 ioBroker systemd[1]: Started piVCCU.