Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. ioBroker Allgemein
  4. InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler

NEWS

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    11
    1
    324

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    24
    1
    1.5k

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    9.5k

InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler

Geplant Angeheftet Gesperrt Verschoben ioBroker Allgemein
28 Beiträge 5 Kommentatoren 2.3k Aufrufe 4 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • Thomas BraunT Thomas Braun

    @akuhnsh

    Ist das ein MacOS?

    akuhnshA Offline
    akuhnshA Offline
    akuhnsh
    schrieb am zuletzt editiert von
    #6

    @thomas-braun

    Terminal läuft unter MacOS, ja.

    1 Antwort Letzte Antwort
    0
    • Thomas BraunT Thomas Braun

      @akuhnsh

      Ist das ein MacOS?

      akuhnshA Offline
      akuhnshA Offline
      akuhnsh
      schrieb am zuletzt editiert von akuhnsh
      #7

      @thomas-braun

      @thomas-braun said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

      @akuhnsh

      Ist das ein MacOS?

      Sorry, ich war nicht über SSH mit dem Pi verbunden... Hauaha!

      ======== Start marking the full check here =========

      Skript v.2023-04-15
      
      *** BASE SYSTEM ***
      Model		: Raspberry Pi 4 Model B Rev 1.2
      Architecture    : aarch64
      Docker          : false
      Virtualization  : none
      Distributor ID:	Debian
      Description:	Debian GNU/Linux 11 (bullseye)
      Release:	11
      Codename:	bullseye
      
      PRETTY_NAME="Debian GNU/Linux 11 (bullseye)"
      NAME="Debian GNU/Linux"
      VERSION_ID="11"
      VERSION="11 (bullseye)"
      VERSION_CODENAME=bullseye
      ID=debian
      HOME_URL="https://www.debian.org/"
      SUPPORT_URL="https://www.debian.org/support"
      BUG_REPORT_URL="https://bugs.debian.org/"
      
      Systemuptime and Load:
       12:03:24 up 1 day,  1:06,  1 user,  load average: 0.88, 0.52, 0.25
      CPU threads: 4
      
      Raspberry only:
      throttled=0x0
      Other values than 0x0 hint to temperature/voltage problems
      temp=63.3'C
      volt=0.8438V
      
      *** Time and Time Zones ***
                     Local time: Sat 2023-05-06 12:03:24 CEST
                 Universal time: Sat 2023-05-06 10:03:24 UTC
                       RTC time: n/a
                      Time zone: Europe/Berlin (CEST, +0200)
      System clock synchronized: yes
                    NTP service: active
                RTC in local TZ: no
      
      *** User and Groups ***
      pi
      /home/pi
      pi adm dialout cdrom sudo audio video plugdev games users input render netdev gpio i2c spi iobroker
      
      *** X-Server-Setup ***
      X-Server: 	false
      Desktop: 	
      Terminal: 	tty
      Boot Target: 	multi-user.target
      
      *** MEMORY ***
                     total        used        free      shared  buff/cache   available
      Mem:            3.8G        1.5G        714M        1.0M        1.6G        2.2G
      Swap:            99M          0B         99M
      Total:          3.9G        1.5G        814M
      
               3794 M total memory
               1481 M used memory
               1738 M active memory
               1185 M inactive memory
                714 M free memory
                 83 M buffer memory
               1515 M swap cache
                 99 M total swap
                  0 M used swap
                 99 M free swap
      
      Raspberry only:
      oom events: 0
      lifetime oom required: 0 Mbytes
      total time in oom handler: 0 ms
      max time spent in oom handler: 0 ms
      
      *** FILESYSTEM ***
      Filesystem     Type      Size  Used Avail Use% Mounted on
      /dev/root      ext4      117G   18G   96G  16% /
      devtmpfs       devtmpfs  1.7G     0  1.7G   0% /dev
      tmpfs          tmpfs     1.9G     0  1.9G   0% /dev/shm
      tmpfs          tmpfs     759M  1.1M  758M   1% /run
      tmpfs          tmpfs     5.0M  4.0K  5.0M   1% /run/lock
      /dev/mmcblk0p1 vfat      255M   32M  224M  13% /boot
      tmpfs          tmpfs     380M     0  380M   0% /run/user/1000
      
      Messages concerning ext4 filesystem in dmesg:
      [Fri May  5 10:57:02 2023] Kernel command line: coherent_pool=1M 8250.nr_uarts=0 snd_bcm2835.enable_headphones=0 snd_bcm2835.enable_headphones=1 snd_bcm2835.enable_hdmi=1 snd_bcm2835.enable_hdmi=0  smsc95xx.macaddr=DC:A6:32:99:1F:06 vc_mem.mem_base=0x3ec00000 vc_mem.mem_size=0x40000000  console=ttyS0,115200 console=tty1 root=PARTUUID=accb09c9-02 rootfstype=ext4 fsck.repair=yes rootwait
      [Fri May  5 10:57:03 2023] EXT4-fs (mmcblk0p2): mounted filesystem with ordered data mode. Quota mode: none.
      [Fri May  5 10:57:03 2023] VFS: Mounted root (ext4 filesystem) readonly on device 179:2.
      [Fri May  5 10:57:05 2023] EXT4-fs (mmcblk0p2): re-mounted. Quota mode: none.
      
      Show mounted filesystems (real ones only):
      TARGET  SOURCE         FSTYPE OPTIONS
      /       /dev/mmcblk0p2 ext4   rw,noatime
      `-/boot /dev/mmcblk0p1 vfat   rw,relatime,fmask=0022,dmask=0022,codepage=437,iocharset=ascii,shortname=mixed,
      
      Files in neuralgic directories:
      
      /var:
      7.2G	/var/
      4.2G	/var/log
      4.0G	/var/log/journal/16936caa76ee4e328d697dd513277359
      4.0G	/var/log/journal
      2.3G	/var/lib
      
      Archived and active journals take up 3.9G in the file system.
      
      /opt/iobroker/backups:
      7.0G	/opt/iobroker/backups/
      
      /opt/iobroker/iobroker-data:
      196M	/opt/iobroker/iobroker-data/
      153M	/opt/iobroker/iobroker-data/files
      51M	/opt/iobroker/iobroker-data/files/javascript.admin
      48M	/opt/iobroker/iobroker-data/files/telegram.admin
      32M	/opt/iobroker/iobroker-data/files/javascript.admin/static/js
      
      The five largest files in iobroker-data are:
      15M	/opt/iobroker/iobroker-data/files/telegram.admin/rules/static/js/vendors-node_modules_iobroker_adapter-react-v5_assets_devices_parseNames_d_ts-node_modules_io-1d9f06.44fe4a3f.chunk.js.map
      9.5M	/opt/iobroker/iobroker-data/objects.jsonl
      7.2M	/opt/iobroker/iobroker-data/files/telegram.admin/rules/static/js/vendors-node_modules_iobroker_adapter-react-v5_assets_devices_parseNames_d_ts-node_modules_io-1d9f06.44fe4a3f.chunk.js
      6.9M	/opt/iobroker/iobroker-data/files/telegram.admin/custom/static/js/vendors-node_modules_mui_icons-material_esm_index_js.8fdf8cb7.chunk.js.map
      6.9M	/opt/iobroker/iobroker-data/files/javascript.admin/static/js/610.de0231c9.chunk.js.map
      
      *** NodeJS-Installation ***
      
      /usr/bin/nodejs 	v16.19.1
      /usr/bin/node 		v16.19.1
      /usr/bin/npm 		8.19.3
      /usr/bin/npx 		8.19.3
      
      
      nodejs:
        Installed: 16.19.1-deb-1nodesource1
        Candidate: 16.20.0-deb-1nodesource1
        Version table:
           16.20.0-deb-1nodesource1 500
              500 https://deb.nodesource.com/node_16.x bullseye/main arm64 Packages
       *** 16.19.1-deb-1nodesource1 100
              100 /var/lib/dpkg/status
           12.22.12~dfsg-1~deb11u4 500
              500 http://security.debian.org/debian-security bullseye-security/main arm64 Packages
           12.22.12~dfsg-1~deb11u3 500
              500 http://deb.debian.org/debian bullseye/main arm64 Packages
      
      Temp directories causing npm8 problem: 0
      No problems detected
      
      *** ioBroker-Installation ***
      
      ioBroker Status
      iobroker is running on this host.
      
      
      Objects type: jsonl
      States  type: jsonl
      
      MULTIHOSTSERVICE/enabled: false
      
      Core adapters versions
      js-controller: 	4.0.24
      admin: 		6.3.5
      javascript: 	6.1.4
      
      Adapters from github: 	0
      
      Adapter State
      + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
      + system.adapter.backitup.0               : backitup              : iobroker                                 -  enabled
      + system.adapter.cloud.0                  : cloud                 : iobroker                                 -  enabled
      + system.adapter.discovery.0              : discovery             : iobroker                                 -  enabled
      + system.adapter.email.0                  : email                 : iobroker                                 -  enabled
        system.adapter.influxdb.0               : influxdb              : iobroker                                 - disabled, port: 8086
      + system.adapter.javascript.0             : javascript            : iobroker                                 -  enabled
        system.adapter.modbus.0                 : modbus                : iobroker                                 - disabled
        system.adapter.mqtt-client.0            : mqtt-client           : iobroker                                 - disabled, port: 1883
      + system.adapter.mqtt.0                   : mqtt                  : iobroker                                 -  enabled, port: 1886, bind: 0.0.0.0
      + system.adapter.pvforecast.0             : pvforecast            : iobroker                                 -  enabled
      + system.adapter.pvforecast.1             : pvforecast            : iobroker                                 -  enabled
      + system.adapter.sonoff.0                 : sonoff                : iobroker                                 -  enabled, port: 1883, bind: 0.0.0.0
      + system.adapter.sql.0                    : sql                   : iobroker                                 -  enabled
      + system.adapter.telegram.0               : telegram              : iobroker                                 -  enabled, port: 8443, bind: 0.0.0.0
      + system.adapter.tuya.0                   : tuya                  : iobroker                                 -  enabled
        system.adapter.vis.0                    : vis                   : iobroker                                 -  enabled
      + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
      + system.adapter.yahka.0                  : yahka                 : iobroker                                 -  enabled
      
      + instance is alive
      
      Enabled adapters with bindings
      + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
      + system.adapter.mqtt.0                   : mqtt                  : iobroker                                 -  enabled, port: 1886, bind: 0.0.0.0
      + system.adapter.sonoff.0                 : sonoff                : iobroker                                 -  enabled, port: 1883, bind: 0.0.0.0
      + system.adapter.telegram.0               : telegram              : iobroker                                 -  enabled, port: 8443, bind: 0.0.0.0
      + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
      
      ioBroker-Repositories
      stable        : http://download.iobroker.net/sources-dist.json
      beta          : http://download.iobroker.net/sources-dist-latest.json
      
      Active repo(s): stable
      
      Installed ioBroker-Instances
      Used repository: stable
      Adapter    "admin"        : 6.3.5    , installed 6.3.5
      Adapter    "backitup"     : 2.6.19   , installed 2.6.19
      Adapter    "cloud"        : 4.3.0    , installed 4.3.0
      Adapter    "discovery"    : 3.1.0    , installed 3.1.0
      Adapter    "email"        : 1.1.4    , installed 1.1.4
      Adapter    "influxdb"     : 3.2.0    , installed 3.2.0
      Adapter    "javascript"   : 6.1.4    , installed 6.1.4
      Controller "js-controller": 4.0.24   , installed 4.0.24
      Adapter    "modbus"       : 5.0.11   , installed 5.0.11
      Adapter    "mqtt"         : 4.0.7    , installed 4.0.7
      Adapter    "mqtt-client"  : 1.6.3    , installed 1.6.3
      Adapter    "pvforecast"   : 2.3.0    , installed 2.3.0
      Adapter    "simple-api"   : 2.7.2    , installed 2.7.2
      Adapter    "socketio"     : 4.2.0    , installed 4.2.0
      Adapter    "sonoff"       : 2.5.1    , installed 2.5.1
      Adapter    "sql"          : 2.2.0    , installed 2.2.0
      Adapter    "telegram"     : 1.15.2   , installed 1.15.2
      Adapter    "tuya"         : 3.13.1   , installed 3.13.1
      Adapter    "vis"          : 1.4.16   , installed 1.4.16
      Adapter    "web"          : 4.3.0    , installed 4.3.0
      Adapter    "ws"           : 1.3.0    , installed 1.3.0
      Adapter    "yahka"        : 0.17.0   , installed 0.17.0
      
      Objects and States
      Please stand by - This may take a while
      Objects: 	1263
      States: 	1103
      
      *** OS-Repositories and Updates ***
      Hit:1 http://archive.raspberrypi.org/debian bullseye InRelease
      Hit:2 http://deb.debian.org/debian bullseye InRelease                                                                                                       
      Hit:3 http://deb.debian.org/debian bullseye-updates InRelease                                                                                               
      Hit:4 http://security.debian.org/debian-security bullseye-security InRelease                                                                                
      Hit:5 https://deb.nodesource.com/node_16.x bullseye InRelease                                                                                               
      Hit:6 https://repos.influxdata.com/debian stable InRelease                                                                  
      Hit:7 https://packages.grafana.com/oss/deb stable InRelease                 
      Reading package lists... Done                         
      Pending Updates: 40
      
      *** Listening Ports ***
      Active Internet connections (only servers)
      Proto Recv-Q Send-Q Local Address           Foreign Address         State       User       Inode      PID/Program name    
      tcp        0      0 0.0.0.0:1886            0.0.0.0:*               LISTEN      1001       15515      946/io.mqtt.0       
      tcp        0      0 0.0.0.0:1887            0.0.0.0:*               LISTEN      1001       15516      946/io.mqtt.0       
      tcp        0      0 0.0.0.0:1883            0.0.0.0:*               LISTEN      1001       14905      961/io.sonoff.0     
      tcp        0      0 127.0.0.1:9000          0.0.0.0:*               LISTEN      1001       12261      774/iobroker.js-con 
      tcp        0      0 127.0.0.1:9001          0.0.0.0:*               LISTEN      1001       12254      774/iobroker.js-con 
      tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      0          12083      523/sshd: /usr/sbin 
      tcp        0      0 0.0.0.0:39007           0.0.0.0:*               LISTEN      1001       15615      1021/io.yahka.0     
      tcp6       0      0 :::8086                 :::*                    LISTEN      999        1643       649/influxd         
      tcp6       0      0 :::8082                 :::*                    LISTEN      1001       1868       1036/io.web.0       
      tcp6       0      0 :::8081                 :::*                    LISTEN      1001       1686       821/io.admin.0      
      tcp6       0      0 :::22                   :::*                    LISTEN      0          12094      523/sshd: /usr/sbin 
      tcp6       0      0 :::3000                 :::*                    LISTEN      110        15384      645/grafana         
      udp        0      0 0.0.0.0:35976           0.0.0.0:*                           108        12792      396/avahi-daemon: r 
      udp        0      0 0.0.0.0:5353            0.0.0.0:*                           108        12790      396/avahi-daemon: r 
      udp        0      0 0.0.0.0:68              0.0.0.0:*                           0          12826      644/dhcpcd          
      udp        0      0 0.0.0.0:6666            0.0.0.0:*                           1001       1789       976/io.tuya.0       
      udp        0      0 0.0.0.0:6667            0.0.0.0:*                           1001       1791       976/io.tuya.0       
      udp6       0      0 :::5353                 :::*                                108        12791      396/avahi-daemon: r 
      udp6       0      0 :::35029                :::*                                108        12793      396/avahi-daemon: r 
      
      *** Log File - Last 25 Lines ***
      
      2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:     code: 'internal error',
      2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:     message: 'unexpected error writing points to database: timeout'
      2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   },
      2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   code: 'internal error',
      2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   _retryAfter: 0
      2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]: }
      2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]: WARN: Write to InfluxDB failed (attempt: 1). m [HttpError]: unexpected error writing points to database: timeout
      2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.<anonymous> (/opt/iobroker/node_modules/@influxdata/influxdb-client/src/impl/node/NodeHttpTransport.ts:354:11)
      2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.emit (node:events:525:35)
      2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.emit (node:domain:489:12)
      2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at endReadableNT (node:internal/streams/readable:1358:12)
      2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at processTicksAndRejections (node:internal/process/task_queues:83:21) {
      2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   statusCode: 500,
      2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   statusMessage: 'Internal Server Error',
      2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   body: '{"code":"internal error","message":"unexpected error writing points to database: timeout"}',
      2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   contentType: 'application/json; charset=utf-8',
      2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   json: {
      2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:     code: 'internal error',
      2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:     message: 'unexpected error writing points to database: timeout'
      2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   },
      2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   code: 'internal error',
      2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   _retryAfter: 0
      2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]: }
      2023-05-06 11:27:15.358  - info: host.iobroker instance system.adapter.influxdb.0 terminated with code 0 (NO_ERROR)
      2023-05-06 11:27:15.359  - info: host.iobroker Do not restart adapter system.adapter.influxdb.0 because disabled or deleted
      
      

      ============ Mark until here for C&P =============

      ======================= SUMMARY =======================
      		     v.2023-04-15
      
      
      Operatingsystem: 	Debian GNU/Linux 11 (bullseye)
      Kernel: 		6.1.21-v8+
      Installation: 		Native
      Timezone: 		Europe/Berlin (CEST, +0200)
      User-ID: 		1000
      X-Server: 		false
      Boot Target: 		multi-user.target
      
      Pending OS-Updates: 	40
      Pending iob updates: 	0
      
      Nodejs-Installation: 	/usr/bin/nodejs 	v16.19.1
      			/usr/bin/node 		v16.19.1
      			/usr/bin/npm 		8.19.3
      			/usr/bin/npx 		8.19.3
      
      Recommended versions are nodejs 18.x.y and npm 9.x.y
      Your nodejs installation is correct
      
      MEMORY: 
                     total        used        free      shared  buff/cache   available
      Mem:            3.8G        1.5G        711M        1.0M        1.6G        2.2G
      Swap:            99M          0B         99M
      Total:          3.9G        1.5G        811M
      
      Active iob-Instances: 	16
      Active repo(s): stable
      
      ioBroker Core: 		js-controller 		4.0.24
      			admin 			6.3.5
      
      ioBroker Status: 	iobroker is running on this host.
      
      
      Objects type: jsonl
      States  type: jsonl
      
      Status admin and web instance:
      + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
      + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
      
      Objects: 		1263
      States: 		1103
      
      Size of iob-Database:
      
      9.5M	/opt/iobroker/iobroker-data/objects.jsonl
      4.9M	/opt/iobroker/iobroker-data/states.jsonl
      
      
      
      =================== END OF SUMMARY ====================
      
      DJMarc75D 1 Antwort Letzte Antwort
      0
      • akuhnshA akuhnsh

        @thomas-braun

        @thomas-braun said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

        @akuhnsh

        Ist das ein MacOS?

        Sorry, ich war nicht über SSH mit dem Pi verbunden... Hauaha!

        ======== Start marking the full check here =========

        Skript v.2023-04-15
        
        *** BASE SYSTEM ***
        Model		: Raspberry Pi 4 Model B Rev 1.2
        Architecture    : aarch64
        Docker          : false
        Virtualization  : none
        Distributor ID:	Debian
        Description:	Debian GNU/Linux 11 (bullseye)
        Release:	11
        Codename:	bullseye
        
        PRETTY_NAME="Debian GNU/Linux 11 (bullseye)"
        NAME="Debian GNU/Linux"
        VERSION_ID="11"
        VERSION="11 (bullseye)"
        VERSION_CODENAME=bullseye
        ID=debian
        HOME_URL="https://www.debian.org/"
        SUPPORT_URL="https://www.debian.org/support"
        BUG_REPORT_URL="https://bugs.debian.org/"
        
        Systemuptime and Load:
         12:03:24 up 1 day,  1:06,  1 user,  load average: 0.88, 0.52, 0.25
        CPU threads: 4
        
        Raspberry only:
        throttled=0x0
        Other values than 0x0 hint to temperature/voltage problems
        temp=63.3'C
        volt=0.8438V
        
        *** Time and Time Zones ***
                       Local time: Sat 2023-05-06 12:03:24 CEST
                   Universal time: Sat 2023-05-06 10:03:24 UTC
                         RTC time: n/a
                        Time zone: Europe/Berlin (CEST, +0200)
        System clock synchronized: yes
                      NTP service: active
                  RTC in local TZ: no
        
        *** User and Groups ***
        pi
        /home/pi
        pi adm dialout cdrom sudo audio video plugdev games users input render netdev gpio i2c spi iobroker
        
        *** X-Server-Setup ***
        X-Server: 	false
        Desktop: 	
        Terminal: 	tty
        Boot Target: 	multi-user.target
        
        *** MEMORY ***
                       total        used        free      shared  buff/cache   available
        Mem:            3.8G        1.5G        714M        1.0M        1.6G        2.2G
        Swap:            99M          0B         99M
        Total:          3.9G        1.5G        814M
        
                 3794 M total memory
                 1481 M used memory
                 1738 M active memory
                 1185 M inactive memory
                  714 M free memory
                   83 M buffer memory
                 1515 M swap cache
                   99 M total swap
                    0 M used swap
                   99 M free swap
        
        Raspberry only:
        oom events: 0
        lifetime oom required: 0 Mbytes
        total time in oom handler: 0 ms
        max time spent in oom handler: 0 ms
        
        *** FILESYSTEM ***
        Filesystem     Type      Size  Used Avail Use% Mounted on
        /dev/root      ext4      117G   18G   96G  16% /
        devtmpfs       devtmpfs  1.7G     0  1.7G   0% /dev
        tmpfs          tmpfs     1.9G     0  1.9G   0% /dev/shm
        tmpfs          tmpfs     759M  1.1M  758M   1% /run
        tmpfs          tmpfs     5.0M  4.0K  5.0M   1% /run/lock
        /dev/mmcblk0p1 vfat      255M   32M  224M  13% /boot
        tmpfs          tmpfs     380M     0  380M   0% /run/user/1000
        
        Messages concerning ext4 filesystem in dmesg:
        [Fri May  5 10:57:02 2023] Kernel command line: coherent_pool=1M 8250.nr_uarts=0 snd_bcm2835.enable_headphones=0 snd_bcm2835.enable_headphones=1 snd_bcm2835.enable_hdmi=1 snd_bcm2835.enable_hdmi=0  smsc95xx.macaddr=DC:A6:32:99:1F:06 vc_mem.mem_base=0x3ec00000 vc_mem.mem_size=0x40000000  console=ttyS0,115200 console=tty1 root=PARTUUID=accb09c9-02 rootfstype=ext4 fsck.repair=yes rootwait
        [Fri May  5 10:57:03 2023] EXT4-fs (mmcblk0p2): mounted filesystem with ordered data mode. Quota mode: none.
        [Fri May  5 10:57:03 2023] VFS: Mounted root (ext4 filesystem) readonly on device 179:2.
        [Fri May  5 10:57:05 2023] EXT4-fs (mmcblk0p2): re-mounted. Quota mode: none.
        
        Show mounted filesystems (real ones only):
        TARGET  SOURCE         FSTYPE OPTIONS
        /       /dev/mmcblk0p2 ext4   rw,noatime
        `-/boot /dev/mmcblk0p1 vfat   rw,relatime,fmask=0022,dmask=0022,codepage=437,iocharset=ascii,shortname=mixed,
        
        Files in neuralgic directories:
        
        /var:
        7.2G	/var/
        4.2G	/var/log
        4.0G	/var/log/journal/16936caa76ee4e328d697dd513277359
        4.0G	/var/log/journal
        2.3G	/var/lib
        
        Archived and active journals take up 3.9G in the file system.
        
        /opt/iobroker/backups:
        7.0G	/opt/iobroker/backups/
        
        /opt/iobroker/iobroker-data:
        196M	/opt/iobroker/iobroker-data/
        153M	/opt/iobroker/iobroker-data/files
        51M	/opt/iobroker/iobroker-data/files/javascript.admin
        48M	/opt/iobroker/iobroker-data/files/telegram.admin
        32M	/opt/iobroker/iobroker-data/files/javascript.admin/static/js
        
        The five largest files in iobroker-data are:
        15M	/opt/iobroker/iobroker-data/files/telegram.admin/rules/static/js/vendors-node_modules_iobroker_adapter-react-v5_assets_devices_parseNames_d_ts-node_modules_io-1d9f06.44fe4a3f.chunk.js.map
        9.5M	/opt/iobroker/iobroker-data/objects.jsonl
        7.2M	/opt/iobroker/iobroker-data/files/telegram.admin/rules/static/js/vendors-node_modules_iobroker_adapter-react-v5_assets_devices_parseNames_d_ts-node_modules_io-1d9f06.44fe4a3f.chunk.js
        6.9M	/opt/iobroker/iobroker-data/files/telegram.admin/custom/static/js/vendors-node_modules_mui_icons-material_esm_index_js.8fdf8cb7.chunk.js.map
        6.9M	/opt/iobroker/iobroker-data/files/javascript.admin/static/js/610.de0231c9.chunk.js.map
        
        *** NodeJS-Installation ***
        
        /usr/bin/nodejs 	v16.19.1
        /usr/bin/node 		v16.19.1
        /usr/bin/npm 		8.19.3
        /usr/bin/npx 		8.19.3
        
        
        nodejs:
          Installed: 16.19.1-deb-1nodesource1
          Candidate: 16.20.0-deb-1nodesource1
          Version table:
             16.20.0-deb-1nodesource1 500
                500 https://deb.nodesource.com/node_16.x bullseye/main arm64 Packages
         *** 16.19.1-deb-1nodesource1 100
                100 /var/lib/dpkg/status
             12.22.12~dfsg-1~deb11u4 500
                500 http://security.debian.org/debian-security bullseye-security/main arm64 Packages
             12.22.12~dfsg-1~deb11u3 500
                500 http://deb.debian.org/debian bullseye/main arm64 Packages
        
        Temp directories causing npm8 problem: 0
        No problems detected
        
        *** ioBroker-Installation ***
        
        ioBroker Status
        iobroker is running on this host.
        
        
        Objects type: jsonl
        States  type: jsonl
        
        MULTIHOSTSERVICE/enabled: false
        
        Core adapters versions
        js-controller: 	4.0.24
        admin: 		6.3.5
        javascript: 	6.1.4
        
        Adapters from github: 	0
        
        Adapter State
        + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
        + system.adapter.backitup.0               : backitup              : iobroker                                 -  enabled
        + system.adapter.cloud.0                  : cloud                 : iobroker                                 -  enabled
        + system.adapter.discovery.0              : discovery             : iobroker                                 -  enabled
        + system.adapter.email.0                  : email                 : iobroker                                 -  enabled
          system.adapter.influxdb.0               : influxdb              : iobroker                                 - disabled, port: 8086
        + system.adapter.javascript.0             : javascript            : iobroker                                 -  enabled
          system.adapter.modbus.0                 : modbus                : iobroker                                 - disabled
          system.adapter.mqtt-client.0            : mqtt-client           : iobroker                                 - disabled, port: 1883
        + system.adapter.mqtt.0                   : mqtt                  : iobroker                                 -  enabled, port: 1886, bind: 0.0.0.0
        + system.adapter.pvforecast.0             : pvforecast            : iobroker                                 -  enabled
        + system.adapter.pvforecast.1             : pvforecast            : iobroker                                 -  enabled
        + system.adapter.sonoff.0                 : sonoff                : iobroker                                 -  enabled, port: 1883, bind: 0.0.0.0
        + system.adapter.sql.0                    : sql                   : iobroker                                 -  enabled
        + system.adapter.telegram.0               : telegram              : iobroker                                 -  enabled, port: 8443, bind: 0.0.0.0
        + system.adapter.tuya.0                   : tuya                  : iobroker                                 -  enabled
          system.adapter.vis.0                    : vis                   : iobroker                                 -  enabled
        + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
        + system.adapter.yahka.0                  : yahka                 : iobroker                                 -  enabled
        
        + instance is alive
        
        Enabled adapters with bindings
        + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
        + system.adapter.mqtt.0                   : mqtt                  : iobroker                                 -  enabled, port: 1886, bind: 0.0.0.0
        + system.adapter.sonoff.0                 : sonoff                : iobroker                                 -  enabled, port: 1883, bind: 0.0.0.0
        + system.adapter.telegram.0               : telegram              : iobroker                                 -  enabled, port: 8443, bind: 0.0.0.0
        + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
        
        ioBroker-Repositories
        stable        : http://download.iobroker.net/sources-dist.json
        beta          : http://download.iobroker.net/sources-dist-latest.json
        
        Active repo(s): stable
        
        Installed ioBroker-Instances
        Used repository: stable
        Adapter    "admin"        : 6.3.5    , installed 6.3.5
        Adapter    "backitup"     : 2.6.19   , installed 2.6.19
        Adapter    "cloud"        : 4.3.0    , installed 4.3.0
        Adapter    "discovery"    : 3.1.0    , installed 3.1.0
        Adapter    "email"        : 1.1.4    , installed 1.1.4
        Adapter    "influxdb"     : 3.2.0    , installed 3.2.0
        Adapter    "javascript"   : 6.1.4    , installed 6.1.4
        Controller "js-controller": 4.0.24   , installed 4.0.24
        Adapter    "modbus"       : 5.0.11   , installed 5.0.11
        Adapter    "mqtt"         : 4.0.7    , installed 4.0.7
        Adapter    "mqtt-client"  : 1.6.3    , installed 1.6.3
        Adapter    "pvforecast"   : 2.3.0    , installed 2.3.0
        Adapter    "simple-api"   : 2.7.2    , installed 2.7.2
        Adapter    "socketio"     : 4.2.0    , installed 4.2.0
        Adapter    "sonoff"       : 2.5.1    , installed 2.5.1
        Adapter    "sql"          : 2.2.0    , installed 2.2.0
        Adapter    "telegram"     : 1.15.2   , installed 1.15.2
        Adapter    "tuya"         : 3.13.1   , installed 3.13.1
        Adapter    "vis"          : 1.4.16   , installed 1.4.16
        Adapter    "web"          : 4.3.0    , installed 4.3.0
        Adapter    "ws"           : 1.3.0    , installed 1.3.0
        Adapter    "yahka"        : 0.17.0   , installed 0.17.0
        
        Objects and States
        Please stand by - This may take a while
        Objects: 	1263
        States: 	1103
        
        *** OS-Repositories and Updates ***
        Hit:1 http://archive.raspberrypi.org/debian bullseye InRelease
        Hit:2 http://deb.debian.org/debian bullseye InRelease                                                                                                       
        Hit:3 http://deb.debian.org/debian bullseye-updates InRelease                                                                                               
        Hit:4 http://security.debian.org/debian-security bullseye-security InRelease                                                                                
        Hit:5 https://deb.nodesource.com/node_16.x bullseye InRelease                                                                                               
        Hit:6 https://repos.influxdata.com/debian stable InRelease                                                                  
        Hit:7 https://packages.grafana.com/oss/deb stable InRelease                 
        Reading package lists... Done                         
        Pending Updates: 40
        
        *** Listening Ports ***
        Active Internet connections (only servers)
        Proto Recv-Q Send-Q Local Address           Foreign Address         State       User       Inode      PID/Program name    
        tcp        0      0 0.0.0.0:1886            0.0.0.0:*               LISTEN      1001       15515      946/io.mqtt.0       
        tcp        0      0 0.0.0.0:1887            0.0.0.0:*               LISTEN      1001       15516      946/io.mqtt.0       
        tcp        0      0 0.0.0.0:1883            0.0.0.0:*               LISTEN      1001       14905      961/io.sonoff.0     
        tcp        0      0 127.0.0.1:9000          0.0.0.0:*               LISTEN      1001       12261      774/iobroker.js-con 
        tcp        0      0 127.0.0.1:9001          0.0.0.0:*               LISTEN      1001       12254      774/iobroker.js-con 
        tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      0          12083      523/sshd: /usr/sbin 
        tcp        0      0 0.0.0.0:39007           0.0.0.0:*               LISTEN      1001       15615      1021/io.yahka.0     
        tcp6       0      0 :::8086                 :::*                    LISTEN      999        1643       649/influxd         
        tcp6       0      0 :::8082                 :::*                    LISTEN      1001       1868       1036/io.web.0       
        tcp6       0      0 :::8081                 :::*                    LISTEN      1001       1686       821/io.admin.0      
        tcp6       0      0 :::22                   :::*                    LISTEN      0          12094      523/sshd: /usr/sbin 
        tcp6       0      0 :::3000                 :::*                    LISTEN      110        15384      645/grafana         
        udp        0      0 0.0.0.0:35976           0.0.0.0:*                           108        12792      396/avahi-daemon: r 
        udp        0      0 0.0.0.0:5353            0.0.0.0:*                           108        12790      396/avahi-daemon: r 
        udp        0      0 0.0.0.0:68              0.0.0.0:*                           0          12826      644/dhcpcd          
        udp        0      0 0.0.0.0:6666            0.0.0.0:*                           1001       1789       976/io.tuya.0       
        udp        0      0 0.0.0.0:6667            0.0.0.0:*                           1001       1791       976/io.tuya.0       
        udp6       0      0 :::5353                 :::*                                108        12791      396/avahi-daemon: r 
        udp6       0      0 :::35029                :::*                                108        12793      396/avahi-daemon: r 
        
        *** Log File - Last 25 Lines ***
        
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:     code: 'internal error',
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:     message: 'unexpected error writing points to database: timeout'
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   },
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   code: 'internal error',
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   _retryAfter: 0
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]: }
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]: WARN: Write to InfluxDB failed (attempt: 1). m [HttpError]: unexpected error writing points to database: timeout
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.<anonymous> (/opt/iobroker/node_modules/@influxdata/influxdb-client/src/impl/node/NodeHttpTransport.ts:354:11)
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.emit (node:events:525:35)
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.emit (node:domain:489:12)
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at endReadableNT (node:internal/streams/readable:1358:12)
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at processTicksAndRejections (node:internal/process/task_queues:83:21) {
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   statusCode: 500,
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   statusMessage: 'Internal Server Error',
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   body: '{"code":"internal error","message":"unexpected error writing points to database: timeout"}',
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   contentType: 'application/json; charset=utf-8',
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   json: {
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:     code: 'internal error',
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:     message: 'unexpected error writing points to database: timeout'
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   },
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   code: 'internal error',
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   _retryAfter: 0
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]: }
        2023-05-06 11:27:15.358  - info: host.iobroker instance system.adapter.influxdb.0 terminated with code 0 (NO_ERROR)
        2023-05-06 11:27:15.359  - info: host.iobroker Do not restart adapter system.adapter.influxdb.0 because disabled or deleted
        
        

        ============ Mark until here for C&P =============

        ======================= SUMMARY =======================
        		     v.2023-04-15
        
        
        Operatingsystem: 	Debian GNU/Linux 11 (bullseye)
        Kernel: 		6.1.21-v8+
        Installation: 		Native
        Timezone: 		Europe/Berlin (CEST, +0200)
        User-ID: 		1000
        X-Server: 		false
        Boot Target: 		multi-user.target
        
        Pending OS-Updates: 	40
        Pending iob updates: 	0
        
        Nodejs-Installation: 	/usr/bin/nodejs 	v16.19.1
        			/usr/bin/node 		v16.19.1
        			/usr/bin/npm 		8.19.3
        			/usr/bin/npx 		8.19.3
        
        Recommended versions are nodejs 18.x.y and npm 9.x.y
        Your nodejs installation is correct
        
        MEMORY: 
                       total        used        free      shared  buff/cache   available
        Mem:            3.8G        1.5G        711M        1.0M        1.6G        2.2G
        Swap:            99M          0B         99M
        Total:          3.9G        1.5G        811M
        
        Active iob-Instances: 	16
        Active repo(s): stable
        
        ioBroker Core: 		js-controller 		4.0.24
        			admin 			6.3.5
        
        ioBroker Status: 	iobroker is running on this host.
        
        
        Objects type: jsonl
        States  type: jsonl
        
        Status admin and web instance:
        + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
        + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
        
        Objects: 		1263
        States: 		1103
        
        Size of iob-Database:
        
        9.5M	/opt/iobroker/iobroker-data/objects.jsonl
        4.9M	/opt/iobroker/iobroker-data/states.jsonl
        
        
        
        =================== END OF SUMMARY ====================
        
        DJMarc75D Offline
        DJMarc75D Offline
        DJMarc75
        schrieb am zuletzt editiert von
        #8

        @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

        Pending OS-Updates: 40

        mach das mal aktuell ;)

        Lehrling seit 1975 !!!
        Beitrag geholfen ? dann gerne ein upvote rechts unten im Beitrag klicken ;)
        https://forum.iobroker.net/topic/51555/hinweise-f%C3%BCr-gute-forenbeitr%C3%A4ge

        akuhnshA 1 Antwort Letzte Antwort
        0
        • DJMarc75D DJMarc75

          @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

          Pending OS-Updates: 40

          mach das mal aktuell ;)

          akuhnshA Offline
          akuhnshA Offline
          akuhnsh
          schrieb am zuletzt editiert von
          #9

          @djmarc75

          Ist erledigt...

          Die InfluxDB Instanz hab ich aufgrund der andauernden Fehler vorerst deaktiviert.

          Skript v.2023-04-15
          
          *** BASE SYSTEM ***
          Model		: Raspberry Pi 4 Model B Rev 1.2
          Architecture    : aarch64
          Docker          : false
          Virtualization  : none
          Distributor ID:	Debian
          Description:	Debian GNU/Linux 11 (bullseye)
          Release:	11
          Codename:	bullseye
          
          PRETTY_NAME="Debian GNU/Linux 11 (bullseye)"
          NAME="Debian GNU/Linux"
          VERSION_ID="11"
          VERSION="11 (bullseye)"
          VERSION_CODENAME=bullseye
          ID=debian
          HOME_URL="https://www.debian.org/"
          SUPPORT_URL="https://www.debian.org/support"
          BUG_REPORT_URL="https://bugs.debian.org/"
          
          Systemuptime and Load:
           12:39:31 up 1 day,  1:42,  1 user,  load average: 2.29, 0.99, 0.48
          CPU threads: 4
          
          Raspberry only:
          throttled=0x0
          Other values than 0x0 hint to temperature/voltage problems
          temp=66.2'C
          volt=0.8438V
          
          *** Time and Time Zones ***
                         Local time: Sat 2023-05-06 12:39:32 CEST
                     Universal time: Sat 2023-05-06 10:39:32 UTC
                           RTC time: n/a
                          Time zone: Europe/Berlin (CEST, +0200)
          System clock synchronized: yes
                        NTP service: active
                    RTC in local TZ: no
          
          *** User and Groups ***
          pi
          /home/pi
          pi adm dialout cdrom sudo audio video plugdev games users input render netdev gpio i2c spi iobroker
          
          *** X-Server-Setup ***
          X-Server: 	false
          Desktop: 	
          Terminal: 	tty
          Boot Target: 	multi-user.target
          
          *** MEMORY ***
                         total        used        free      shared  buff/cache   available
          Mem:            3.8G        1.5G        200M        1.0M        2.1G        2.3G
          Swap:            99M          0B         99M
          Total:          3.9G        1.5G        300M
          
                   3794 M total memory
                   1459 M used memory
                   1651 M active memory
                   1741 M inactive memory
                    200 M free memory
                     99 M buffer memory
                   2034 M swap cache
                     99 M total swap
                      0 M used swap
                     99 M free swap
          
          Raspberry only:
          oom events: 0
          lifetime oom required: 0 Mbytes
          total time in oom handler: 0 ms
          max time spent in oom handler: 0 ms
          
          *** FILESYSTEM ***
          Filesystem     Type      Size  Used Avail Use% Mounted on
          /dev/root      ext4      117G   18G   95G  16% /
          devtmpfs       devtmpfs  1.7G     0  1.7G   0% /dev
          tmpfs          tmpfs     1.9G     0  1.9G   0% /dev/shm
          tmpfs          tmpfs     759M  1.1M  758M   1% /run
          tmpfs          tmpfs     5.0M  4.0K  5.0M   1% /run/lock
          /dev/mmcblk0p1 vfat      255M   32M  224M  13% /boot
          tmpfs          tmpfs     380M     0  380M   0% /run/user/1000
          
          Messages concerning ext4 filesystem in dmesg:
          [Fri May  5 10:57:02 2023] Kernel command line: coherent_pool=1M 8250.nr_uarts=0 snd_bcm2835.enable_headphones=0 snd_bcm2835.enable_headphones=1 snd_bcm2835.enable_hdmi=1 snd_bcm2835.enable_hdmi=0  smsc95xx.macaddr=DC:A6:32:99:1F:06 vc_mem.mem_base=0x3ec00000 vc_mem.mem_size=0x40000000  console=ttyS0,115200 console=tty1 root=PARTUUID=accb09c9-02 rootfstype=ext4 fsck.repair=yes rootwait
          [Fri May  5 10:57:03 2023] EXT4-fs (mmcblk0p2): mounted filesystem with ordered data mode. Quota mode: none.
          [Fri May  5 10:57:03 2023] VFS: Mounted root (ext4 filesystem) readonly on device 179:2.
          [Fri May  5 10:57:05 2023] EXT4-fs (mmcblk0p2): re-mounted. Quota mode: none.
          
          Show mounted filesystems (real ones only):
          TARGET  SOURCE         FSTYPE OPTIONS
          /       /dev/mmcblk0p2 ext4   rw,noatime
          `-/boot /dev/mmcblk0p1 vfat   rw,relatime,fmask=0022,dmask=0022,codepage=437,iocharset=ascii,shortname=mixed,errors=remount-ro
          
          Files in neuralgic directories:
          
          /var:
          7.4G	/var/
          4.2G	/var/log
          4.0G	/var/log/journal/16936caa76ee4e328d697dd513277359
          4.0G	/var/log/journal
          2.3G	/var/lib
          
          Archived and active journals take up 3.9G in the file system.
          
          /opt/iobroker/backups:
          7.0G	/opt/iobroker/backups/
          
          /opt/iobroker/iobroker-data:
          199M	/opt/iobroker/iobroker-data/
          153M	/opt/iobroker/iobroker-data/files
          51M	/opt/iobroker/iobroker-data/files/javascript.admin
          48M	/opt/iobroker/iobroker-data/files/telegram.admin
          32M	/opt/iobroker/iobroker-data/files/javascript.admin/static/js
          
          The five largest files in iobroker-data are:
          15M	/opt/iobroker/iobroker-data/files/telegram.admin/rules/static/js/vendors-node_modules_iobroker_adapter-react-v5_assets_devices_parseNames_d_ts-node_modules_io-1d9f06.44fe4a3f.chunk.js.map
          9.5M	/opt/iobroker/iobroker-data/objects.jsonl
          7.3M	/opt/iobroker/iobroker-data/states.jsonl
          7.2M	/opt/iobroker/iobroker-data/files/telegram.admin/rules/static/js/vendors-node_modules_iobroker_adapter-react-v5_assets_devices_parseNames_d_ts-node_modules_io-1d9f06.44fe4a3f.chunk.js
          6.9M	/opt/iobroker/iobroker-data/files/telegram.admin/custom/static/js/vendors-node_modules_mui_icons-material_esm_index_js.8fdf8cb7.chunk.js.map
          
          *** NodeJS-Installation ***
          
          /usr/bin/nodejs 	v16.20.0
          /usr/bin/node 		v16.20.0
          /usr/bin/npm 		8.19.4
          /usr/bin/npx 		8.19.4
          
          
          nodejs:
            Installed: 16.20.0-deb-1nodesource1
            Candidate: 16.20.0-deb-1nodesource1
            Version table:
           *** 16.20.0-deb-1nodesource1 500
                  500 https://deb.nodesource.com/node_16.x bullseye/main arm64 Packages
                  100 /var/lib/dpkg/status
               12.22.12~dfsg-1~deb11u4 500
                  500 http://security.debian.org/debian-security bullseye-security/main arm64 Packages
               12.22.12~dfsg-1~deb11u3 500
                  500 http://deb.debian.org/debian bullseye/main arm64 Packages
          
          Temp directories causing npm8 problem: 0
          No problems detected
          
          *** ioBroker-Installation ***
          
          ioBroker Status
          iobroker is running on this host.
          
          
          Objects type: jsonl
          States  type: jsonl
          
          MULTIHOSTSERVICE/enabled: false
          
          Core adapters versions
          js-controller: 	4.0.24
          admin: 		6.3.5
          javascript: 	6.1.4
          
          Adapters from github: 	0
          
          Adapter State
          + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
          + system.adapter.backitup.0               : backitup              : iobroker                                 -  enabled
          + system.adapter.cloud.0                  : cloud                 : iobroker                                 -  enabled
          + system.adapter.discovery.0              : discovery             : iobroker                                 -  enabled
          + system.adapter.email.0                  : email                 : iobroker                                 -  enabled
            system.adapter.influxdb.0               : influxdb              : iobroker                                 - disabled, port: 8086
          + system.adapter.javascript.0             : javascript            : iobroker                                 -  enabled
            system.adapter.modbus.0                 : modbus                : iobroker                                 - disabled
            system.adapter.mqtt-client.0            : mqtt-client           : iobroker                                 - disabled, port: 1883
          + system.adapter.mqtt.0                   : mqtt                  : iobroker                                 -  enabled, port: 1886, bind: 0.0.0.0
          + system.adapter.pvforecast.0             : pvforecast            : iobroker                                 -  enabled
          + system.adapter.pvforecast.1             : pvforecast            : iobroker                                 -  enabled
          + system.adapter.sonoff.0                 : sonoff                : iobroker                                 -  enabled, port: 1883, bind: 0.0.0.0
          + system.adapter.sql.0                    : sql                   : iobroker                                 -  enabled
          + system.adapter.telegram.0               : telegram              : iobroker                                 -  enabled, port: 8443, bind: 0.0.0.0
          + system.adapter.tuya.0                   : tuya                  : iobroker                                 -  enabled
            system.adapter.vis.0                    : vis                   : iobroker                                 -  enabled
          + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
          + system.adapter.yahka.0                  : yahka                 : iobroker                                 -  enabled
          
          + instance is alive
          
          Enabled adapters with bindings
          + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
          + system.adapter.mqtt.0                   : mqtt                  : iobroker                                 -  enabled, port: 1886, bind: 0.0.0.0
          + system.adapter.sonoff.0                 : sonoff                : iobroker                                 -  enabled, port: 1883, bind: 0.0.0.0
          + system.adapter.telegram.0               : telegram              : iobroker                                 -  enabled, port: 8443, bind: 0.0.0.0
          + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
          
          ioBroker-Repositories
          stable        : http://download.iobroker.net/sources-dist.json
          beta          : http://download.iobroker.net/sources-dist-latest.json
          
          Active repo(s): stable
          
          Installed ioBroker-Instances
          Used repository: stable
          Adapter    "admin"        : 6.3.5    , installed 6.3.5
          Adapter    "backitup"     : 2.6.19   , installed 2.6.19
          Adapter    "cloud"        : 4.3.0    , installed 4.3.0
          Adapter    "discovery"    : 3.1.0    , installed 3.1.0
          Adapter    "email"        : 1.1.4    , installed 1.1.4
          Adapter    "influxdb"     : 3.2.0    , installed 3.2.0
          Adapter    "javascript"   : 6.1.4    , installed 6.1.4
          Controller "js-controller": 4.0.24   , installed 4.0.24
          Adapter    "modbus"       : 5.0.11   , installed 5.0.11
          Adapter    "mqtt"         : 4.0.7    , installed 4.0.7
          Adapter    "mqtt-client"  : 1.6.3    , installed 1.6.3
          Adapter    "pvforecast"   : 2.3.0    , installed 2.3.0
          Adapter    "simple-api"   : 2.7.2    , installed 2.7.2
          Adapter    "socketio"     : 4.2.0    , installed 4.2.0
          Adapter    "sonoff"       : 2.5.1    , installed 2.5.1
          Adapter    "sql"          : 2.2.0    , installed 2.2.0
          Adapter    "telegram"     : 1.15.2   , installed 1.15.2
          Adapter    "tuya"         : 3.13.1   , installed 3.13.1
          Adapter    "vis"          : 1.4.16   , installed 1.4.16
          Adapter    "web"          : 4.3.0    , installed 4.3.0
          Adapter    "ws"           : 1.3.0    , installed 1.3.0
          Adapter    "yahka"        : 0.17.0   , installed 0.17.0
          
          Objects and States
          Please stand by - This may take a while
          Objects: 	1263
          States: 	1103
          
          *** OS-Repositories and Updates ***
          Hit:1 http://security.debian.org/debian-security bullseye-security InRelease
          Hit:2 http://deb.debian.org/debian bullseye InRelease                                                                                                       
          Hit:3 http://deb.debian.org/debian bullseye-updates InRelease                                                                                               
          Hit:4 https://deb.nodesource.com/node_16.x bullseye InRelease                                                                                               
          Hit:5 http://archive.raspberrypi.org/debian bullseye InRelease                                                                                              
          Hit:6 https://repos.influxdata.com/debian stable InRelease                                                                                                  
          Hit:7 https://packages.grafana.com/oss/deb stable InRelease                 
          Reading package lists... Done                         
          Pending Updates: 0
          
          *** Listening Ports ***
          Active Internet connections (only servers)
          Proto Recv-Q Send-Q Local Address           Foreign Address         State       User       Inode      PID/Program name    
          tcp        0      0 0.0.0.0:1886            0.0.0.0:*               LISTEN      1001       15515      946/io.mqtt.0       
          tcp        0      0 0.0.0.0:1887            0.0.0.0:*               LISTEN      1001       15516      946/io.mqtt.0       
          tcp        0      0 0.0.0.0:1883            0.0.0.0:*               LISTEN      1001       14905      961/io.sonoff.0     
          tcp        0      0 127.0.0.1:9000          0.0.0.0:*               LISTEN      1001       12261      774/iobroker.js-con 
          tcp        0      0 127.0.0.1:9001          0.0.0.0:*               LISTEN      1001       12254      774/iobroker.js-con 
          tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      0          12083      523/sshd: /usr/sbin 
          tcp        0      0 0.0.0.0:39007           0.0.0.0:*               LISTEN      1001       15615      1021/io.yahka.0     
          tcp6       0      0 :::8086                 :::*                    LISTEN      999        1643       649/influxd         
          tcp6       0      0 :::8082                 :::*                    LISTEN      1001       1868       1036/io.web.0       
          tcp6       0      0 :::8081                 :::*                    LISTEN      1001       1686       821/io.admin.0      
          tcp6       0      0 :::22                   :::*                    LISTEN      0          12094      523/sshd: /usr/sbin 
          tcp6       0      0 :::3000                 :::*                    LISTEN      110        1837583    15453/grafana       
          udp        0      0 0.0.0.0:41614           0.0.0.0:*                           108        1837323    15544/avahi-daemon: 
          udp        0      0 0.0.0.0:5353            0.0.0.0:*                           108        1837321    15544/avahi-daemon: 
          udp        0      0 0.0.0.0:68              0.0.0.0:*                           0          12826      644/dhcpcd          
          udp        0      0 0.0.0.0:6666            0.0.0.0:*                           1001       1789       976/io.tuya.0       
          udp        0      0 0.0.0.0:6667            0.0.0.0:*                           1001       1791       976/io.tuya.0       
          udp6       0      0 :::5353                 :::*                                108        1837322    15544/avahi-daemon: 
          udp6       0      0 :::52551                :::*                                108        1837324    15544/avahi-daemon: 
          
          *** Log File - Last 25 Lines ***
          
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:     code: 'internal error',
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:     message: 'unexpected error writing points to database: timeout'
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   },
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   code: 'internal error',
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   _retryAfter: 0
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]: }
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]: WARN: Write to InfluxDB failed (attempt: 1). m [HttpError]: unexpected error writing points to database: timeout
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.<anonymous> (/opt/iobroker/node_modules/@influxdata/influxdb-client/src/impl/node/NodeHttpTransport.ts:354:11)
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.emit (node:events:525:35)
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.emit (node:domain:489:12)
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at endReadableNT (node:internal/streams/readable:1358:12)
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at processTicksAndRejections (node:internal/process/task_queues:83:21) {
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   statusCode: 500,
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   statusMessage: 'Internal Server Error',
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   body: '{"code":"internal error","message":"unexpected error writing points to database: timeout"}',
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   contentType: 'application/json; charset=utf-8',
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   json: {
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:     code: 'internal error',
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:     message: 'unexpected error writing points to database: timeout'
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   },
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   code: 'internal error',
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   _retryAfter: 0
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]: }
          2023-05-06 11:27:15.358  - info: host.iobroker instance system.adapter.influxdb.0 terminated with code 0 (NO_ERROR)
          2023-05-06 11:27:15.359  - info: host.iobroker Do not restart adapter system.adapter.influxdb.0 because disabled or deleted
          
          
          ======================= SUMMARY =======================
          		     v.2023-04-15
          
          
          Operatingsystem: 	Debian GNU/Linux 11 (bullseye)
          Kernel: 		6.1.21-v8+
          Installation: 		Native
          Timezone: 		Europe/Berlin (CEST, +0200)
          User-ID: 		1000
          X-Server: 		false
          Boot Target: 		multi-user.target
          
          Pending OS-Updates: 	0
          Pending iob updates: 	0
          
          Nodejs-Installation: 	/usr/bin/nodejs 	v16.20.0
          			/usr/bin/node 		v16.20.0
          			/usr/bin/npm 		8.19.4
          			/usr/bin/npx 		8.19.4
          
          Recommended versions are nodejs 18.x.y and npm 9.x.y
          Your nodejs installation is correct
          
          MEMORY: 
                         total        used        free      shared  buff/cache   available
          Mem:            3.8G        1.4G        416M        1.0M        1.9G        2.3G
          Swap:            99M          0B         99M
          Total:          3.9G        1.4G        516M
          
          Active iob-Instances: 	16
          Active repo(s): stable
          
          ioBroker Core: 		js-controller 		4.0.24
          			admin 			6.3.5
          
          ioBroker Status: 	iobroker is running on this host.
          
          
          Objects type: jsonl
          States  type: jsonl
          
          Status admin and web instance:
          + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
          + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
          
          Objects: 		1263
          States: 		1103
          
          Size of iob-Database:
          
          9.5M	/opt/iobroker/iobroker-data/objects.jsonl
          7.6M	/opt/iobroker/iobroker-data/states.jsonl
          
          
          
          =================== END OF SUMMARY ====================
          
          1 Antwort Letzte Antwort
          0
          • Marc BergM Offline
            Marc BergM Offline
            Marc Berg
            Most Active
            schrieb am zuletzt editiert von
            #10

            @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

            Zu der Zeit lief kein Rechner zu Hause und es war auch niemand anwesend. Das Desaster ist einfach vom Himmel gefallen und ich habe keine Ahnung wie ich meine Datenbank wiederherstellen und so etwas in Zukunft vermeiden kann.

            Wenn ich die Logs richtig lese, hast du alles auf SD Card installiert? Das würde ich für ein System, welches mir wichtig ist, nicht so machen. Die Vermutung liegt nahe, dass es dir das Filesystem zerschossen hat. Eine InfluxDB stürzt eigentlich nicht einfach so ab.

            Hat jemand eine Idee und Step by Step Vorgehensweise für mich?

            Das bekommen wir wieder hin, falls das Backup funktionsfähig ist. Wenn sich die InfluxDB "vergessen" hat, dann hast du auch einen neuen Token, den du in Backitup eingeben musst. Vorher würde ich aber die Ursache abklären (lassen).

            NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

            Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

            Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

            akuhnshA 1 Antwort Letzte Antwort
            0
            • Marc BergM Marc Berg

              @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

              Zu der Zeit lief kein Rechner zu Hause und es war auch niemand anwesend. Das Desaster ist einfach vom Himmel gefallen und ich habe keine Ahnung wie ich meine Datenbank wiederherstellen und so etwas in Zukunft vermeiden kann.

              Wenn ich die Logs richtig lese, hast du alles auf SD Card installiert? Das würde ich für ein System, welches mir wichtig ist, nicht so machen. Die Vermutung liegt nahe, dass es dir das Filesystem zerschossen hat. Eine InfluxDB stürzt eigentlich nicht einfach so ab.

              Hat jemand eine Idee und Step by Step Vorgehensweise für mich?

              Das bekommen wir wieder hin, falls das Backup funktionsfähig ist. Wenn sich die InfluxDB "vergessen" hat, dann hast du auch einen neuen Token, den du in Backitup eingeben musst. Vorher würde ich aber die Ursache abklären (lassen).

              akuhnshA Offline
              akuhnshA Offline
              akuhnsh
              schrieb am zuletzt editiert von
              #11

              @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

              Wenn ich die Logs richtig lese, hast du alles auf SD Card installiert? Das würde ich für ein System, welches mir wichtig ist, nicht so machen. Die Vermutung liegt nahe, dass es dir das Filesystem zerschossen hat. Eine InfluxDB stürzt eigentlich nicht einfach so ab.

              Über welches Medium machst du es? Mir ist es wichtig und eine kleine HDD über USB wäre ein Gedanke der mir dazu gekommen ist. Funktioniert das mit Power over USB beim Pi?

              Das bekommen wir wieder hin, falls das Backup funktionsfähig ist. Wenn sich die InfluxDB "vergessen" hat, dann hast du auch einen neuen Token, den du in Backitup eingeben musst. Vorher würde ich aber die Ursache abklären (lassen).

              BackItUp hat den neuen Token und wie erwähnt, habe ich Influx wieder so eingerichtet, wie es vorher war. Bucket gelöscht bzw. umbenannt und dann über BackItUp die Wiederherstellung gestartet. Gerade nochmal probiert:

              Started restore ...
              [DEBUG] [influxDB] - Created tmp directory
              [DEBUG] [influxDB] - Start infuxDB Restore ...
              [DEBUG] [influxDB] - influxdb.0 is stopped
              [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
              
              [DEBUG] [influxDB] - Try deleting the InfluxDB tmp directory
              [DEBUG] [influxDB] - InfluxDB tmp directory was successfully deleted
              [DEBUG] [influxDB] - infuxDB Restore completed successfully
              [EXIT] influxDB restore done
              [DEBUG] [influxDB] - influxdb.0 started
              
              HomoranH 1 Antwort Letzte Antwort
              0
              • Marc BergM Offline
                Marc BergM Offline
                Marc Berg
                Most Active
                schrieb am zuletzt editiert von
                #12

                @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                Über welches Medium machst du es? Mir ist es wichtig und eine kleine HDD über USB wäre ein Gedanke der mir dazu gekommen ist. Funktioniert das mit Power over USB beim Pi?

                Dazu bin ich leider keine Hilfe. Ich habe das mal probiert mit der SSD über USB, aber entnervt abgebrochen, weil es da einige Abhängigkeiten bzgl. des passenden Adapters etc. gibt. Ich arbeite seit einiger Zeit auf einem NUC und bin damit zufrieden.

                BackItUp hat den neuen Token und wie erwähnt, habe ich Influx wieder so eingerichtet, wie es vorher war. Bucket gelöscht bzw. umbenannt und dann über BackItUp die Wiederherstellung gestartet. Gerade nochmal probiert:

                Wo hast du den Token her?

                NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                akuhnshA 1 Antwort Letzte Antwort
                0
                • akuhnshA akuhnsh

                  @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                  Wenn ich die Logs richtig lese, hast du alles auf SD Card installiert? Das würde ich für ein System, welches mir wichtig ist, nicht so machen. Die Vermutung liegt nahe, dass es dir das Filesystem zerschossen hat. Eine InfluxDB stürzt eigentlich nicht einfach so ab.

                  Über welches Medium machst du es? Mir ist es wichtig und eine kleine HDD über USB wäre ein Gedanke der mir dazu gekommen ist. Funktioniert das mit Power over USB beim Pi?

                  Das bekommen wir wieder hin, falls das Backup funktionsfähig ist. Wenn sich die InfluxDB "vergessen" hat, dann hast du auch einen neuen Token, den du in Backitup eingeben musst. Vorher würde ich aber die Ursache abklären (lassen).

                  BackItUp hat den neuen Token und wie erwähnt, habe ich Influx wieder so eingerichtet, wie es vorher war. Bucket gelöscht bzw. umbenannt und dann über BackItUp die Wiederherstellung gestartet. Gerade nochmal probiert:

                  Started restore ...
                  [DEBUG] [influxDB] - Created tmp directory
                  [DEBUG] [influxDB] - Start infuxDB Restore ...
                  [DEBUG] [influxDB] - influxdb.0 is stopped
                  [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                  
                  [DEBUG] [influxDB] - Try deleting the InfluxDB tmp directory
                  [DEBUG] [influxDB] - InfluxDB tmp directory was successfully deleted
                  [DEBUG] [influxDB] - infuxDB Restore completed successfully
                  [EXIT] influxDB restore done
                  [DEBUG] [influxDB] - influxdb.0 started
                  
                  HomoranH Nicht stören
                  HomoranH Nicht stören
                  Homoran
                  Global Moderator Administrators
                  schrieb am zuletzt editiert von
                  #13

                  @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                  Funktioniert das mit Power over USB beim Pi?

                  Da gibt es einige Fallstricke

                  • Das Netzteil des Pi muss stark genug sein
                  • Beim Pi4 gibt es Störeinstrahlungen in den USB3
                    • Der USB2 liefert möglicherweise nicht genug Power

                  USB2 mit aktivem Hub wäre dann eine Lösung

                  kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

                  Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

                  der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

                  1 Antwort Letzte Antwort
                  0
                  • Marc BergM Marc Berg

                    @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                    Über welches Medium machst du es? Mir ist es wichtig und eine kleine HDD über USB wäre ein Gedanke der mir dazu gekommen ist. Funktioniert das mit Power over USB beim Pi?

                    Dazu bin ich leider keine Hilfe. Ich habe das mal probiert mit der SSD über USB, aber entnervt abgebrochen, weil es da einige Abhängigkeiten bzgl. des passenden Adapters etc. gibt. Ich arbeite seit einiger Zeit auf einem NUC und bin damit zufrieden.

                    BackItUp hat den neuen Token und wie erwähnt, habe ich Influx wieder so eingerichtet, wie es vorher war. Bucket gelöscht bzw. umbenannt und dann über BackItUp die Wiederherstellung gestartet. Gerade nochmal probiert:

                    Wo hast du den Token her?

                    akuhnshA Offline
                    akuhnshA Offline
                    akuhnsh
                    schrieb am zuletzt editiert von
                    #14

                    @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                    Wo hast du den Token her?

                    Ich hab InfluxDB nach dem Willkommensschirm über GUI eingerichtet wie es zuvor war und mir dann das neue admin Token kopiert und in BackItUp sowie in der Influx Instanz hinterlegt. Verbindungstest dort ist i.O. Werte schreibt er dennoch nicht in die DB

                    influxdb.0
                    2023-05-06 13:13:38.511	info	Add point that had error for mqtt.0.PL1 to buffer again, error-count=4
                    
                    influxdb.0
                    2023-05-06 13:13:38.510	warn	Error on writePoint("{"value":196.79,"time":"2023-05-06T11:12:38.280Z","from":"system.adapter.mqtt.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
                    
                    influxdb.0
                    2023-05-06 13:13:38.510	warn	Point could not be written to database: iobroker
                    
                    Marc BergM 1 Antwort Letzte Antwort
                    0
                    • akuhnshA akuhnsh

                      @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                      Wo hast du den Token her?

                      Ich hab InfluxDB nach dem Willkommensschirm über GUI eingerichtet wie es zuvor war und mir dann das neue admin Token kopiert und in BackItUp sowie in der Influx Instanz hinterlegt. Verbindungstest dort ist i.O. Werte schreibt er dennoch nicht in die DB

                      influxdb.0
                      2023-05-06 13:13:38.511	info	Add point that had error for mqtt.0.PL1 to buffer again, error-count=4
                      
                      influxdb.0
                      2023-05-06 13:13:38.510	warn	Error on writePoint("{"value":196.79,"time":"2023-05-06T11:12:38.280Z","from":"system.adapter.mqtt.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
                      
                      influxdb.0
                      2023-05-06 13:13:38.510	warn	Point could not be written to database: iobroker
                      
                      Marc BergM Offline
                      Marc BergM Offline
                      Marc Berg
                      Most Active
                      schrieb am zuletzt editiert von
                      #15

                      @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                      Ich hab InfluxDB nach dem Willkommensschirm über GUI eingerichtet wie es zuvor war und mir dann das neue admin Token kopiert und in BackItUp sowie in der Influx Instanz hinterlegt. Verbindungstest dort ist i.O. Werte schreibt er dennoch nicht in die DB

                      influxdb.0
                      2023-05-06 13:13:38.511	info	Add point that had error for mqtt.0.PL1 to buffer again, error-count=4
                      
                      influxdb.0
                      2023-05-06 13:13:38.510	warn	Error on writePoint("{"value":196.79,"time":"2023-05-06T11:12:38.280Z","from":"system.adapter.mqtt.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
                      
                      influxdb.0
                      2023-05-06 13:13:38.510	warn	Point could not be written to database: iobroker
                      

                      Hier kommt aber ein Timeout und kein Autorisierungfehler. Das sieht für mich noch nach anderen Problemen aus.

                      NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                      Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                      Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                      akuhnshA 1 Antwort Letzte Antwort
                      0
                      • Marc BergM Marc Berg

                        @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                        Ich hab InfluxDB nach dem Willkommensschirm über GUI eingerichtet wie es zuvor war und mir dann das neue admin Token kopiert und in BackItUp sowie in der Influx Instanz hinterlegt. Verbindungstest dort ist i.O. Werte schreibt er dennoch nicht in die DB

                        influxdb.0
                        2023-05-06 13:13:38.511	info	Add point that had error for mqtt.0.PL1 to buffer again, error-count=4
                        
                        influxdb.0
                        2023-05-06 13:13:38.510	warn	Error on writePoint("{"value":196.79,"time":"2023-05-06T11:12:38.280Z","from":"system.adapter.mqtt.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
                        
                        influxdb.0
                        2023-05-06 13:13:38.510	warn	Point could not be written to database: iobroker
                        

                        Hier kommt aber ein Timeout und kein Autorisierungfehler. Das sieht für mich noch nach anderen Problemen aus.

                        akuhnshA Offline
                        akuhnshA Offline
                        akuhnsh
                        schrieb am zuletzt editiert von
                        #16

                        @marc-berg @thomas-braun

                        @akuhnsh said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                        Ich habe das System neu aufgesetzt, um zu sehen, ob sich die Backups dann einspielen lassen und nach wie vor keine Chance die Datenbank aus dem Backup wiederherzustellen:

                        [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                        
                        Marc BergM 1 Antwort Letzte Antwort
                        0
                        • akuhnshA akuhnsh

                          @marc-berg @thomas-braun

                          @akuhnsh said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                          Ich habe das System neu aufgesetzt, um zu sehen, ob sich die Backups dann einspielen lassen und nach wie vor keine Chance die Datenbank aus dem Backup wiederherzustellen:

                          [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                          
                          Marc BergM Offline
                          Marc BergM Offline
                          Marc Berg
                          Most Active
                          schrieb am zuletzt editiert von Marc Berg
                          #17

                          @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                          @marc-berg @thomas-braun

                          @akuhnsh said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                          Ich habe das System neu aufgesetzt, um zu sehen, ob sich die Backups dann einspielen lassen und nach wie vor keine Chance die Datenbank aus dem Backup wiederherzustellen:

                          [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                          

                          zeig mal bitte die Ausgabe von

                          influx auth list --json
                          

                          und

                          influx organization list
                          

                          NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                          Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                          Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                          akuhnshA 1 Antwort Letzte Antwort
                          0
                          • Marc BergM Marc Berg

                            @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                            @marc-berg @thomas-braun

                            @akuhnsh said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                            Ich habe das System neu aufgesetzt, um zu sehen, ob sich die Backups dann einspielen lassen und nach wie vor keine Chance die Datenbank aus dem Backup wiederherzustellen:

                            [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                            

                            zeig mal bitte die Ausgabe von

                            influx auth list --json
                            

                            und

                            influx organization list
                            
                            akuhnshA Offline
                            akuhnshA Offline
                            akuhnsh
                            schrieb am zuletzt editiert von
                            #18

                            @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                            @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                            @marc-berg @thomas-braun

                            @akuhnsh said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                            Ich habe das System neu aufgesetzt, um zu sehen, ob sich die Backups dann einspielen lassen und nach wie vor keine Chance die Datenbank aus dem Backup wiederherzustellen:

                            [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                            

                            zeig mal bitte die Ausgabe von

                            influx auth list --json
                            
                            [
                            	{
                            		"id": "0b28411ba4dca000",
                            		"description": "admin's Token",
                            		"token": "wljQN6vtZ1a4hNNORVh55RM2u0o1V3XXh708y7yKPmtdBIV5tG5hxucGRGnBX1IdQoYh9Mnd5dsbBBV551nDUw==",
                            		"status": "active",
                            		"userName": "admin",
                            		"userID": "0b28411b6b9ca000",
                            		"permissions": [
                            			"read:/authorizations",
                            			"write:/authorizations",
                            			"read:/buckets",
                            			"write:/buckets",
                            			"read:/dashboards",
                            			"write:/dashboards",
                            			"read:/orgs",
                            			"write:/orgs",
                            			"read:/sources",
                            			"write:/sources",
                            			"read:/tasks",
                            			"write:/tasks",
                            			"read:/telegrafs",
                            			"write:/telegrafs",
                            			"read:/users",
                            			"write:/users",
                            			"read:/variables",
                            			"write:/variables",
                            			"read:/scrapers",
                            			"write:/scrapers",
                            			"read:/secrets",
                            			"write:/secrets",
                            			"read:/labels",
                            			"write:/labels",
                            			"read:/views",
                            			"write:/views",
                            			"read:/documents",
                            			"write:/documents",
                            			"read:/notificationRules",
                            			"write:/notificationRules",
                            			"read:/notificationEndpoints",
                            			"write:/notificationEndpoints",
                            			"read:/checks",
                            			"write:/checks",
                            			"read:/dbrp",
                            			"write:/dbrp",
                            			"read:/notebooks",
                            			"write:/notebooks",
                            			"read:/annotations",
                            			"write:/annotations",
                            			"read:/remotes",
                            			"write:/remotes",
                            			"read:/replications",
                            			"write:/replications"
                            		]
                            	},
                            	{
                            		"id": "0b2852f1fbdca000",
                            		"description": "admin's Token (cloned at 2023-05-06 13:44:19)",
                            		"token": "uZKGetlcGZSZbteI1gwpkJwsCIHpj0bI5ZLdRTvEuDqds7B9X04Q8LKhPYQArrWRJ3nnQS3xfQcwDkwhOKKoCw==",
                            		"status": "active",
                            		"userName": "admin",
                            		"userID": "0b28411b6b9ca000",
                            		"permissions": [
                            			"read:/authorizations",
                            			"write:/authorizations",
                            			"read:/buckets",
                            			"write:/buckets",
                            			"read:/dashboards",
                            			"write:/dashboards",
                            			"read:/orgs",
                            			"write:/orgs",
                            			"read:/sources",
                            			"write:/sources",
                            			"read:/tasks",
                            			"write:/tasks",
                            			"read:/telegrafs",
                            			"write:/telegrafs",
                            			"read:/users",
                            			"write:/users",
                            			"read:/variables",
                            			"write:/variables",
                            			"read:/scrapers",
                            			"write:/scrapers",
                            			"read:/secrets",
                            			"write:/secrets",
                            			"read:/labels",
                            			"write:/labels",
                            			"read:/views",
                            			"write:/views",
                            			"read:/documents",
                            			"write:/documents",
                            			"read:/notificationRules",
                            			"write:/notificationRules",
                            			"read:/notificationEndpoints",
                            			"write:/notificationEndpoints",
                            			"read:/checks",
                            			"write:/checks",
                            			"read:/dbrp",
                            			"write:/dbrp",
                            			"read:/notebooks",
                            			"write:/notebooks",
                            			"read:/annotations",
                            			"write:/annotations",
                            			"read:/remotes",
                            			"write:/remotes",
                            			"read:/replications",
                            			"write:/replications"
                            		]
                            	}
                            ]
                            

                            und

                            influx organization list
                            
                            ID			Name
                            2ecf2d695d1722e9	privat
                            
                            akuhnshA 1 Antwort Letzte Antwort
                            0
                            • akuhnshA akuhnsh

                              @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                              @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                              @marc-berg @thomas-braun

                              @akuhnsh said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                              Ich habe das System neu aufgesetzt, um zu sehen, ob sich die Backups dann einspielen lassen und nach wie vor keine Chance die Datenbank aus dem Backup wiederherzustellen:

                              [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                              

                              zeig mal bitte die Ausgabe von

                              influx auth list --json
                              
                              [
                              	{
                              		"id": "0b28411ba4dca000",
                              		"description": "admin's Token",
                              		"token": "wljQN6vtZ1a4hNNORVh55RM2u0o1V3XXh708y7yKPmtdBIV5tG5hxucGRGnBX1IdQoYh9Mnd5dsbBBV551nDUw==",
                              		"status": "active",
                              		"userName": "admin",
                              		"userID": "0b28411b6b9ca000",
                              		"permissions": [
                              			"read:/authorizations",
                              			"write:/authorizations",
                              			"read:/buckets",
                              			"write:/buckets",
                              			"read:/dashboards",
                              			"write:/dashboards",
                              			"read:/orgs",
                              			"write:/orgs",
                              			"read:/sources",
                              			"write:/sources",
                              			"read:/tasks",
                              			"write:/tasks",
                              			"read:/telegrafs",
                              			"write:/telegrafs",
                              			"read:/users",
                              			"write:/users",
                              			"read:/variables",
                              			"write:/variables",
                              			"read:/scrapers",
                              			"write:/scrapers",
                              			"read:/secrets",
                              			"write:/secrets",
                              			"read:/labels",
                              			"write:/labels",
                              			"read:/views",
                              			"write:/views",
                              			"read:/documents",
                              			"write:/documents",
                              			"read:/notificationRules",
                              			"write:/notificationRules",
                              			"read:/notificationEndpoints",
                              			"write:/notificationEndpoints",
                              			"read:/checks",
                              			"write:/checks",
                              			"read:/dbrp",
                              			"write:/dbrp",
                              			"read:/notebooks",
                              			"write:/notebooks",
                              			"read:/annotations",
                              			"write:/annotations",
                              			"read:/remotes",
                              			"write:/remotes",
                              			"read:/replications",
                              			"write:/replications"
                              		]
                              	},
                              	{
                              		"id": "0b2852f1fbdca000",
                              		"description": "admin's Token (cloned at 2023-05-06 13:44:19)",
                              		"token": "uZKGetlcGZSZbteI1gwpkJwsCIHpj0bI5ZLdRTvEuDqds7B9X04Q8LKhPYQArrWRJ3nnQS3xfQcwDkwhOKKoCw==",
                              		"status": "active",
                              		"userName": "admin",
                              		"userID": "0b28411b6b9ca000",
                              		"permissions": [
                              			"read:/authorizations",
                              			"write:/authorizations",
                              			"read:/buckets",
                              			"write:/buckets",
                              			"read:/dashboards",
                              			"write:/dashboards",
                              			"read:/orgs",
                              			"write:/orgs",
                              			"read:/sources",
                              			"write:/sources",
                              			"read:/tasks",
                              			"write:/tasks",
                              			"read:/telegrafs",
                              			"write:/telegrafs",
                              			"read:/users",
                              			"write:/users",
                              			"read:/variables",
                              			"write:/variables",
                              			"read:/scrapers",
                              			"write:/scrapers",
                              			"read:/secrets",
                              			"write:/secrets",
                              			"read:/labels",
                              			"write:/labels",
                              			"read:/views",
                              			"write:/views",
                              			"read:/documents",
                              			"write:/documents",
                              			"read:/notificationRules",
                              			"write:/notificationRules",
                              			"read:/notificationEndpoints",
                              			"write:/notificationEndpoints",
                              			"read:/checks",
                              			"write:/checks",
                              			"read:/dbrp",
                              			"write:/dbrp",
                              			"read:/notebooks",
                              			"write:/notebooks",
                              			"read:/annotations",
                              			"write:/annotations",
                              			"read:/remotes",
                              			"write:/remotes",
                              			"read:/replications",
                              			"write:/replications"
                              		]
                              	}
                              ]
                              

                              und

                              influx organization list
                              
                              ID			Name
                              2ecf2d695d1722e9	privat
                              
                              akuhnshA Offline
                              akuhnshA Offline
                              akuhnsh
                              schrieb am zuletzt editiert von
                              #19

                              @Marc-Berg @Thomas-Braun

                              An die alten Tokens aus dem Backup komme ich über die *.bolt Datei ran:

                              influxd recovery auth list --bolt-path /opt/iobroker/backups/20230503T213019Z.bolt
                              2023-05-06T14:09:35.271809Z	info	Resources opened	{"log_id": "0hdMBf9l000", "system": "bolt-kvstore", "path": "/opt/iobroker/backups/20230503T213019Z.bolt"}
                              ID			User Name	User ID			Description						Token							Permissions
                              0ab87d8e68295000	admin		0ab87d8e29e95000	admin's Token						lGhesEEm7Osc8iF3Atk0ukEZhEOLdg98AQXojtHwao1MrEOYiv0uaa3BrxS-QXp3T54dXJgDECIu7zuByns0Ug==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                              0b07e2e2b57cb000	admin		0ab87d8e29e95000	admin's Token (cloned at 2023-04-11 09:03:19)		06eJGdVPZPMsCad0sRvWS32YvB-F3Fifn3nTCM0oNBzDaY5I7Q0n-St-82r9vj1dZRnOONeIiWmTFDYIZoe3Gg==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                              0b07e9d2857cb000	admin		0ab87d8e29e95000	admin's Token BackItUp (cloned at 2023-04-11 09:33:38)	Tvm2bJ9-WsIoyNowWCasjc2ukqsFTIj3xQjp_q_1U-sPb6sH21n35nUzV99EOJ3JE2vLKKwCPIrN8jtT4xcT4A==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                              0b07f463437cb000	admin		0ab87d8e29e95000	admin's Token Grafana (cloned at 2023-04-11 10:19:47)	AQLf8Jld1fY0LYd3Cs0Pt4hKtzMbXK0t0_kMdh6eXzBxHiPJWR1t5OYHr7Qvx4-4zf1Q4ETOfII5W1oNCKvR5w==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                              

                              Aber wie soll ich über das GUI einen alten Token rekonstruieren?

                              Marc BergM 1 Antwort Letzte Antwort
                              0
                              • akuhnshA akuhnsh

                                @Marc-Berg @Thomas-Braun

                                An die alten Tokens aus dem Backup komme ich über die *.bolt Datei ran:

                                influxd recovery auth list --bolt-path /opt/iobroker/backups/20230503T213019Z.bolt
                                2023-05-06T14:09:35.271809Z	info	Resources opened	{"log_id": "0hdMBf9l000", "system": "bolt-kvstore", "path": "/opt/iobroker/backups/20230503T213019Z.bolt"}
                                ID			User Name	User ID			Description						Token							Permissions
                                0ab87d8e68295000	admin		0ab87d8e29e95000	admin's Token						lGhesEEm7Osc8iF3Atk0ukEZhEOLdg98AQXojtHwao1MrEOYiv0uaa3BrxS-QXp3T54dXJgDECIu7zuByns0Ug==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                                0b07e2e2b57cb000	admin		0ab87d8e29e95000	admin's Token (cloned at 2023-04-11 09:03:19)		06eJGdVPZPMsCad0sRvWS32YvB-F3Fifn3nTCM0oNBzDaY5I7Q0n-St-82r9vj1dZRnOONeIiWmTFDYIZoe3Gg==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                                0b07e9d2857cb000	admin		0ab87d8e29e95000	admin's Token BackItUp (cloned at 2023-04-11 09:33:38)	Tvm2bJ9-WsIoyNowWCasjc2ukqsFTIj3xQjp_q_1U-sPb6sH21n35nUzV99EOJ3JE2vLKKwCPIrN8jtT4xcT4A==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                                0b07f463437cb000	admin		0ab87d8e29e95000	admin's Token Grafana (cloned at 2023-04-11 10:19:47)	AQLf8Jld1fY0LYd3Cs0Pt4hKtzMbXK0t0_kMdh6eXzBxHiPJWR1t5OYHr7Qvx4-4zf1Q4ETOfII5W1oNCKvR5w==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                                

                                Aber wie soll ich über das GUI einen alten Token rekonstruieren?

                                Marc BergM Offline
                                Marc BergM Offline
                                Marc Berg
                                Most Active
                                schrieb am zuletzt editiert von Marc Berg
                                #20

                                @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                Aber wie soll ich über das GUI einen alten Token rekonstruieren?

                                Das würde nur Sinn ergeben, wenn die alte Datenbank noch vorhanden ist. Hast du bei der Neuinstallation die Datenverzeichnisse gelöscht? Nicht, dass da noch Überbleibsel stören.

                                NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                                Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                                Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                                akuhnshA 1 Antwort Letzte Antwort
                                0
                                • Marc BergM Marc Berg

                                  @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                  Aber wie soll ich über das GUI einen alten Token rekonstruieren?

                                  Das würde nur Sinn ergeben, wenn die alte Datenbank noch vorhanden ist. Hast du bei der Neuinstallation die Datenverzeichnisse gelöscht? Nicht, dass da noch Überbleibsel stören.

                                  akuhnshA Offline
                                  akuhnshA Offline
                                  akuhnsh
                                  schrieb am zuletzt editiert von
                                  #21

                                  @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                  @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                  Aber wie soll ich über das GUI einen alten Token rekonstruieren?

                                  Das würde nur Sinn ergeben, wenn die alte Datenbank noch vorhanden ist. Hast du bei der Neuinstallation die Datenverzeichnisse gelöscht? Nicht, dass da noch Überbleibsel stören.

                                  Die alten token sind halt im Backup hinterlegt. Wenn die abgefragt werden, passen sie halt nicht zum neuen admin token. Deshalb dachte ich an die Rolle Rückwärts. Erst die alten token wieder herstellen in der neuen influxdb und dann das Backup mit denselben token wieder herstellen. Denke da liegt der Hase im Pfeffer.

                                  Hab ein frisches Image auf die SD geschrieben und iobroker, influxdb und grafana neu installiert, wie sonst auch schon mal. Da sollte alles überschrieben worden sein.

                                  Marc BergM 1 Antwort Letzte Antwort
                                  0
                                  • akuhnshA akuhnsh

                                    @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                    @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                    Aber wie soll ich über das GUI einen alten Token rekonstruieren?

                                    Das würde nur Sinn ergeben, wenn die alte Datenbank noch vorhanden ist. Hast du bei der Neuinstallation die Datenverzeichnisse gelöscht? Nicht, dass da noch Überbleibsel stören.

                                    Die alten token sind halt im Backup hinterlegt. Wenn die abgefragt werden, passen sie halt nicht zum neuen admin token. Deshalb dachte ich an die Rolle Rückwärts. Erst die alten token wieder herstellen in der neuen influxdb und dann das Backup mit denselben token wieder herstellen. Denke da liegt der Hase im Pfeffer.

                                    Hab ein frisches Image auf die SD geschrieben und iobroker, influxdb und grafana neu installiert, wie sonst auch schon mal. Da sollte alles überschrieben worden sein.

                                    Marc BergM Offline
                                    Marc BergM Offline
                                    Marc Berg
                                    Most Active
                                    schrieb am zuletzt editiert von Marc Berg
                                    #22

                                    @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                    Die alten token sind halt im Backup hinterlegt. Wenn die abgefragt werden, passen sie halt nicht zum neuen admin token. Deshalb dachte ich an die Rolle Rückwärts. Erst die alten token wieder herstellen in der neuen influxdb und dann das Backup mit denselben token wieder herstellen. Denke da liegt der Hase im Pfeffer.

                                    nein. Du brauchst nach einer Neuinstallation für das Restore die neuen Token.

                                    NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                                    Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                                    Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                                    akuhnshA 2 Antworten Letzte Antwort
                                    0
                                    • Marc BergM Marc Berg

                                      @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                      Die alten token sind halt im Backup hinterlegt. Wenn die abgefragt werden, passen sie halt nicht zum neuen admin token. Deshalb dachte ich an die Rolle Rückwärts. Erst die alten token wieder herstellen in der neuen influxdb und dann das Backup mit denselben token wieder herstellen. Denke da liegt der Hase im Pfeffer.

                                      nein. Du brauchst nach einer Neuinstallation für das Restore die neuen Token.

                                      akuhnshA Offline
                                      akuhnshA Offline
                                      akuhnsh
                                      schrieb am zuletzt editiert von
                                      #23

                                      @marc-berg

                                      Okay verstanden. Vielleicht liegt es daran, dass das Backup aus einem Upgrade von 1.8 auf 2.7 stammt? Ich bekomme eine ähnliche Fehlermeldung, wenn ich in dem Reiter bei "Sicherung mehrerer Systeme" raus nehme und nur den einen bucket angebe, der auch zur Wiederherstellung ausgewählt wird:

                                      Started restore ...
                                      [DEBUG] [influxDB] - Created tmp directory
                                      [DEBUG] [influxDB] - Start infuxDB Restore ...
                                      [ERROR] [influxDB] - 2023/05/06 16:49:17 INFO: Restoring bucket "0db467ecf59e0de1" as "iobroker"
                                      Error: failed to restore bucket "iobroker": 401 Unauthorized: read:authorizations is unauthorized
                                      
                                      [DEBUG] [influxDB] - Try deleting the InfluxDB tmp directory
                                      [DEBUG] [influxDB] - InfluxDB tmp directory was successfully deleted
                                      [DEBUG] [influxDB] - infuxDB Restore completed successfully
                                      [EXIT] influxDB restore done
                                      

                                      Muss der neue token noch irgendwo anders eingetragen werden als unter dem Reiter influxdb in BackItUp?

                                      Marc BergM 1 Antwort Letzte Antwort
                                      0
                                      • Marc BergM Marc Berg

                                        @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                        Die alten token sind halt im Backup hinterlegt. Wenn die abgefragt werden, passen sie halt nicht zum neuen admin token. Deshalb dachte ich an die Rolle Rückwärts. Erst die alten token wieder herstellen in der neuen influxdb und dann das Backup mit denselben token wieder herstellen. Denke da liegt der Hase im Pfeffer.

                                        nein. Du brauchst nach einer Neuinstallation für das Restore die neuen Token.

                                        akuhnshA Offline
                                        akuhnshA Offline
                                        akuhnsh
                                        schrieb am zuletzt editiert von
                                        #24

                                        @marc-berg

                                        Wenn ich den bucket vorher anlege kommt folgende Meldung:

                                        Started restore ...
                                        [DEBUG] [influxDB] - Created tmp directory
                                        [DEBUG] [influxDB] - Start infuxDB Restore ...
                                        [ERROR] [influxDB] - 2023/05/06 16:52:54 INFO: Restoring bucket "0db467ecf59e0de1" as "iobroker"
                                        Error: failed to restore bucket "iobroker": 422 Unprocessable Entity: bucket with name iobroker already exists
                                        
                                        [DEBUG] [influxDB] - Try deleting the InfluxDB tmp directory
                                        [DEBUG] [influxDB] - InfluxDB tmp directory was successfully deleted
                                        [DEBUG] [influxDB] - infuxDB Restore completed successfully
                                        [EXIT] influxDB restore done
                                        
                                        1 Antwort Letzte Antwort
                                        0
                                        • akuhnshA akuhnsh

                                          @marc-berg

                                          Okay verstanden. Vielleicht liegt es daran, dass das Backup aus einem Upgrade von 1.8 auf 2.7 stammt? Ich bekomme eine ähnliche Fehlermeldung, wenn ich in dem Reiter bei "Sicherung mehrerer Systeme" raus nehme und nur den einen bucket angebe, der auch zur Wiederherstellung ausgewählt wird:

                                          Started restore ...
                                          [DEBUG] [influxDB] - Created tmp directory
                                          [DEBUG] [influxDB] - Start infuxDB Restore ...
                                          [ERROR] [influxDB] - 2023/05/06 16:49:17 INFO: Restoring bucket "0db467ecf59e0de1" as "iobroker"
                                          Error: failed to restore bucket "iobroker": 401 Unauthorized: read:authorizations is unauthorized
                                          
                                          [DEBUG] [influxDB] - Try deleting the InfluxDB tmp directory
                                          [DEBUG] [influxDB] - InfluxDB tmp directory was successfully deleted
                                          [DEBUG] [influxDB] - infuxDB Restore completed successfully
                                          [EXIT] influxDB restore done
                                          

                                          Muss der neue token noch irgendwo anders eingetragen werden als unter dem Reiter influxdb in BackItUp?

                                          Marc BergM Offline
                                          Marc BergM Offline
                                          Marc Berg
                                          Most Active
                                          schrieb am zuletzt editiert von
                                          #25

                                          @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                          Vielleicht liegt es daran, dass das Backup aus einem Upgrade von 1.8 auf 2.7 stammt

                                          Das verstehe ich nicht. Das Backup wurde doch aber nach dem Upgrade aus der 2.7 gezogen, oder?

                                          Ganz sicher, dass der Token, der auch über "influx auth list" sichtbar ist, korrekt und ohne Leerzeichen im Backitip-Adapter eingetragen ist? An eine andere Stelle muss der für den reinen Rstore nicht eingetragen werden.

                                          NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                                          Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                                          Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                                          akuhnshA 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate
                                          FAQ Cloud / IOT
                                          HowTo: Node.js-Update
                                          HowTo: Backup/Restore
                                          Downloads
                                          BLOG

                                          538

                                          Online

                                          32.5k

                                          Benutzer

                                          81.7k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe