Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. ioBroker Allgemein
  4. InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler

NEWS

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    11
    1
    472

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    24
    1
    1.6k

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    9.5k

InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler

Geplant Angeheftet Gesperrt Verschoben ioBroker Allgemein
28 Beiträge 5 Kommentatoren 2.3k Aufrufe 4 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • akuhnshA akuhnsh

    @thomas-braun said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

    @akuhnsh

    iob diag
    

    sagt?

    Siehe weiter unten...

    Thomas BraunT Online
    Thomas BraunT Online
    Thomas Braun
    Most Active
    schrieb am zuletzt editiert von
    #5

    @akuhnsh

    Ist das ein MacOS?

    Linux-Werkzeugkasten:
    https://forum.iobroker.net/topic/42952/der-kleine-iobroker-linux-werkzeugkasten
    NodeJS Fixer Skript:
    https://forum.iobroker.net/topic/68035/iob-node-fix-skript
    iob_diag: curl -sLf -o diag.sh https://iobroker.net/diag.sh && bash diag.sh

    akuhnshA 2 Antworten Letzte Antwort
    0
    • Thomas BraunT Thomas Braun

      @akuhnsh

      Ist das ein MacOS?

      akuhnshA Offline
      akuhnshA Offline
      akuhnsh
      schrieb am zuletzt editiert von
      #6

      @thomas-braun

      Terminal läuft unter MacOS, ja.

      1 Antwort Letzte Antwort
      0
      • Thomas BraunT Thomas Braun

        @akuhnsh

        Ist das ein MacOS?

        akuhnshA Offline
        akuhnshA Offline
        akuhnsh
        schrieb am zuletzt editiert von akuhnsh
        #7

        @thomas-braun

        @thomas-braun said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

        @akuhnsh

        Ist das ein MacOS?

        Sorry, ich war nicht über SSH mit dem Pi verbunden... Hauaha!

        ======== Start marking the full check here =========

        Skript v.2023-04-15
        
        *** BASE SYSTEM ***
        Model		: Raspberry Pi 4 Model B Rev 1.2
        Architecture    : aarch64
        Docker          : false
        Virtualization  : none
        Distributor ID:	Debian
        Description:	Debian GNU/Linux 11 (bullseye)
        Release:	11
        Codename:	bullseye
        
        PRETTY_NAME="Debian GNU/Linux 11 (bullseye)"
        NAME="Debian GNU/Linux"
        VERSION_ID="11"
        VERSION="11 (bullseye)"
        VERSION_CODENAME=bullseye
        ID=debian
        HOME_URL="https://www.debian.org/"
        SUPPORT_URL="https://www.debian.org/support"
        BUG_REPORT_URL="https://bugs.debian.org/"
        
        Systemuptime and Load:
         12:03:24 up 1 day,  1:06,  1 user,  load average: 0.88, 0.52, 0.25
        CPU threads: 4
        
        Raspberry only:
        throttled=0x0
        Other values than 0x0 hint to temperature/voltage problems
        temp=63.3'C
        volt=0.8438V
        
        *** Time and Time Zones ***
                       Local time: Sat 2023-05-06 12:03:24 CEST
                   Universal time: Sat 2023-05-06 10:03:24 UTC
                         RTC time: n/a
                        Time zone: Europe/Berlin (CEST, +0200)
        System clock synchronized: yes
                      NTP service: active
                  RTC in local TZ: no
        
        *** User and Groups ***
        pi
        /home/pi
        pi adm dialout cdrom sudo audio video plugdev games users input render netdev gpio i2c spi iobroker
        
        *** X-Server-Setup ***
        X-Server: 	false
        Desktop: 	
        Terminal: 	tty
        Boot Target: 	multi-user.target
        
        *** MEMORY ***
                       total        used        free      shared  buff/cache   available
        Mem:            3.8G        1.5G        714M        1.0M        1.6G        2.2G
        Swap:            99M          0B         99M
        Total:          3.9G        1.5G        814M
        
                 3794 M total memory
                 1481 M used memory
                 1738 M active memory
                 1185 M inactive memory
                  714 M free memory
                   83 M buffer memory
                 1515 M swap cache
                   99 M total swap
                    0 M used swap
                   99 M free swap
        
        Raspberry only:
        oom events: 0
        lifetime oom required: 0 Mbytes
        total time in oom handler: 0 ms
        max time spent in oom handler: 0 ms
        
        *** FILESYSTEM ***
        Filesystem     Type      Size  Used Avail Use% Mounted on
        /dev/root      ext4      117G   18G   96G  16% /
        devtmpfs       devtmpfs  1.7G     0  1.7G   0% /dev
        tmpfs          tmpfs     1.9G     0  1.9G   0% /dev/shm
        tmpfs          tmpfs     759M  1.1M  758M   1% /run
        tmpfs          tmpfs     5.0M  4.0K  5.0M   1% /run/lock
        /dev/mmcblk0p1 vfat      255M   32M  224M  13% /boot
        tmpfs          tmpfs     380M     0  380M   0% /run/user/1000
        
        Messages concerning ext4 filesystem in dmesg:
        [Fri May  5 10:57:02 2023] Kernel command line: coherent_pool=1M 8250.nr_uarts=0 snd_bcm2835.enable_headphones=0 snd_bcm2835.enable_headphones=1 snd_bcm2835.enable_hdmi=1 snd_bcm2835.enable_hdmi=0  smsc95xx.macaddr=DC:A6:32:99:1F:06 vc_mem.mem_base=0x3ec00000 vc_mem.mem_size=0x40000000  console=ttyS0,115200 console=tty1 root=PARTUUID=accb09c9-02 rootfstype=ext4 fsck.repair=yes rootwait
        [Fri May  5 10:57:03 2023] EXT4-fs (mmcblk0p2): mounted filesystem with ordered data mode. Quota mode: none.
        [Fri May  5 10:57:03 2023] VFS: Mounted root (ext4 filesystem) readonly on device 179:2.
        [Fri May  5 10:57:05 2023] EXT4-fs (mmcblk0p2): re-mounted. Quota mode: none.
        
        Show mounted filesystems (real ones only):
        TARGET  SOURCE         FSTYPE OPTIONS
        /       /dev/mmcblk0p2 ext4   rw,noatime
        `-/boot /dev/mmcblk0p1 vfat   rw,relatime,fmask=0022,dmask=0022,codepage=437,iocharset=ascii,shortname=mixed,
        
        Files in neuralgic directories:
        
        /var:
        7.2G	/var/
        4.2G	/var/log
        4.0G	/var/log/journal/16936caa76ee4e328d697dd513277359
        4.0G	/var/log/journal
        2.3G	/var/lib
        
        Archived and active journals take up 3.9G in the file system.
        
        /opt/iobroker/backups:
        7.0G	/opt/iobroker/backups/
        
        /opt/iobroker/iobroker-data:
        196M	/opt/iobroker/iobroker-data/
        153M	/opt/iobroker/iobroker-data/files
        51M	/opt/iobroker/iobroker-data/files/javascript.admin
        48M	/opt/iobroker/iobroker-data/files/telegram.admin
        32M	/opt/iobroker/iobroker-data/files/javascript.admin/static/js
        
        The five largest files in iobroker-data are:
        15M	/opt/iobroker/iobroker-data/files/telegram.admin/rules/static/js/vendors-node_modules_iobroker_adapter-react-v5_assets_devices_parseNames_d_ts-node_modules_io-1d9f06.44fe4a3f.chunk.js.map
        9.5M	/opt/iobroker/iobroker-data/objects.jsonl
        7.2M	/opt/iobroker/iobroker-data/files/telegram.admin/rules/static/js/vendors-node_modules_iobroker_adapter-react-v5_assets_devices_parseNames_d_ts-node_modules_io-1d9f06.44fe4a3f.chunk.js
        6.9M	/opt/iobroker/iobroker-data/files/telegram.admin/custom/static/js/vendors-node_modules_mui_icons-material_esm_index_js.8fdf8cb7.chunk.js.map
        6.9M	/opt/iobroker/iobroker-data/files/javascript.admin/static/js/610.de0231c9.chunk.js.map
        
        *** NodeJS-Installation ***
        
        /usr/bin/nodejs 	v16.19.1
        /usr/bin/node 		v16.19.1
        /usr/bin/npm 		8.19.3
        /usr/bin/npx 		8.19.3
        
        
        nodejs:
          Installed: 16.19.1-deb-1nodesource1
          Candidate: 16.20.0-deb-1nodesource1
          Version table:
             16.20.0-deb-1nodesource1 500
                500 https://deb.nodesource.com/node_16.x bullseye/main arm64 Packages
         *** 16.19.1-deb-1nodesource1 100
                100 /var/lib/dpkg/status
             12.22.12~dfsg-1~deb11u4 500
                500 http://security.debian.org/debian-security bullseye-security/main arm64 Packages
             12.22.12~dfsg-1~deb11u3 500
                500 http://deb.debian.org/debian bullseye/main arm64 Packages
        
        Temp directories causing npm8 problem: 0
        No problems detected
        
        *** ioBroker-Installation ***
        
        ioBroker Status
        iobroker is running on this host.
        
        
        Objects type: jsonl
        States  type: jsonl
        
        MULTIHOSTSERVICE/enabled: false
        
        Core adapters versions
        js-controller: 	4.0.24
        admin: 		6.3.5
        javascript: 	6.1.4
        
        Adapters from github: 	0
        
        Adapter State
        + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
        + system.adapter.backitup.0               : backitup              : iobroker                                 -  enabled
        + system.adapter.cloud.0                  : cloud                 : iobroker                                 -  enabled
        + system.adapter.discovery.0              : discovery             : iobroker                                 -  enabled
        + system.adapter.email.0                  : email                 : iobroker                                 -  enabled
          system.adapter.influxdb.0               : influxdb              : iobroker                                 - disabled, port: 8086
        + system.adapter.javascript.0             : javascript            : iobroker                                 -  enabled
          system.adapter.modbus.0                 : modbus                : iobroker                                 - disabled
          system.adapter.mqtt-client.0            : mqtt-client           : iobroker                                 - disabled, port: 1883
        + system.adapter.mqtt.0                   : mqtt                  : iobroker                                 -  enabled, port: 1886, bind: 0.0.0.0
        + system.adapter.pvforecast.0             : pvforecast            : iobroker                                 -  enabled
        + system.adapter.pvforecast.1             : pvforecast            : iobroker                                 -  enabled
        + system.adapter.sonoff.0                 : sonoff                : iobroker                                 -  enabled, port: 1883, bind: 0.0.0.0
        + system.adapter.sql.0                    : sql                   : iobroker                                 -  enabled
        + system.adapter.telegram.0               : telegram              : iobroker                                 -  enabled, port: 8443, bind: 0.0.0.0
        + system.adapter.tuya.0                   : tuya                  : iobroker                                 -  enabled
          system.adapter.vis.0                    : vis                   : iobroker                                 -  enabled
        + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
        + system.adapter.yahka.0                  : yahka                 : iobroker                                 -  enabled
        
        + instance is alive
        
        Enabled adapters with bindings
        + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
        + system.adapter.mqtt.0                   : mqtt                  : iobroker                                 -  enabled, port: 1886, bind: 0.0.0.0
        + system.adapter.sonoff.0                 : sonoff                : iobroker                                 -  enabled, port: 1883, bind: 0.0.0.0
        + system.adapter.telegram.0               : telegram              : iobroker                                 -  enabled, port: 8443, bind: 0.0.0.0
        + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
        
        ioBroker-Repositories
        stable        : http://download.iobroker.net/sources-dist.json
        beta          : http://download.iobroker.net/sources-dist-latest.json
        
        Active repo(s): stable
        
        Installed ioBroker-Instances
        Used repository: stable
        Adapter    "admin"        : 6.3.5    , installed 6.3.5
        Adapter    "backitup"     : 2.6.19   , installed 2.6.19
        Adapter    "cloud"        : 4.3.0    , installed 4.3.0
        Adapter    "discovery"    : 3.1.0    , installed 3.1.0
        Adapter    "email"        : 1.1.4    , installed 1.1.4
        Adapter    "influxdb"     : 3.2.0    , installed 3.2.0
        Adapter    "javascript"   : 6.1.4    , installed 6.1.4
        Controller "js-controller": 4.0.24   , installed 4.0.24
        Adapter    "modbus"       : 5.0.11   , installed 5.0.11
        Adapter    "mqtt"         : 4.0.7    , installed 4.0.7
        Adapter    "mqtt-client"  : 1.6.3    , installed 1.6.3
        Adapter    "pvforecast"   : 2.3.0    , installed 2.3.0
        Adapter    "simple-api"   : 2.7.2    , installed 2.7.2
        Adapter    "socketio"     : 4.2.0    , installed 4.2.0
        Adapter    "sonoff"       : 2.5.1    , installed 2.5.1
        Adapter    "sql"          : 2.2.0    , installed 2.2.0
        Adapter    "telegram"     : 1.15.2   , installed 1.15.2
        Adapter    "tuya"         : 3.13.1   , installed 3.13.1
        Adapter    "vis"          : 1.4.16   , installed 1.4.16
        Adapter    "web"          : 4.3.0    , installed 4.3.0
        Adapter    "ws"           : 1.3.0    , installed 1.3.0
        Adapter    "yahka"        : 0.17.0   , installed 0.17.0
        
        Objects and States
        Please stand by - This may take a while
        Objects: 	1263
        States: 	1103
        
        *** OS-Repositories and Updates ***
        Hit:1 http://archive.raspberrypi.org/debian bullseye InRelease
        Hit:2 http://deb.debian.org/debian bullseye InRelease                                                                                                       
        Hit:3 http://deb.debian.org/debian bullseye-updates InRelease                                                                                               
        Hit:4 http://security.debian.org/debian-security bullseye-security InRelease                                                                                
        Hit:5 https://deb.nodesource.com/node_16.x bullseye InRelease                                                                                               
        Hit:6 https://repos.influxdata.com/debian stable InRelease                                                                  
        Hit:7 https://packages.grafana.com/oss/deb stable InRelease                 
        Reading package lists... Done                         
        Pending Updates: 40
        
        *** Listening Ports ***
        Active Internet connections (only servers)
        Proto Recv-Q Send-Q Local Address           Foreign Address         State       User       Inode      PID/Program name    
        tcp        0      0 0.0.0.0:1886            0.0.0.0:*               LISTEN      1001       15515      946/io.mqtt.0       
        tcp        0      0 0.0.0.0:1887            0.0.0.0:*               LISTEN      1001       15516      946/io.mqtt.0       
        tcp        0      0 0.0.0.0:1883            0.0.0.0:*               LISTEN      1001       14905      961/io.sonoff.0     
        tcp        0      0 127.0.0.1:9000          0.0.0.0:*               LISTEN      1001       12261      774/iobroker.js-con 
        tcp        0      0 127.0.0.1:9001          0.0.0.0:*               LISTEN      1001       12254      774/iobroker.js-con 
        tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      0          12083      523/sshd: /usr/sbin 
        tcp        0      0 0.0.0.0:39007           0.0.0.0:*               LISTEN      1001       15615      1021/io.yahka.0     
        tcp6       0      0 :::8086                 :::*                    LISTEN      999        1643       649/influxd         
        tcp6       0      0 :::8082                 :::*                    LISTEN      1001       1868       1036/io.web.0       
        tcp6       0      0 :::8081                 :::*                    LISTEN      1001       1686       821/io.admin.0      
        tcp6       0      0 :::22                   :::*                    LISTEN      0          12094      523/sshd: /usr/sbin 
        tcp6       0      0 :::3000                 :::*                    LISTEN      110        15384      645/grafana         
        udp        0      0 0.0.0.0:35976           0.0.0.0:*                           108        12792      396/avahi-daemon: r 
        udp        0      0 0.0.0.0:5353            0.0.0.0:*                           108        12790      396/avahi-daemon: r 
        udp        0      0 0.0.0.0:68              0.0.0.0:*                           0          12826      644/dhcpcd          
        udp        0      0 0.0.0.0:6666            0.0.0.0:*                           1001       1789       976/io.tuya.0       
        udp        0      0 0.0.0.0:6667            0.0.0.0:*                           1001       1791       976/io.tuya.0       
        udp6       0      0 :::5353                 :::*                                108        12791      396/avahi-daemon: r 
        udp6       0      0 :::35029                :::*                                108        12793      396/avahi-daemon: r 
        
        *** Log File - Last 25 Lines ***
        
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:     code: 'internal error',
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:     message: 'unexpected error writing points to database: timeout'
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   },
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   code: 'internal error',
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   _retryAfter: 0
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]: }
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]: WARN: Write to InfluxDB failed (attempt: 1). m [HttpError]: unexpected error writing points to database: timeout
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.<anonymous> (/opt/iobroker/node_modules/@influxdata/influxdb-client/src/impl/node/NodeHttpTransport.ts:354:11)
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.emit (node:events:525:35)
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.emit (node:domain:489:12)
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at endReadableNT (node:internal/streams/readable:1358:12)
        2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at processTicksAndRejections (node:internal/process/task_queues:83:21) {
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   statusCode: 500,
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   statusMessage: 'Internal Server Error',
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   body: '{"code":"internal error","message":"unexpected error writing points to database: timeout"}',
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   contentType: 'application/json; charset=utf-8',
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   json: {
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:     code: 'internal error',
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:     message: 'unexpected error writing points to database: timeout'
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   },
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   code: 'internal error',
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   _retryAfter: 0
        2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]: }
        2023-05-06 11:27:15.358  - info: host.iobroker instance system.adapter.influxdb.0 terminated with code 0 (NO_ERROR)
        2023-05-06 11:27:15.359  - info: host.iobroker Do not restart adapter system.adapter.influxdb.0 because disabled or deleted
        
        

        ============ Mark until here for C&P =============

        ======================= SUMMARY =======================
        		     v.2023-04-15
        
        
        Operatingsystem: 	Debian GNU/Linux 11 (bullseye)
        Kernel: 		6.1.21-v8+
        Installation: 		Native
        Timezone: 		Europe/Berlin (CEST, +0200)
        User-ID: 		1000
        X-Server: 		false
        Boot Target: 		multi-user.target
        
        Pending OS-Updates: 	40
        Pending iob updates: 	0
        
        Nodejs-Installation: 	/usr/bin/nodejs 	v16.19.1
        			/usr/bin/node 		v16.19.1
        			/usr/bin/npm 		8.19.3
        			/usr/bin/npx 		8.19.3
        
        Recommended versions are nodejs 18.x.y and npm 9.x.y
        Your nodejs installation is correct
        
        MEMORY: 
                       total        used        free      shared  buff/cache   available
        Mem:            3.8G        1.5G        711M        1.0M        1.6G        2.2G
        Swap:            99M          0B         99M
        Total:          3.9G        1.5G        811M
        
        Active iob-Instances: 	16
        Active repo(s): stable
        
        ioBroker Core: 		js-controller 		4.0.24
        			admin 			6.3.5
        
        ioBroker Status: 	iobroker is running on this host.
        
        
        Objects type: jsonl
        States  type: jsonl
        
        Status admin and web instance:
        + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
        + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
        
        Objects: 		1263
        States: 		1103
        
        Size of iob-Database:
        
        9.5M	/opt/iobroker/iobroker-data/objects.jsonl
        4.9M	/opt/iobroker/iobroker-data/states.jsonl
        
        
        
        =================== END OF SUMMARY ====================
        
        DJMarc75D 1 Antwort Letzte Antwort
        0
        • akuhnshA akuhnsh

          @thomas-braun

          @thomas-braun said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

          @akuhnsh

          Ist das ein MacOS?

          Sorry, ich war nicht über SSH mit dem Pi verbunden... Hauaha!

          ======== Start marking the full check here =========

          Skript v.2023-04-15
          
          *** BASE SYSTEM ***
          Model		: Raspberry Pi 4 Model B Rev 1.2
          Architecture    : aarch64
          Docker          : false
          Virtualization  : none
          Distributor ID:	Debian
          Description:	Debian GNU/Linux 11 (bullseye)
          Release:	11
          Codename:	bullseye
          
          PRETTY_NAME="Debian GNU/Linux 11 (bullseye)"
          NAME="Debian GNU/Linux"
          VERSION_ID="11"
          VERSION="11 (bullseye)"
          VERSION_CODENAME=bullseye
          ID=debian
          HOME_URL="https://www.debian.org/"
          SUPPORT_URL="https://www.debian.org/support"
          BUG_REPORT_URL="https://bugs.debian.org/"
          
          Systemuptime and Load:
           12:03:24 up 1 day,  1:06,  1 user,  load average: 0.88, 0.52, 0.25
          CPU threads: 4
          
          Raspberry only:
          throttled=0x0
          Other values than 0x0 hint to temperature/voltage problems
          temp=63.3'C
          volt=0.8438V
          
          *** Time and Time Zones ***
                         Local time: Sat 2023-05-06 12:03:24 CEST
                     Universal time: Sat 2023-05-06 10:03:24 UTC
                           RTC time: n/a
                          Time zone: Europe/Berlin (CEST, +0200)
          System clock synchronized: yes
                        NTP service: active
                    RTC in local TZ: no
          
          *** User and Groups ***
          pi
          /home/pi
          pi adm dialout cdrom sudo audio video plugdev games users input render netdev gpio i2c spi iobroker
          
          *** X-Server-Setup ***
          X-Server: 	false
          Desktop: 	
          Terminal: 	tty
          Boot Target: 	multi-user.target
          
          *** MEMORY ***
                         total        used        free      shared  buff/cache   available
          Mem:            3.8G        1.5G        714M        1.0M        1.6G        2.2G
          Swap:            99M          0B         99M
          Total:          3.9G        1.5G        814M
          
                   3794 M total memory
                   1481 M used memory
                   1738 M active memory
                   1185 M inactive memory
                    714 M free memory
                     83 M buffer memory
                   1515 M swap cache
                     99 M total swap
                      0 M used swap
                     99 M free swap
          
          Raspberry only:
          oom events: 0
          lifetime oom required: 0 Mbytes
          total time in oom handler: 0 ms
          max time spent in oom handler: 0 ms
          
          *** FILESYSTEM ***
          Filesystem     Type      Size  Used Avail Use% Mounted on
          /dev/root      ext4      117G   18G   96G  16% /
          devtmpfs       devtmpfs  1.7G     0  1.7G   0% /dev
          tmpfs          tmpfs     1.9G     0  1.9G   0% /dev/shm
          tmpfs          tmpfs     759M  1.1M  758M   1% /run
          tmpfs          tmpfs     5.0M  4.0K  5.0M   1% /run/lock
          /dev/mmcblk0p1 vfat      255M   32M  224M  13% /boot
          tmpfs          tmpfs     380M     0  380M   0% /run/user/1000
          
          Messages concerning ext4 filesystem in dmesg:
          [Fri May  5 10:57:02 2023] Kernel command line: coherent_pool=1M 8250.nr_uarts=0 snd_bcm2835.enable_headphones=0 snd_bcm2835.enable_headphones=1 snd_bcm2835.enable_hdmi=1 snd_bcm2835.enable_hdmi=0  smsc95xx.macaddr=DC:A6:32:99:1F:06 vc_mem.mem_base=0x3ec00000 vc_mem.mem_size=0x40000000  console=ttyS0,115200 console=tty1 root=PARTUUID=accb09c9-02 rootfstype=ext4 fsck.repair=yes rootwait
          [Fri May  5 10:57:03 2023] EXT4-fs (mmcblk0p2): mounted filesystem with ordered data mode. Quota mode: none.
          [Fri May  5 10:57:03 2023] VFS: Mounted root (ext4 filesystem) readonly on device 179:2.
          [Fri May  5 10:57:05 2023] EXT4-fs (mmcblk0p2): re-mounted. Quota mode: none.
          
          Show mounted filesystems (real ones only):
          TARGET  SOURCE         FSTYPE OPTIONS
          /       /dev/mmcblk0p2 ext4   rw,noatime
          `-/boot /dev/mmcblk0p1 vfat   rw,relatime,fmask=0022,dmask=0022,codepage=437,iocharset=ascii,shortname=mixed,
          
          Files in neuralgic directories:
          
          /var:
          7.2G	/var/
          4.2G	/var/log
          4.0G	/var/log/journal/16936caa76ee4e328d697dd513277359
          4.0G	/var/log/journal
          2.3G	/var/lib
          
          Archived and active journals take up 3.9G in the file system.
          
          /opt/iobroker/backups:
          7.0G	/opt/iobroker/backups/
          
          /opt/iobroker/iobroker-data:
          196M	/opt/iobroker/iobroker-data/
          153M	/opt/iobroker/iobroker-data/files
          51M	/opt/iobroker/iobroker-data/files/javascript.admin
          48M	/opt/iobroker/iobroker-data/files/telegram.admin
          32M	/opt/iobroker/iobroker-data/files/javascript.admin/static/js
          
          The five largest files in iobroker-data are:
          15M	/opt/iobroker/iobroker-data/files/telegram.admin/rules/static/js/vendors-node_modules_iobroker_adapter-react-v5_assets_devices_parseNames_d_ts-node_modules_io-1d9f06.44fe4a3f.chunk.js.map
          9.5M	/opt/iobroker/iobroker-data/objects.jsonl
          7.2M	/opt/iobroker/iobroker-data/files/telegram.admin/rules/static/js/vendors-node_modules_iobroker_adapter-react-v5_assets_devices_parseNames_d_ts-node_modules_io-1d9f06.44fe4a3f.chunk.js
          6.9M	/opt/iobroker/iobroker-data/files/telegram.admin/custom/static/js/vendors-node_modules_mui_icons-material_esm_index_js.8fdf8cb7.chunk.js.map
          6.9M	/opt/iobroker/iobroker-data/files/javascript.admin/static/js/610.de0231c9.chunk.js.map
          
          *** NodeJS-Installation ***
          
          /usr/bin/nodejs 	v16.19.1
          /usr/bin/node 		v16.19.1
          /usr/bin/npm 		8.19.3
          /usr/bin/npx 		8.19.3
          
          
          nodejs:
            Installed: 16.19.1-deb-1nodesource1
            Candidate: 16.20.0-deb-1nodesource1
            Version table:
               16.20.0-deb-1nodesource1 500
                  500 https://deb.nodesource.com/node_16.x bullseye/main arm64 Packages
           *** 16.19.1-deb-1nodesource1 100
                  100 /var/lib/dpkg/status
               12.22.12~dfsg-1~deb11u4 500
                  500 http://security.debian.org/debian-security bullseye-security/main arm64 Packages
               12.22.12~dfsg-1~deb11u3 500
                  500 http://deb.debian.org/debian bullseye/main arm64 Packages
          
          Temp directories causing npm8 problem: 0
          No problems detected
          
          *** ioBroker-Installation ***
          
          ioBroker Status
          iobroker is running on this host.
          
          
          Objects type: jsonl
          States  type: jsonl
          
          MULTIHOSTSERVICE/enabled: false
          
          Core adapters versions
          js-controller: 	4.0.24
          admin: 		6.3.5
          javascript: 	6.1.4
          
          Adapters from github: 	0
          
          Adapter State
          + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
          + system.adapter.backitup.0               : backitup              : iobroker                                 -  enabled
          + system.adapter.cloud.0                  : cloud                 : iobroker                                 -  enabled
          + system.adapter.discovery.0              : discovery             : iobroker                                 -  enabled
          + system.adapter.email.0                  : email                 : iobroker                                 -  enabled
            system.adapter.influxdb.0               : influxdb              : iobroker                                 - disabled, port: 8086
          + system.adapter.javascript.0             : javascript            : iobroker                                 -  enabled
            system.adapter.modbus.0                 : modbus                : iobroker                                 - disabled
            system.adapter.mqtt-client.0            : mqtt-client           : iobroker                                 - disabled, port: 1883
          + system.adapter.mqtt.0                   : mqtt                  : iobroker                                 -  enabled, port: 1886, bind: 0.0.0.0
          + system.adapter.pvforecast.0             : pvforecast            : iobroker                                 -  enabled
          + system.adapter.pvforecast.1             : pvforecast            : iobroker                                 -  enabled
          + system.adapter.sonoff.0                 : sonoff                : iobroker                                 -  enabled, port: 1883, bind: 0.0.0.0
          + system.adapter.sql.0                    : sql                   : iobroker                                 -  enabled
          + system.adapter.telegram.0               : telegram              : iobroker                                 -  enabled, port: 8443, bind: 0.0.0.0
          + system.adapter.tuya.0                   : tuya                  : iobroker                                 -  enabled
            system.adapter.vis.0                    : vis                   : iobroker                                 -  enabled
          + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
          + system.adapter.yahka.0                  : yahka                 : iobroker                                 -  enabled
          
          + instance is alive
          
          Enabled adapters with bindings
          + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
          + system.adapter.mqtt.0                   : mqtt                  : iobroker                                 -  enabled, port: 1886, bind: 0.0.0.0
          + system.adapter.sonoff.0                 : sonoff                : iobroker                                 -  enabled, port: 1883, bind: 0.0.0.0
          + system.adapter.telegram.0               : telegram              : iobroker                                 -  enabled, port: 8443, bind: 0.0.0.0
          + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
          
          ioBroker-Repositories
          stable        : http://download.iobroker.net/sources-dist.json
          beta          : http://download.iobroker.net/sources-dist-latest.json
          
          Active repo(s): stable
          
          Installed ioBroker-Instances
          Used repository: stable
          Adapter    "admin"        : 6.3.5    , installed 6.3.5
          Adapter    "backitup"     : 2.6.19   , installed 2.6.19
          Adapter    "cloud"        : 4.3.0    , installed 4.3.0
          Adapter    "discovery"    : 3.1.0    , installed 3.1.0
          Adapter    "email"        : 1.1.4    , installed 1.1.4
          Adapter    "influxdb"     : 3.2.0    , installed 3.2.0
          Adapter    "javascript"   : 6.1.4    , installed 6.1.4
          Controller "js-controller": 4.0.24   , installed 4.0.24
          Adapter    "modbus"       : 5.0.11   , installed 5.0.11
          Adapter    "mqtt"         : 4.0.7    , installed 4.0.7
          Adapter    "mqtt-client"  : 1.6.3    , installed 1.6.3
          Adapter    "pvforecast"   : 2.3.0    , installed 2.3.0
          Adapter    "simple-api"   : 2.7.2    , installed 2.7.2
          Adapter    "socketio"     : 4.2.0    , installed 4.2.0
          Adapter    "sonoff"       : 2.5.1    , installed 2.5.1
          Adapter    "sql"          : 2.2.0    , installed 2.2.0
          Adapter    "telegram"     : 1.15.2   , installed 1.15.2
          Adapter    "tuya"         : 3.13.1   , installed 3.13.1
          Adapter    "vis"          : 1.4.16   , installed 1.4.16
          Adapter    "web"          : 4.3.0    , installed 4.3.0
          Adapter    "ws"           : 1.3.0    , installed 1.3.0
          Adapter    "yahka"        : 0.17.0   , installed 0.17.0
          
          Objects and States
          Please stand by - This may take a while
          Objects: 	1263
          States: 	1103
          
          *** OS-Repositories and Updates ***
          Hit:1 http://archive.raspberrypi.org/debian bullseye InRelease
          Hit:2 http://deb.debian.org/debian bullseye InRelease                                                                                                       
          Hit:3 http://deb.debian.org/debian bullseye-updates InRelease                                                                                               
          Hit:4 http://security.debian.org/debian-security bullseye-security InRelease                                                                                
          Hit:5 https://deb.nodesource.com/node_16.x bullseye InRelease                                                                                               
          Hit:6 https://repos.influxdata.com/debian stable InRelease                                                                  
          Hit:7 https://packages.grafana.com/oss/deb stable InRelease                 
          Reading package lists... Done                         
          Pending Updates: 40
          
          *** Listening Ports ***
          Active Internet connections (only servers)
          Proto Recv-Q Send-Q Local Address           Foreign Address         State       User       Inode      PID/Program name    
          tcp        0      0 0.0.0.0:1886            0.0.0.0:*               LISTEN      1001       15515      946/io.mqtt.0       
          tcp        0      0 0.0.0.0:1887            0.0.0.0:*               LISTEN      1001       15516      946/io.mqtt.0       
          tcp        0      0 0.0.0.0:1883            0.0.0.0:*               LISTEN      1001       14905      961/io.sonoff.0     
          tcp        0      0 127.0.0.1:9000          0.0.0.0:*               LISTEN      1001       12261      774/iobroker.js-con 
          tcp        0      0 127.0.0.1:9001          0.0.0.0:*               LISTEN      1001       12254      774/iobroker.js-con 
          tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      0          12083      523/sshd: /usr/sbin 
          tcp        0      0 0.0.0.0:39007           0.0.0.0:*               LISTEN      1001       15615      1021/io.yahka.0     
          tcp6       0      0 :::8086                 :::*                    LISTEN      999        1643       649/influxd         
          tcp6       0      0 :::8082                 :::*                    LISTEN      1001       1868       1036/io.web.0       
          tcp6       0      0 :::8081                 :::*                    LISTEN      1001       1686       821/io.admin.0      
          tcp6       0      0 :::22                   :::*                    LISTEN      0          12094      523/sshd: /usr/sbin 
          tcp6       0      0 :::3000                 :::*                    LISTEN      110        15384      645/grafana         
          udp        0      0 0.0.0.0:35976           0.0.0.0:*                           108        12792      396/avahi-daemon: r 
          udp        0      0 0.0.0.0:5353            0.0.0.0:*                           108        12790      396/avahi-daemon: r 
          udp        0      0 0.0.0.0:68              0.0.0.0:*                           0          12826      644/dhcpcd          
          udp        0      0 0.0.0.0:6666            0.0.0.0:*                           1001       1789       976/io.tuya.0       
          udp        0      0 0.0.0.0:6667            0.0.0.0:*                           1001       1791       976/io.tuya.0       
          udp6       0      0 :::5353                 :::*                                108        12791      396/avahi-daemon: r 
          udp6       0      0 :::35029                :::*                                108        12793      396/avahi-daemon: r 
          
          *** Log File - Last 25 Lines ***
          
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:     code: 'internal error',
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:     message: 'unexpected error writing points to database: timeout'
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   },
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   code: 'internal error',
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   _retryAfter: 0
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]: }
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]: WARN: Write to InfluxDB failed (attempt: 1). m [HttpError]: unexpected error writing points to database: timeout
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.<anonymous> (/opt/iobroker/node_modules/@influxdata/influxdb-client/src/impl/node/NodeHttpTransport.ts:354:11)
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.emit (node:events:525:35)
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.emit (node:domain:489:12)
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at endReadableNT (node:internal/streams/readable:1358:12)
          2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at processTicksAndRejections (node:internal/process/task_queues:83:21) {
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   statusCode: 500,
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   statusMessage: 'Internal Server Error',
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   body: '{"code":"internal error","message":"unexpected error writing points to database: timeout"}',
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   contentType: 'application/json; charset=utf-8',
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   json: {
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:     code: 'internal error',
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:     message: 'unexpected error writing points to database: timeout'
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   },
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   code: 'internal error',
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   _retryAfter: 0
          2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]: }
          2023-05-06 11:27:15.358  - info: host.iobroker instance system.adapter.influxdb.0 terminated with code 0 (NO_ERROR)
          2023-05-06 11:27:15.359  - info: host.iobroker Do not restart adapter system.adapter.influxdb.0 because disabled or deleted
          
          

          ============ Mark until here for C&P =============

          ======================= SUMMARY =======================
          		     v.2023-04-15
          
          
          Operatingsystem: 	Debian GNU/Linux 11 (bullseye)
          Kernel: 		6.1.21-v8+
          Installation: 		Native
          Timezone: 		Europe/Berlin (CEST, +0200)
          User-ID: 		1000
          X-Server: 		false
          Boot Target: 		multi-user.target
          
          Pending OS-Updates: 	40
          Pending iob updates: 	0
          
          Nodejs-Installation: 	/usr/bin/nodejs 	v16.19.1
          			/usr/bin/node 		v16.19.1
          			/usr/bin/npm 		8.19.3
          			/usr/bin/npx 		8.19.3
          
          Recommended versions are nodejs 18.x.y and npm 9.x.y
          Your nodejs installation is correct
          
          MEMORY: 
                         total        used        free      shared  buff/cache   available
          Mem:            3.8G        1.5G        711M        1.0M        1.6G        2.2G
          Swap:            99M          0B         99M
          Total:          3.9G        1.5G        811M
          
          Active iob-Instances: 	16
          Active repo(s): stable
          
          ioBroker Core: 		js-controller 		4.0.24
          			admin 			6.3.5
          
          ioBroker Status: 	iobroker is running on this host.
          
          
          Objects type: jsonl
          States  type: jsonl
          
          Status admin and web instance:
          + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
          + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
          
          Objects: 		1263
          States: 		1103
          
          Size of iob-Database:
          
          9.5M	/opt/iobroker/iobroker-data/objects.jsonl
          4.9M	/opt/iobroker/iobroker-data/states.jsonl
          
          
          
          =================== END OF SUMMARY ====================
          
          DJMarc75D Offline
          DJMarc75D Offline
          DJMarc75
          schrieb am zuletzt editiert von
          #8

          @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

          Pending OS-Updates: 40

          mach das mal aktuell ;)

          Lehrling seit 1975 !!!
          Beitrag geholfen ? dann gerne ein upvote rechts unten im Beitrag klicken ;)
          https://forum.iobroker.net/topic/51555/hinweise-f%C3%BCr-gute-forenbeitr%C3%A4ge

          akuhnshA 1 Antwort Letzte Antwort
          0
          • DJMarc75D DJMarc75

            @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

            Pending OS-Updates: 40

            mach das mal aktuell ;)

            akuhnshA Offline
            akuhnshA Offline
            akuhnsh
            schrieb am zuletzt editiert von
            #9

            @djmarc75

            Ist erledigt...

            Die InfluxDB Instanz hab ich aufgrund der andauernden Fehler vorerst deaktiviert.

            Skript v.2023-04-15
            
            *** BASE SYSTEM ***
            Model		: Raspberry Pi 4 Model B Rev 1.2
            Architecture    : aarch64
            Docker          : false
            Virtualization  : none
            Distributor ID:	Debian
            Description:	Debian GNU/Linux 11 (bullseye)
            Release:	11
            Codename:	bullseye
            
            PRETTY_NAME="Debian GNU/Linux 11 (bullseye)"
            NAME="Debian GNU/Linux"
            VERSION_ID="11"
            VERSION="11 (bullseye)"
            VERSION_CODENAME=bullseye
            ID=debian
            HOME_URL="https://www.debian.org/"
            SUPPORT_URL="https://www.debian.org/support"
            BUG_REPORT_URL="https://bugs.debian.org/"
            
            Systemuptime and Load:
             12:39:31 up 1 day,  1:42,  1 user,  load average: 2.29, 0.99, 0.48
            CPU threads: 4
            
            Raspberry only:
            throttled=0x0
            Other values than 0x0 hint to temperature/voltage problems
            temp=66.2'C
            volt=0.8438V
            
            *** Time and Time Zones ***
                           Local time: Sat 2023-05-06 12:39:32 CEST
                       Universal time: Sat 2023-05-06 10:39:32 UTC
                             RTC time: n/a
                            Time zone: Europe/Berlin (CEST, +0200)
            System clock synchronized: yes
                          NTP service: active
                      RTC in local TZ: no
            
            *** User and Groups ***
            pi
            /home/pi
            pi adm dialout cdrom sudo audio video plugdev games users input render netdev gpio i2c spi iobroker
            
            *** X-Server-Setup ***
            X-Server: 	false
            Desktop: 	
            Terminal: 	tty
            Boot Target: 	multi-user.target
            
            *** MEMORY ***
                           total        used        free      shared  buff/cache   available
            Mem:            3.8G        1.5G        200M        1.0M        2.1G        2.3G
            Swap:            99M          0B         99M
            Total:          3.9G        1.5G        300M
            
                     3794 M total memory
                     1459 M used memory
                     1651 M active memory
                     1741 M inactive memory
                      200 M free memory
                       99 M buffer memory
                     2034 M swap cache
                       99 M total swap
                        0 M used swap
                       99 M free swap
            
            Raspberry only:
            oom events: 0
            lifetime oom required: 0 Mbytes
            total time in oom handler: 0 ms
            max time spent in oom handler: 0 ms
            
            *** FILESYSTEM ***
            Filesystem     Type      Size  Used Avail Use% Mounted on
            /dev/root      ext4      117G   18G   95G  16% /
            devtmpfs       devtmpfs  1.7G     0  1.7G   0% /dev
            tmpfs          tmpfs     1.9G     0  1.9G   0% /dev/shm
            tmpfs          tmpfs     759M  1.1M  758M   1% /run
            tmpfs          tmpfs     5.0M  4.0K  5.0M   1% /run/lock
            /dev/mmcblk0p1 vfat      255M   32M  224M  13% /boot
            tmpfs          tmpfs     380M     0  380M   0% /run/user/1000
            
            Messages concerning ext4 filesystem in dmesg:
            [Fri May  5 10:57:02 2023] Kernel command line: coherent_pool=1M 8250.nr_uarts=0 snd_bcm2835.enable_headphones=0 snd_bcm2835.enable_headphones=1 snd_bcm2835.enable_hdmi=1 snd_bcm2835.enable_hdmi=0  smsc95xx.macaddr=DC:A6:32:99:1F:06 vc_mem.mem_base=0x3ec00000 vc_mem.mem_size=0x40000000  console=ttyS0,115200 console=tty1 root=PARTUUID=accb09c9-02 rootfstype=ext4 fsck.repair=yes rootwait
            [Fri May  5 10:57:03 2023] EXT4-fs (mmcblk0p2): mounted filesystem with ordered data mode. Quota mode: none.
            [Fri May  5 10:57:03 2023] VFS: Mounted root (ext4 filesystem) readonly on device 179:2.
            [Fri May  5 10:57:05 2023] EXT4-fs (mmcblk0p2): re-mounted. Quota mode: none.
            
            Show mounted filesystems (real ones only):
            TARGET  SOURCE         FSTYPE OPTIONS
            /       /dev/mmcblk0p2 ext4   rw,noatime
            `-/boot /dev/mmcblk0p1 vfat   rw,relatime,fmask=0022,dmask=0022,codepage=437,iocharset=ascii,shortname=mixed,errors=remount-ro
            
            Files in neuralgic directories:
            
            /var:
            7.4G	/var/
            4.2G	/var/log
            4.0G	/var/log/journal/16936caa76ee4e328d697dd513277359
            4.0G	/var/log/journal
            2.3G	/var/lib
            
            Archived and active journals take up 3.9G in the file system.
            
            /opt/iobroker/backups:
            7.0G	/opt/iobroker/backups/
            
            /opt/iobroker/iobroker-data:
            199M	/opt/iobroker/iobroker-data/
            153M	/opt/iobroker/iobroker-data/files
            51M	/opt/iobroker/iobroker-data/files/javascript.admin
            48M	/opt/iobroker/iobroker-data/files/telegram.admin
            32M	/opt/iobroker/iobroker-data/files/javascript.admin/static/js
            
            The five largest files in iobroker-data are:
            15M	/opt/iobroker/iobroker-data/files/telegram.admin/rules/static/js/vendors-node_modules_iobroker_adapter-react-v5_assets_devices_parseNames_d_ts-node_modules_io-1d9f06.44fe4a3f.chunk.js.map
            9.5M	/opt/iobroker/iobroker-data/objects.jsonl
            7.3M	/opt/iobroker/iobroker-data/states.jsonl
            7.2M	/opt/iobroker/iobroker-data/files/telegram.admin/rules/static/js/vendors-node_modules_iobroker_adapter-react-v5_assets_devices_parseNames_d_ts-node_modules_io-1d9f06.44fe4a3f.chunk.js
            6.9M	/opt/iobroker/iobroker-data/files/telegram.admin/custom/static/js/vendors-node_modules_mui_icons-material_esm_index_js.8fdf8cb7.chunk.js.map
            
            *** NodeJS-Installation ***
            
            /usr/bin/nodejs 	v16.20.0
            /usr/bin/node 		v16.20.0
            /usr/bin/npm 		8.19.4
            /usr/bin/npx 		8.19.4
            
            
            nodejs:
              Installed: 16.20.0-deb-1nodesource1
              Candidate: 16.20.0-deb-1nodesource1
              Version table:
             *** 16.20.0-deb-1nodesource1 500
                    500 https://deb.nodesource.com/node_16.x bullseye/main arm64 Packages
                    100 /var/lib/dpkg/status
                 12.22.12~dfsg-1~deb11u4 500
                    500 http://security.debian.org/debian-security bullseye-security/main arm64 Packages
                 12.22.12~dfsg-1~deb11u3 500
                    500 http://deb.debian.org/debian bullseye/main arm64 Packages
            
            Temp directories causing npm8 problem: 0
            No problems detected
            
            *** ioBroker-Installation ***
            
            ioBroker Status
            iobroker is running on this host.
            
            
            Objects type: jsonl
            States  type: jsonl
            
            MULTIHOSTSERVICE/enabled: false
            
            Core adapters versions
            js-controller: 	4.0.24
            admin: 		6.3.5
            javascript: 	6.1.4
            
            Adapters from github: 	0
            
            Adapter State
            + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
            + system.adapter.backitup.0               : backitup              : iobroker                                 -  enabled
            + system.adapter.cloud.0                  : cloud                 : iobroker                                 -  enabled
            + system.adapter.discovery.0              : discovery             : iobroker                                 -  enabled
            + system.adapter.email.0                  : email                 : iobroker                                 -  enabled
              system.adapter.influxdb.0               : influxdb              : iobroker                                 - disabled, port: 8086
            + system.adapter.javascript.0             : javascript            : iobroker                                 -  enabled
              system.adapter.modbus.0                 : modbus                : iobroker                                 - disabled
              system.adapter.mqtt-client.0            : mqtt-client           : iobroker                                 - disabled, port: 1883
            + system.adapter.mqtt.0                   : mqtt                  : iobroker                                 -  enabled, port: 1886, bind: 0.0.0.0
            + system.adapter.pvforecast.0             : pvforecast            : iobroker                                 -  enabled
            + system.adapter.pvforecast.1             : pvforecast            : iobroker                                 -  enabled
            + system.adapter.sonoff.0                 : sonoff                : iobroker                                 -  enabled, port: 1883, bind: 0.0.0.0
            + system.adapter.sql.0                    : sql                   : iobroker                                 -  enabled
            + system.adapter.telegram.0               : telegram              : iobroker                                 -  enabled, port: 8443, bind: 0.0.0.0
            + system.adapter.tuya.0                   : tuya                  : iobroker                                 -  enabled
              system.adapter.vis.0                    : vis                   : iobroker                                 -  enabled
            + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
            + system.adapter.yahka.0                  : yahka                 : iobroker                                 -  enabled
            
            + instance is alive
            
            Enabled adapters with bindings
            + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
            + system.adapter.mqtt.0                   : mqtt                  : iobroker                                 -  enabled, port: 1886, bind: 0.0.0.0
            + system.adapter.sonoff.0                 : sonoff                : iobroker                                 -  enabled, port: 1883, bind: 0.0.0.0
            + system.adapter.telegram.0               : telegram              : iobroker                                 -  enabled, port: 8443, bind: 0.0.0.0
            + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
            
            ioBroker-Repositories
            stable        : http://download.iobroker.net/sources-dist.json
            beta          : http://download.iobroker.net/sources-dist-latest.json
            
            Active repo(s): stable
            
            Installed ioBroker-Instances
            Used repository: stable
            Adapter    "admin"        : 6.3.5    , installed 6.3.5
            Adapter    "backitup"     : 2.6.19   , installed 2.6.19
            Adapter    "cloud"        : 4.3.0    , installed 4.3.0
            Adapter    "discovery"    : 3.1.0    , installed 3.1.0
            Adapter    "email"        : 1.1.4    , installed 1.1.4
            Adapter    "influxdb"     : 3.2.0    , installed 3.2.0
            Adapter    "javascript"   : 6.1.4    , installed 6.1.4
            Controller "js-controller": 4.0.24   , installed 4.0.24
            Adapter    "modbus"       : 5.0.11   , installed 5.0.11
            Adapter    "mqtt"         : 4.0.7    , installed 4.0.7
            Adapter    "mqtt-client"  : 1.6.3    , installed 1.6.3
            Adapter    "pvforecast"   : 2.3.0    , installed 2.3.0
            Adapter    "simple-api"   : 2.7.2    , installed 2.7.2
            Adapter    "socketio"     : 4.2.0    , installed 4.2.0
            Adapter    "sonoff"       : 2.5.1    , installed 2.5.1
            Adapter    "sql"          : 2.2.0    , installed 2.2.0
            Adapter    "telegram"     : 1.15.2   , installed 1.15.2
            Adapter    "tuya"         : 3.13.1   , installed 3.13.1
            Adapter    "vis"          : 1.4.16   , installed 1.4.16
            Adapter    "web"          : 4.3.0    , installed 4.3.0
            Adapter    "ws"           : 1.3.0    , installed 1.3.0
            Adapter    "yahka"        : 0.17.0   , installed 0.17.0
            
            Objects and States
            Please stand by - This may take a while
            Objects: 	1263
            States: 	1103
            
            *** OS-Repositories and Updates ***
            Hit:1 http://security.debian.org/debian-security bullseye-security InRelease
            Hit:2 http://deb.debian.org/debian bullseye InRelease                                                                                                       
            Hit:3 http://deb.debian.org/debian bullseye-updates InRelease                                                                                               
            Hit:4 https://deb.nodesource.com/node_16.x bullseye InRelease                                                                                               
            Hit:5 http://archive.raspberrypi.org/debian bullseye InRelease                                                                                              
            Hit:6 https://repos.influxdata.com/debian stable InRelease                                                                                                  
            Hit:7 https://packages.grafana.com/oss/deb stable InRelease                 
            Reading package lists... Done                         
            Pending Updates: 0
            
            *** Listening Ports ***
            Active Internet connections (only servers)
            Proto Recv-Q Send-Q Local Address           Foreign Address         State       User       Inode      PID/Program name    
            tcp        0      0 0.0.0.0:1886            0.0.0.0:*               LISTEN      1001       15515      946/io.mqtt.0       
            tcp        0      0 0.0.0.0:1887            0.0.0.0:*               LISTEN      1001       15516      946/io.mqtt.0       
            tcp        0      0 0.0.0.0:1883            0.0.0.0:*               LISTEN      1001       14905      961/io.sonoff.0     
            tcp        0      0 127.0.0.1:9000          0.0.0.0:*               LISTEN      1001       12261      774/iobroker.js-con 
            tcp        0      0 127.0.0.1:9001          0.0.0.0:*               LISTEN      1001       12254      774/iobroker.js-con 
            tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      0          12083      523/sshd: /usr/sbin 
            tcp        0      0 0.0.0.0:39007           0.0.0.0:*               LISTEN      1001       15615      1021/io.yahka.0     
            tcp6       0      0 :::8086                 :::*                    LISTEN      999        1643       649/influxd         
            tcp6       0      0 :::8082                 :::*                    LISTEN      1001       1868       1036/io.web.0       
            tcp6       0      0 :::8081                 :::*                    LISTEN      1001       1686       821/io.admin.0      
            tcp6       0      0 :::22                   :::*                    LISTEN      0          12094      523/sshd: /usr/sbin 
            tcp6       0      0 :::3000                 :::*                    LISTEN      110        1837583    15453/grafana       
            udp        0      0 0.0.0.0:41614           0.0.0.0:*                           108        1837323    15544/avahi-daemon: 
            udp        0      0 0.0.0.0:5353            0.0.0.0:*                           108        1837321    15544/avahi-daemon: 
            udp        0      0 0.0.0.0:68              0.0.0.0:*                           0          12826      644/dhcpcd          
            udp        0      0 0.0.0.0:6666            0.0.0.0:*                           1001       1789       976/io.tuya.0       
            udp        0      0 0.0.0.0:6667            0.0.0.0:*                           1001       1791       976/io.tuya.0       
            udp6       0      0 :::5353                 :::*                                108        1837322    15544/avahi-daemon: 
            udp6       0      0 :::52551                :::*                                108        1837324    15544/avahi-daemon: 
            
            *** Log File - Last 25 Lines ***
            
            2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:     code: 'internal error',
            2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:     message: 'unexpected error writing points to database: timeout'
            2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   },
            2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   code: 'internal error',
            2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]:   _retryAfter: 0
            2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[518]: }
            2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]: WARN: Write to InfluxDB failed (attempt: 1). m [HttpError]: unexpected error writing points to database: timeout
            2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.<anonymous> (/opt/iobroker/node_modules/@influxdata/influxdb-client/src/impl/node/NodeHttpTransport.ts:354:11)
            2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.emit (node:events:525:35)
            2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at IncomingMessage.emit (node:domain:489:12)
            2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at endReadableNT (node:internal/streams/readable:1358:12)
            2023-05-06 11:27:15.357  - error: host.iobroker Caught by controller[519]:     at processTicksAndRejections (node:internal/process/task_queues:83:21) {
            2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   statusCode: 500,
            2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   statusMessage: 'Internal Server Error',
            2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   body: '{"code":"internal error","message":"unexpected error writing points to database: timeout"}',
            2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   contentType: 'application/json; charset=utf-8',
            2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   json: {
            2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:     code: 'internal error',
            2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:     message: 'unexpected error writing points to database: timeout'
            2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   },
            2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   code: 'internal error',
            2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]:   _retryAfter: 0
            2023-05-06 11:27:15.358  - error: host.iobroker Caught by controller[519]: }
            2023-05-06 11:27:15.358  - info: host.iobroker instance system.adapter.influxdb.0 terminated with code 0 (NO_ERROR)
            2023-05-06 11:27:15.359  - info: host.iobroker Do not restart adapter system.adapter.influxdb.0 because disabled or deleted
            
            
            ======================= SUMMARY =======================
            		     v.2023-04-15
            
            
            Operatingsystem: 	Debian GNU/Linux 11 (bullseye)
            Kernel: 		6.1.21-v8+
            Installation: 		Native
            Timezone: 		Europe/Berlin (CEST, +0200)
            User-ID: 		1000
            X-Server: 		false
            Boot Target: 		multi-user.target
            
            Pending OS-Updates: 	0
            Pending iob updates: 	0
            
            Nodejs-Installation: 	/usr/bin/nodejs 	v16.20.0
            			/usr/bin/node 		v16.20.0
            			/usr/bin/npm 		8.19.4
            			/usr/bin/npx 		8.19.4
            
            Recommended versions are nodejs 18.x.y and npm 9.x.y
            Your nodejs installation is correct
            
            MEMORY: 
                           total        used        free      shared  buff/cache   available
            Mem:            3.8G        1.4G        416M        1.0M        1.9G        2.3G
            Swap:            99M          0B         99M
            Total:          3.9G        1.4G        516M
            
            Active iob-Instances: 	16
            Active repo(s): stable
            
            ioBroker Core: 		js-controller 		4.0.24
            			admin 			6.3.5
            
            ioBroker Status: 	iobroker is running on this host.
            
            
            Objects type: jsonl
            States  type: jsonl
            
            Status admin and web instance:
            + system.adapter.admin.0                  : admin                 : iobroker                                 -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
            + system.adapter.web.0                    : web                   : iobroker                                 -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
            
            Objects: 		1263
            States: 		1103
            
            Size of iob-Database:
            
            9.5M	/opt/iobroker/iobroker-data/objects.jsonl
            7.6M	/opt/iobroker/iobroker-data/states.jsonl
            
            
            
            =================== END OF SUMMARY ====================
            
            1 Antwort Letzte Antwort
            0
            • Marc BergM Offline
              Marc BergM Offline
              Marc Berg
              Most Active
              schrieb am zuletzt editiert von
              #10

              @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

              Zu der Zeit lief kein Rechner zu Hause und es war auch niemand anwesend. Das Desaster ist einfach vom Himmel gefallen und ich habe keine Ahnung wie ich meine Datenbank wiederherstellen und so etwas in Zukunft vermeiden kann.

              Wenn ich die Logs richtig lese, hast du alles auf SD Card installiert? Das würde ich für ein System, welches mir wichtig ist, nicht so machen. Die Vermutung liegt nahe, dass es dir das Filesystem zerschossen hat. Eine InfluxDB stürzt eigentlich nicht einfach so ab.

              Hat jemand eine Idee und Step by Step Vorgehensweise für mich?

              Das bekommen wir wieder hin, falls das Backup funktionsfähig ist. Wenn sich die InfluxDB "vergessen" hat, dann hast du auch einen neuen Token, den du in Backitup eingeben musst. Vorher würde ich aber die Ursache abklären (lassen).

              NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

              Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

              Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

              akuhnshA 1 Antwort Letzte Antwort
              0
              • Marc BergM Marc Berg

                @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                Zu der Zeit lief kein Rechner zu Hause und es war auch niemand anwesend. Das Desaster ist einfach vom Himmel gefallen und ich habe keine Ahnung wie ich meine Datenbank wiederherstellen und so etwas in Zukunft vermeiden kann.

                Wenn ich die Logs richtig lese, hast du alles auf SD Card installiert? Das würde ich für ein System, welches mir wichtig ist, nicht so machen. Die Vermutung liegt nahe, dass es dir das Filesystem zerschossen hat. Eine InfluxDB stürzt eigentlich nicht einfach so ab.

                Hat jemand eine Idee und Step by Step Vorgehensweise für mich?

                Das bekommen wir wieder hin, falls das Backup funktionsfähig ist. Wenn sich die InfluxDB "vergessen" hat, dann hast du auch einen neuen Token, den du in Backitup eingeben musst. Vorher würde ich aber die Ursache abklären (lassen).

                akuhnshA Offline
                akuhnshA Offline
                akuhnsh
                schrieb am zuletzt editiert von
                #11

                @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                Wenn ich die Logs richtig lese, hast du alles auf SD Card installiert? Das würde ich für ein System, welches mir wichtig ist, nicht so machen. Die Vermutung liegt nahe, dass es dir das Filesystem zerschossen hat. Eine InfluxDB stürzt eigentlich nicht einfach so ab.

                Über welches Medium machst du es? Mir ist es wichtig und eine kleine HDD über USB wäre ein Gedanke der mir dazu gekommen ist. Funktioniert das mit Power over USB beim Pi?

                Das bekommen wir wieder hin, falls das Backup funktionsfähig ist. Wenn sich die InfluxDB "vergessen" hat, dann hast du auch einen neuen Token, den du in Backitup eingeben musst. Vorher würde ich aber die Ursache abklären (lassen).

                BackItUp hat den neuen Token und wie erwähnt, habe ich Influx wieder so eingerichtet, wie es vorher war. Bucket gelöscht bzw. umbenannt und dann über BackItUp die Wiederherstellung gestartet. Gerade nochmal probiert:

                Started restore ...
                [DEBUG] [influxDB] - Created tmp directory
                [DEBUG] [influxDB] - Start infuxDB Restore ...
                [DEBUG] [influxDB] - influxdb.0 is stopped
                [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                
                [DEBUG] [influxDB] - Try deleting the InfluxDB tmp directory
                [DEBUG] [influxDB] - InfluxDB tmp directory was successfully deleted
                [DEBUG] [influxDB] - infuxDB Restore completed successfully
                [EXIT] influxDB restore done
                [DEBUG] [influxDB] - influxdb.0 started
                
                HomoranH 1 Antwort Letzte Antwort
                0
                • Marc BergM Offline
                  Marc BergM Offline
                  Marc Berg
                  Most Active
                  schrieb am zuletzt editiert von
                  #12

                  @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                  Über welches Medium machst du es? Mir ist es wichtig und eine kleine HDD über USB wäre ein Gedanke der mir dazu gekommen ist. Funktioniert das mit Power over USB beim Pi?

                  Dazu bin ich leider keine Hilfe. Ich habe das mal probiert mit der SSD über USB, aber entnervt abgebrochen, weil es da einige Abhängigkeiten bzgl. des passenden Adapters etc. gibt. Ich arbeite seit einiger Zeit auf einem NUC und bin damit zufrieden.

                  BackItUp hat den neuen Token und wie erwähnt, habe ich Influx wieder so eingerichtet, wie es vorher war. Bucket gelöscht bzw. umbenannt und dann über BackItUp die Wiederherstellung gestartet. Gerade nochmal probiert:

                  Wo hast du den Token her?

                  NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                  Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                  Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                  akuhnshA 1 Antwort Letzte Antwort
                  0
                  • akuhnshA akuhnsh

                    @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                    Wenn ich die Logs richtig lese, hast du alles auf SD Card installiert? Das würde ich für ein System, welches mir wichtig ist, nicht so machen. Die Vermutung liegt nahe, dass es dir das Filesystem zerschossen hat. Eine InfluxDB stürzt eigentlich nicht einfach so ab.

                    Über welches Medium machst du es? Mir ist es wichtig und eine kleine HDD über USB wäre ein Gedanke der mir dazu gekommen ist. Funktioniert das mit Power over USB beim Pi?

                    Das bekommen wir wieder hin, falls das Backup funktionsfähig ist. Wenn sich die InfluxDB "vergessen" hat, dann hast du auch einen neuen Token, den du in Backitup eingeben musst. Vorher würde ich aber die Ursache abklären (lassen).

                    BackItUp hat den neuen Token und wie erwähnt, habe ich Influx wieder so eingerichtet, wie es vorher war. Bucket gelöscht bzw. umbenannt und dann über BackItUp die Wiederherstellung gestartet. Gerade nochmal probiert:

                    Started restore ...
                    [DEBUG] [influxDB] - Created tmp directory
                    [DEBUG] [influxDB] - Start infuxDB Restore ...
                    [DEBUG] [influxDB] - influxdb.0 is stopped
                    [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                    
                    [DEBUG] [influxDB] - Try deleting the InfluxDB tmp directory
                    [DEBUG] [influxDB] - InfluxDB tmp directory was successfully deleted
                    [DEBUG] [influxDB] - infuxDB Restore completed successfully
                    [EXIT] influxDB restore done
                    [DEBUG] [influxDB] - influxdb.0 started
                    
                    HomoranH Nicht stören
                    HomoranH Nicht stören
                    Homoran
                    Global Moderator Administrators
                    schrieb am zuletzt editiert von
                    #13

                    @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                    Funktioniert das mit Power over USB beim Pi?

                    Da gibt es einige Fallstricke

                    • Das Netzteil des Pi muss stark genug sein
                    • Beim Pi4 gibt es Störeinstrahlungen in den USB3
                      • Der USB2 liefert möglicherweise nicht genug Power

                    USB2 mit aktivem Hub wäre dann eine Lösung

                    kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

                    Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

                    der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

                    1 Antwort Letzte Antwort
                    0
                    • Marc BergM Marc Berg

                      @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                      Über welches Medium machst du es? Mir ist es wichtig und eine kleine HDD über USB wäre ein Gedanke der mir dazu gekommen ist. Funktioniert das mit Power over USB beim Pi?

                      Dazu bin ich leider keine Hilfe. Ich habe das mal probiert mit der SSD über USB, aber entnervt abgebrochen, weil es da einige Abhängigkeiten bzgl. des passenden Adapters etc. gibt. Ich arbeite seit einiger Zeit auf einem NUC und bin damit zufrieden.

                      BackItUp hat den neuen Token und wie erwähnt, habe ich Influx wieder so eingerichtet, wie es vorher war. Bucket gelöscht bzw. umbenannt und dann über BackItUp die Wiederherstellung gestartet. Gerade nochmal probiert:

                      Wo hast du den Token her?

                      akuhnshA Offline
                      akuhnshA Offline
                      akuhnsh
                      schrieb am zuletzt editiert von
                      #14

                      @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                      Wo hast du den Token her?

                      Ich hab InfluxDB nach dem Willkommensschirm über GUI eingerichtet wie es zuvor war und mir dann das neue admin Token kopiert und in BackItUp sowie in der Influx Instanz hinterlegt. Verbindungstest dort ist i.O. Werte schreibt er dennoch nicht in die DB

                      influxdb.0
                      2023-05-06 13:13:38.511	info	Add point that had error for mqtt.0.PL1 to buffer again, error-count=4
                      
                      influxdb.0
                      2023-05-06 13:13:38.510	warn	Error on writePoint("{"value":196.79,"time":"2023-05-06T11:12:38.280Z","from":"system.adapter.mqtt.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
                      
                      influxdb.0
                      2023-05-06 13:13:38.510	warn	Point could not be written to database: iobroker
                      
                      Marc BergM 1 Antwort Letzte Antwort
                      0
                      • akuhnshA akuhnsh

                        @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                        Wo hast du den Token her?

                        Ich hab InfluxDB nach dem Willkommensschirm über GUI eingerichtet wie es zuvor war und mir dann das neue admin Token kopiert und in BackItUp sowie in der Influx Instanz hinterlegt. Verbindungstest dort ist i.O. Werte schreibt er dennoch nicht in die DB

                        influxdb.0
                        2023-05-06 13:13:38.511	info	Add point that had error for mqtt.0.PL1 to buffer again, error-count=4
                        
                        influxdb.0
                        2023-05-06 13:13:38.510	warn	Error on writePoint("{"value":196.79,"time":"2023-05-06T11:12:38.280Z","from":"system.adapter.mqtt.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
                        
                        influxdb.0
                        2023-05-06 13:13:38.510	warn	Point could not be written to database: iobroker
                        
                        Marc BergM Offline
                        Marc BergM Offline
                        Marc Berg
                        Most Active
                        schrieb am zuletzt editiert von
                        #15

                        @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                        Ich hab InfluxDB nach dem Willkommensschirm über GUI eingerichtet wie es zuvor war und mir dann das neue admin Token kopiert und in BackItUp sowie in der Influx Instanz hinterlegt. Verbindungstest dort ist i.O. Werte schreibt er dennoch nicht in die DB

                        influxdb.0
                        2023-05-06 13:13:38.511	info	Add point that had error for mqtt.0.PL1 to buffer again, error-count=4
                        
                        influxdb.0
                        2023-05-06 13:13:38.510	warn	Error on writePoint("{"value":196.79,"time":"2023-05-06T11:12:38.280Z","from":"system.adapter.mqtt.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
                        
                        influxdb.0
                        2023-05-06 13:13:38.510	warn	Point could not be written to database: iobroker
                        

                        Hier kommt aber ein Timeout und kein Autorisierungfehler. Das sieht für mich noch nach anderen Problemen aus.

                        NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                        Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                        Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                        akuhnshA 1 Antwort Letzte Antwort
                        0
                        • Marc BergM Marc Berg

                          @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                          Ich hab InfluxDB nach dem Willkommensschirm über GUI eingerichtet wie es zuvor war und mir dann das neue admin Token kopiert und in BackItUp sowie in der Influx Instanz hinterlegt. Verbindungstest dort ist i.O. Werte schreibt er dennoch nicht in die DB

                          influxdb.0
                          2023-05-06 13:13:38.511	info	Add point that had error for mqtt.0.PL1 to buffer again, error-count=4
                          
                          influxdb.0
                          2023-05-06 13:13:38.510	warn	Error on writePoint("{"value":196.79,"time":"2023-05-06T11:12:38.280Z","from":"system.adapter.mqtt.0","q":0,"ack":true}): HttpError: unexpected error writing points to database: timeout / "unexpected error writing points to database: timeout""
                          
                          influxdb.0
                          2023-05-06 13:13:38.510	warn	Point could not be written to database: iobroker
                          

                          Hier kommt aber ein Timeout und kein Autorisierungfehler. Das sieht für mich noch nach anderen Problemen aus.

                          akuhnshA Offline
                          akuhnshA Offline
                          akuhnsh
                          schrieb am zuletzt editiert von
                          #16

                          @marc-berg @thomas-braun

                          @akuhnsh said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                          Ich habe das System neu aufgesetzt, um zu sehen, ob sich die Backups dann einspielen lassen und nach wie vor keine Chance die Datenbank aus dem Backup wiederherzustellen:

                          [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                          
                          Marc BergM 1 Antwort Letzte Antwort
                          0
                          • akuhnshA akuhnsh

                            @marc-berg @thomas-braun

                            @akuhnsh said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                            Ich habe das System neu aufgesetzt, um zu sehen, ob sich die Backups dann einspielen lassen und nach wie vor keine Chance die Datenbank aus dem Backup wiederherzustellen:

                            [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                            
                            Marc BergM Offline
                            Marc BergM Offline
                            Marc Berg
                            Most Active
                            schrieb am zuletzt editiert von Marc Berg
                            #17

                            @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                            @marc-berg @thomas-braun

                            @akuhnsh said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                            Ich habe das System neu aufgesetzt, um zu sehen, ob sich die Backups dann einspielen lassen und nach wie vor keine Chance die Datenbank aus dem Backup wiederherzustellen:

                            [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                            

                            zeig mal bitte die Ausgabe von

                            influx auth list --json
                            

                            und

                            influx organization list
                            

                            NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                            Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                            Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                            akuhnshA 1 Antwort Letzte Antwort
                            0
                            • Marc BergM Marc Berg

                              @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                              @marc-berg @thomas-braun

                              @akuhnsh said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                              Ich habe das System neu aufgesetzt, um zu sehen, ob sich die Backups dann einspielen lassen und nach wie vor keine Chance die Datenbank aus dem Backup wiederherzustellen:

                              [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                              

                              zeig mal bitte die Ausgabe von

                              influx auth list --json
                              

                              und

                              influx organization list
                              
                              akuhnshA Offline
                              akuhnshA Offline
                              akuhnsh
                              schrieb am zuletzt editiert von
                              #18

                              @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                              @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                              @marc-berg @thomas-braun

                              @akuhnsh said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                              Ich habe das System neu aufgesetzt, um zu sehen, ob sich die Backups dann einspielen lassen und nach wie vor keine Chance die Datenbank aus dem Backup wiederherzustellen:

                              [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                              

                              zeig mal bitte die Ausgabe von

                              influx auth list --json
                              
                              [
                              	{
                              		"id": "0b28411ba4dca000",
                              		"description": "admin's Token",
                              		"token": "wljQN6vtZ1a4hNNORVh55RM2u0o1V3XXh708y7yKPmtdBIV5tG5hxucGRGnBX1IdQoYh9Mnd5dsbBBV551nDUw==",
                              		"status": "active",
                              		"userName": "admin",
                              		"userID": "0b28411b6b9ca000",
                              		"permissions": [
                              			"read:/authorizations",
                              			"write:/authorizations",
                              			"read:/buckets",
                              			"write:/buckets",
                              			"read:/dashboards",
                              			"write:/dashboards",
                              			"read:/orgs",
                              			"write:/orgs",
                              			"read:/sources",
                              			"write:/sources",
                              			"read:/tasks",
                              			"write:/tasks",
                              			"read:/telegrafs",
                              			"write:/telegrafs",
                              			"read:/users",
                              			"write:/users",
                              			"read:/variables",
                              			"write:/variables",
                              			"read:/scrapers",
                              			"write:/scrapers",
                              			"read:/secrets",
                              			"write:/secrets",
                              			"read:/labels",
                              			"write:/labels",
                              			"read:/views",
                              			"write:/views",
                              			"read:/documents",
                              			"write:/documents",
                              			"read:/notificationRules",
                              			"write:/notificationRules",
                              			"read:/notificationEndpoints",
                              			"write:/notificationEndpoints",
                              			"read:/checks",
                              			"write:/checks",
                              			"read:/dbrp",
                              			"write:/dbrp",
                              			"read:/notebooks",
                              			"write:/notebooks",
                              			"read:/annotations",
                              			"write:/annotations",
                              			"read:/remotes",
                              			"write:/remotes",
                              			"read:/replications",
                              			"write:/replications"
                              		]
                              	},
                              	{
                              		"id": "0b2852f1fbdca000",
                              		"description": "admin's Token (cloned at 2023-05-06 13:44:19)",
                              		"token": "uZKGetlcGZSZbteI1gwpkJwsCIHpj0bI5ZLdRTvEuDqds7B9X04Q8LKhPYQArrWRJ3nnQS3xfQcwDkwhOKKoCw==",
                              		"status": "active",
                              		"userName": "admin",
                              		"userID": "0b28411b6b9ca000",
                              		"permissions": [
                              			"read:/authorizations",
                              			"write:/authorizations",
                              			"read:/buckets",
                              			"write:/buckets",
                              			"read:/dashboards",
                              			"write:/dashboards",
                              			"read:/orgs",
                              			"write:/orgs",
                              			"read:/sources",
                              			"write:/sources",
                              			"read:/tasks",
                              			"write:/tasks",
                              			"read:/telegrafs",
                              			"write:/telegrafs",
                              			"read:/users",
                              			"write:/users",
                              			"read:/variables",
                              			"write:/variables",
                              			"read:/scrapers",
                              			"write:/scrapers",
                              			"read:/secrets",
                              			"write:/secrets",
                              			"read:/labels",
                              			"write:/labels",
                              			"read:/views",
                              			"write:/views",
                              			"read:/documents",
                              			"write:/documents",
                              			"read:/notificationRules",
                              			"write:/notificationRules",
                              			"read:/notificationEndpoints",
                              			"write:/notificationEndpoints",
                              			"read:/checks",
                              			"write:/checks",
                              			"read:/dbrp",
                              			"write:/dbrp",
                              			"read:/notebooks",
                              			"write:/notebooks",
                              			"read:/annotations",
                              			"write:/annotations",
                              			"read:/remotes",
                              			"write:/remotes",
                              			"read:/replications",
                              			"write:/replications"
                              		]
                              	}
                              ]
                              

                              und

                              influx organization list
                              
                              ID			Name
                              2ecf2d695d1722e9	privat
                              
                              akuhnshA 1 Antwort Letzte Antwort
                              0
                              • akuhnshA akuhnsh

                                @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                @marc-berg @thomas-braun

                                @akuhnsh said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                Ich habe das System neu aufgesetzt, um zu sehen, ob sich die Backups dann einspielen lassen und nach wie vor keine Chance die Datenbank aus dem Backup wiederherzustellen:

                                [ERROR] [influxDB] - Error: failed to check existence of organization "privat": 401 Unauthorized: unauthorized access
                                

                                zeig mal bitte die Ausgabe von

                                influx auth list --json
                                
                                [
                                	{
                                		"id": "0b28411ba4dca000",
                                		"description": "admin's Token",
                                		"token": "wljQN6vtZ1a4hNNORVh55RM2u0o1V3XXh708y7yKPmtdBIV5tG5hxucGRGnBX1IdQoYh9Mnd5dsbBBV551nDUw==",
                                		"status": "active",
                                		"userName": "admin",
                                		"userID": "0b28411b6b9ca000",
                                		"permissions": [
                                			"read:/authorizations",
                                			"write:/authorizations",
                                			"read:/buckets",
                                			"write:/buckets",
                                			"read:/dashboards",
                                			"write:/dashboards",
                                			"read:/orgs",
                                			"write:/orgs",
                                			"read:/sources",
                                			"write:/sources",
                                			"read:/tasks",
                                			"write:/tasks",
                                			"read:/telegrafs",
                                			"write:/telegrafs",
                                			"read:/users",
                                			"write:/users",
                                			"read:/variables",
                                			"write:/variables",
                                			"read:/scrapers",
                                			"write:/scrapers",
                                			"read:/secrets",
                                			"write:/secrets",
                                			"read:/labels",
                                			"write:/labels",
                                			"read:/views",
                                			"write:/views",
                                			"read:/documents",
                                			"write:/documents",
                                			"read:/notificationRules",
                                			"write:/notificationRules",
                                			"read:/notificationEndpoints",
                                			"write:/notificationEndpoints",
                                			"read:/checks",
                                			"write:/checks",
                                			"read:/dbrp",
                                			"write:/dbrp",
                                			"read:/notebooks",
                                			"write:/notebooks",
                                			"read:/annotations",
                                			"write:/annotations",
                                			"read:/remotes",
                                			"write:/remotes",
                                			"read:/replications",
                                			"write:/replications"
                                		]
                                	},
                                	{
                                		"id": "0b2852f1fbdca000",
                                		"description": "admin's Token (cloned at 2023-05-06 13:44:19)",
                                		"token": "uZKGetlcGZSZbteI1gwpkJwsCIHpj0bI5ZLdRTvEuDqds7B9X04Q8LKhPYQArrWRJ3nnQS3xfQcwDkwhOKKoCw==",
                                		"status": "active",
                                		"userName": "admin",
                                		"userID": "0b28411b6b9ca000",
                                		"permissions": [
                                			"read:/authorizations",
                                			"write:/authorizations",
                                			"read:/buckets",
                                			"write:/buckets",
                                			"read:/dashboards",
                                			"write:/dashboards",
                                			"read:/orgs",
                                			"write:/orgs",
                                			"read:/sources",
                                			"write:/sources",
                                			"read:/tasks",
                                			"write:/tasks",
                                			"read:/telegrafs",
                                			"write:/telegrafs",
                                			"read:/users",
                                			"write:/users",
                                			"read:/variables",
                                			"write:/variables",
                                			"read:/scrapers",
                                			"write:/scrapers",
                                			"read:/secrets",
                                			"write:/secrets",
                                			"read:/labels",
                                			"write:/labels",
                                			"read:/views",
                                			"write:/views",
                                			"read:/documents",
                                			"write:/documents",
                                			"read:/notificationRules",
                                			"write:/notificationRules",
                                			"read:/notificationEndpoints",
                                			"write:/notificationEndpoints",
                                			"read:/checks",
                                			"write:/checks",
                                			"read:/dbrp",
                                			"write:/dbrp",
                                			"read:/notebooks",
                                			"write:/notebooks",
                                			"read:/annotations",
                                			"write:/annotations",
                                			"read:/remotes",
                                			"write:/remotes",
                                			"read:/replications",
                                			"write:/replications"
                                		]
                                	}
                                ]
                                

                                und

                                influx organization list
                                
                                ID			Name
                                2ecf2d695d1722e9	privat
                                
                                akuhnshA Offline
                                akuhnshA Offline
                                akuhnsh
                                schrieb am zuletzt editiert von
                                #19

                                @Marc-Berg @Thomas-Braun

                                An die alten Tokens aus dem Backup komme ich über die *.bolt Datei ran:

                                influxd recovery auth list --bolt-path /opt/iobroker/backups/20230503T213019Z.bolt
                                2023-05-06T14:09:35.271809Z	info	Resources opened	{"log_id": "0hdMBf9l000", "system": "bolt-kvstore", "path": "/opt/iobroker/backups/20230503T213019Z.bolt"}
                                ID			User Name	User ID			Description						Token							Permissions
                                0ab87d8e68295000	admin		0ab87d8e29e95000	admin's Token						lGhesEEm7Osc8iF3Atk0ukEZhEOLdg98AQXojtHwao1MrEOYiv0uaa3BrxS-QXp3T54dXJgDECIu7zuByns0Ug==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                                0b07e2e2b57cb000	admin		0ab87d8e29e95000	admin's Token (cloned at 2023-04-11 09:03:19)		06eJGdVPZPMsCad0sRvWS32YvB-F3Fifn3nTCM0oNBzDaY5I7Q0n-St-82r9vj1dZRnOONeIiWmTFDYIZoe3Gg==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                                0b07e9d2857cb000	admin		0ab87d8e29e95000	admin's Token BackItUp (cloned at 2023-04-11 09:33:38)	Tvm2bJ9-WsIoyNowWCasjc2ukqsFTIj3xQjp_q_1U-sPb6sH21n35nUzV99EOJ3JE2vLKKwCPIrN8jtT4xcT4A==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                                0b07f463437cb000	admin		0ab87d8e29e95000	admin's Token Grafana (cloned at 2023-04-11 10:19:47)	AQLf8Jld1fY0LYd3Cs0Pt4hKtzMbXK0t0_kMdh6eXzBxHiPJWR1t5OYHr7Qvx4-4zf1Q4ETOfII5W1oNCKvR5w==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                                

                                Aber wie soll ich über das GUI einen alten Token rekonstruieren?

                                Marc BergM 1 Antwort Letzte Antwort
                                0
                                • akuhnshA akuhnsh

                                  @Marc-Berg @Thomas-Braun

                                  An die alten Tokens aus dem Backup komme ich über die *.bolt Datei ran:

                                  influxd recovery auth list --bolt-path /opt/iobroker/backups/20230503T213019Z.bolt
                                  2023-05-06T14:09:35.271809Z	info	Resources opened	{"log_id": "0hdMBf9l000", "system": "bolt-kvstore", "path": "/opt/iobroker/backups/20230503T213019Z.bolt"}
                                  ID			User Name	User ID			Description						Token							Permissions
                                  0ab87d8e68295000	admin		0ab87d8e29e95000	admin's Token						lGhesEEm7Osc8iF3Atk0ukEZhEOLdg98AQXojtHwao1MrEOYiv0uaa3BrxS-QXp3T54dXJgDECIu7zuByns0Ug==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                                  0b07e2e2b57cb000	admin		0ab87d8e29e95000	admin's Token (cloned at 2023-04-11 09:03:19)		06eJGdVPZPMsCad0sRvWS32YvB-F3Fifn3nTCM0oNBzDaY5I7Q0n-St-82r9vj1dZRnOONeIiWmTFDYIZoe3Gg==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                                  0b07e9d2857cb000	admin		0ab87d8e29e95000	admin's Token BackItUp (cloned at 2023-04-11 09:33:38)	Tvm2bJ9-WsIoyNowWCasjc2ukqsFTIj3xQjp_q_1U-sPb6sH21n35nUzV99EOJ3JE2vLKKwCPIrN8jtT4xcT4A==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                                  0b07f463437cb000	admin		0ab87d8e29e95000	admin's Token Grafana (cloned at 2023-04-11 10:19:47)	AQLf8Jld1fY0LYd3Cs0Pt4hKtzMbXK0t0_kMdh6eXzBxHiPJWR1t5OYHr7Qvx4-4zf1Q4ETOfII5W1oNCKvR5w==	[read:authorizations write:authorizations read:buckets write:buckets read:dashboards write:dashboards read:orgs write:orgs read:sources write:sources read:tasks write:tasks read:telegrafs write:telegrafs read:users write:users read:variables write:variables read:scrapers write:scrapers read:secrets write:secrets read:labels write:labels read:views write:views read:documents write:documents read:notificationRules write:notificationRules read:notificationEndpoints write:notificationEndpoints read:checks write:checks read:dbrp write:dbrp read:notebooks write:notebooks read:annotations write:annotations read:remotes write:remotes read:replications write:replications]
                                  

                                  Aber wie soll ich über das GUI einen alten Token rekonstruieren?

                                  Marc BergM Offline
                                  Marc BergM Offline
                                  Marc Berg
                                  Most Active
                                  schrieb am zuletzt editiert von Marc Berg
                                  #20

                                  @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                  Aber wie soll ich über das GUI einen alten Token rekonstruieren?

                                  Das würde nur Sinn ergeben, wenn die alte Datenbank noch vorhanden ist. Hast du bei der Neuinstallation die Datenverzeichnisse gelöscht? Nicht, dass da noch Überbleibsel stören.

                                  NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                                  Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                                  Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                                  akuhnshA 1 Antwort Letzte Antwort
                                  0
                                  • Marc BergM Marc Berg

                                    @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                    Aber wie soll ich über das GUI einen alten Token rekonstruieren?

                                    Das würde nur Sinn ergeben, wenn die alte Datenbank noch vorhanden ist. Hast du bei der Neuinstallation die Datenverzeichnisse gelöscht? Nicht, dass da noch Überbleibsel stören.

                                    akuhnshA Offline
                                    akuhnshA Offline
                                    akuhnsh
                                    schrieb am zuletzt editiert von
                                    #21

                                    @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                    @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                    Aber wie soll ich über das GUI einen alten Token rekonstruieren?

                                    Das würde nur Sinn ergeben, wenn die alte Datenbank noch vorhanden ist. Hast du bei der Neuinstallation die Datenverzeichnisse gelöscht? Nicht, dass da noch Überbleibsel stören.

                                    Die alten token sind halt im Backup hinterlegt. Wenn die abgefragt werden, passen sie halt nicht zum neuen admin token. Deshalb dachte ich an die Rolle Rückwärts. Erst die alten token wieder herstellen in der neuen influxdb und dann das Backup mit denselben token wieder herstellen. Denke da liegt der Hase im Pfeffer.

                                    Hab ein frisches Image auf die SD geschrieben und iobroker, influxdb und grafana neu installiert, wie sonst auch schon mal. Da sollte alles überschrieben worden sein.

                                    Marc BergM 1 Antwort Letzte Antwort
                                    0
                                    • akuhnshA akuhnsh

                                      @marc-berg said in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                      @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                      Aber wie soll ich über das GUI einen alten Token rekonstruieren?

                                      Das würde nur Sinn ergeben, wenn die alte Datenbank noch vorhanden ist. Hast du bei der Neuinstallation die Datenverzeichnisse gelöscht? Nicht, dass da noch Überbleibsel stören.

                                      Die alten token sind halt im Backup hinterlegt. Wenn die abgefragt werden, passen sie halt nicht zum neuen admin token. Deshalb dachte ich an die Rolle Rückwärts. Erst die alten token wieder herstellen in der neuen influxdb und dann das Backup mit denselben token wieder herstellen. Denke da liegt der Hase im Pfeffer.

                                      Hab ein frisches Image auf die SD geschrieben und iobroker, influxdb und grafana neu installiert, wie sonst auch schon mal. Da sollte alles überschrieben worden sein.

                                      Marc BergM Offline
                                      Marc BergM Offline
                                      Marc Berg
                                      Most Active
                                      schrieb am zuletzt editiert von Marc Berg
                                      #22

                                      @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                      Die alten token sind halt im Backup hinterlegt. Wenn die abgefragt werden, passen sie halt nicht zum neuen admin token. Deshalb dachte ich an die Rolle Rückwärts. Erst die alten token wieder herstellen in der neuen influxdb und dann das Backup mit denselben token wieder herstellen. Denke da liegt der Hase im Pfeffer.

                                      nein. Du brauchst nach einer Neuinstallation für das Restore die neuen Token.

                                      NUC10I3+Ubuntu+Docker+ioBroker+influxDB2+Node Red+EMQX+Grafana

                                      Pi-hole, Traefik, Checkmk, Conbee II+Zigbee2MQTT, ESPSomfy-RTS, LoRaWAN, Arduino, KiCad

                                      Benutzt das Voting im Beitrag, wenn er euch geholfen hat.

                                      akuhnshA 2 Antworten Letzte Antwort
                                      0
                                      • Marc BergM Marc Berg

                                        @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                        Die alten token sind halt im Backup hinterlegt. Wenn die abgefragt werden, passen sie halt nicht zum neuen admin token. Deshalb dachte ich an die Rolle Rückwärts. Erst die alten token wieder herstellen in der neuen influxdb und dann das Backup mit denselben token wieder herstellen. Denke da liegt der Hase im Pfeffer.

                                        nein. Du brauchst nach einer Neuinstallation für das Restore die neuen Token.

                                        akuhnshA Offline
                                        akuhnshA Offline
                                        akuhnsh
                                        schrieb am zuletzt editiert von
                                        #23

                                        @marc-berg

                                        Okay verstanden. Vielleicht liegt es daran, dass das Backup aus einem Upgrade von 1.8 auf 2.7 stammt? Ich bekomme eine ähnliche Fehlermeldung, wenn ich in dem Reiter bei "Sicherung mehrerer Systeme" raus nehme und nur den einen bucket angebe, der auch zur Wiederherstellung ausgewählt wird:

                                        Started restore ...
                                        [DEBUG] [influxDB] - Created tmp directory
                                        [DEBUG] [influxDB] - Start infuxDB Restore ...
                                        [ERROR] [influxDB] - 2023/05/06 16:49:17 INFO: Restoring bucket "0db467ecf59e0de1" as "iobroker"
                                        Error: failed to restore bucket "iobroker": 401 Unauthorized: read:authorizations is unauthorized
                                        
                                        [DEBUG] [influxDB] - Try deleting the InfluxDB tmp directory
                                        [DEBUG] [influxDB] - InfluxDB tmp directory was successfully deleted
                                        [DEBUG] [influxDB] - infuxDB Restore completed successfully
                                        [EXIT] influxDB restore done
                                        

                                        Muss der neue token noch irgendwo anders eingetragen werden als unter dem Reiter influxdb in BackItUp?

                                        Marc BergM 1 Antwort Letzte Antwort
                                        0
                                        • Marc BergM Marc Berg

                                          @akuhnsh sagte in InfluxDB 2.7 Totalabsturz - BackItUp mit Fehler:

                                          Die alten token sind halt im Backup hinterlegt. Wenn die abgefragt werden, passen sie halt nicht zum neuen admin token. Deshalb dachte ich an die Rolle Rückwärts. Erst die alten token wieder herstellen in der neuen influxdb und dann das Backup mit denselben token wieder herstellen. Denke da liegt der Hase im Pfeffer.

                                          nein. Du brauchst nach einer Neuinstallation für das Restore die neuen Token.

                                          akuhnshA Offline
                                          akuhnshA Offline
                                          akuhnsh
                                          schrieb am zuletzt editiert von
                                          #24

                                          @marc-berg

                                          Wenn ich den bucket vorher anlege kommt folgende Meldung:

                                          Started restore ...
                                          [DEBUG] [influxDB] - Created tmp directory
                                          [DEBUG] [influxDB] - Start infuxDB Restore ...
                                          [ERROR] [influxDB] - 2023/05/06 16:52:54 INFO: Restoring bucket "0db467ecf59e0de1" as "iobroker"
                                          Error: failed to restore bucket "iobroker": 422 Unprocessable Entity: bucket with name iobroker already exists
                                          
                                          [DEBUG] [influxDB] - Try deleting the InfluxDB tmp directory
                                          [DEBUG] [influxDB] - InfluxDB tmp directory was successfully deleted
                                          [DEBUG] [influxDB] - infuxDB Restore completed successfully
                                          [EXIT] influxDB restore done
                                          
                                          1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate
                                          FAQ Cloud / IOT
                                          HowTo: Node.js-Update
                                          HowTo: Backup/Restore
                                          Downloads
                                          BLOG

                                          752

                                          Online

                                          32.5k

                                          Benutzer

                                          81.8k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe