Skip to content
  • Recent
  • Tags
  • 0 Unread 0
  • Categories
  • Unreplied
  • Popular
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (No Skin)
  • No Skin
Collapse
Logo
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. Microcontroller
  5. erneuert nicht [wieder erledigt] Tasmo Admin / VM Problem

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.1k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    1.8k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    15
    1
    2.1k

erneuert nicht [wieder erledigt] Tasmo Admin / VM Problem

Scheduled Pinned Locked Moved Microcontroller
proxmox 7tasmoadmin
61 Posts 6 Posters 5.7k Views 5 Watching
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • crunchipC crunchip

    @da_woody dann guck doch mal ins proxmox syslog

    da_WoodyD Offline
    da_WoodyD Offline
    da_Woody
    wrote on last edited by
    #42

    @crunchip pöff. hab die kiste neu gestartet. IMHO hab ich da was ab dem start gefunden. sagt mir aber außer refused nichts.

    Aug 15 16:13:43 Homeserver pvescheduler[1471]: starting server
    Aug 15 16:13:43 Homeserver systemd[1]: Started Proxmox VE scheduler.
    Aug 15 16:13:43 Homeserver systemd[1]: Reached target Multi-User System.
    Aug 15 16:13:43 Homeserver systemd[1]: Reached target Graphical Interface.
    Aug 15 16:13:43 Homeserver systemd[1]: Starting Update UTMP about System Runlevel Changes...
    Aug 15 16:13:43 Homeserver systemd[1]: systemd-update-utmp-runlevel.service: Succeeded.
    Aug 15 16:13:43 Homeserver systemd[1]: Finished Update UTMP about System Runlevel Changes.
    Aug 15 16:13:43 Homeserver systemd[1]: Startup finished in 3.794s (kernel) + 25.290s (userspace) = 29.085s.
    Aug 15 16:13:48 Homeserver systemd-timesyncd[643]: Initial synchronization to time server 185.144.161.170:123 (2.debian.pool.ntp.org).
    Aug 15 16:13:52 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:13:53 Homeserver systemd[1]: Stopping User Manager for UID 0...
    Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Main User Target.
    Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Basic System.
    Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Paths.
    Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Sockets.
    Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Timers.
    Aug 15 16:13:53 Homeserver systemd[1142]: dirmngr.socket: Succeeded.
    Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG network certificate management daemon.
    Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-browser.socket: Succeeded.
    Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache (access for web browsers).
    Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-extra.socket: Succeeded.
    Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache (restricted).
    Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-ssh.socket: Succeeded.
    Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent (ssh-agent emulation).
    Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent.socket: Succeeded.
    Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache.
    Aug 15 16:13:53 Homeserver systemd[1142]: Removed slice User Application Slice.
    Aug 15 16:13:53 Homeserver systemd[1142]: Reached target Shutdown.
    Aug 15 16:13:53 Homeserver systemd[1142]: systemd-exit.service: Succeeded.
    Aug 15 16:13:53 Homeserver systemd[1142]: Finished Exit the Session.
    Aug 15 16:13:53 Homeserver systemd[1142]: Reached target Exit the Session.
    Aug 15 16:13:53 Homeserver systemd[1143]: pam_unix(systemd-user:session): session closed for user root
    Aug 15 16:13:53 Homeserver systemd[1]: user@0.service: Succeeded.
    Aug 15 16:13:53 Homeserver systemd[1]: Stopped User Manager for UID 0.
    Aug 15 16:13:53 Homeserver systemd[1]: Stopping User Runtime Directory /run/user/0...
    Aug 15 16:13:53 Homeserver systemd[1]: run-user-0.mount: Succeeded.
    Aug 15 16:13:53 Homeserver systemd[1]: user-runtime-dir@0.service: Succeeded.
    Aug 15 16:13:53 Homeserver systemd[1]: Stopped User Runtime Directory /run/user/0.
    Aug 15 16:13:53 Homeserver systemd[1]: Removed slice User Slice of UID 0.
    Aug 15 16:14:13 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:14:32 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:14:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:14:42 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:14:52 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:15:02 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:15:32 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:15:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:15:42 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:15:53 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:16:02 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:16:12 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:16:15 Homeserver pvedaemon[1121]: <root@pam> successful auth for user 'root@pam'
    Aug 15 16:16:19 Homeserver pvedaemon[1120]: <root@pam> successful auth for user 'root@pam'
    Aug 15 16:16:22 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:16:22 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    Aug 15 16:16:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
    

    wie gesagt, ioB, Motioneye und PiHole funktionieren. nur die eine VM macht probleme...

    gruß vom Woody
    HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

    crunchipC 1 Reply Last reply
    0
    • da_WoodyD da_Woody

      @crunchip pöff. hab die kiste neu gestartet. IMHO hab ich da was ab dem start gefunden. sagt mir aber außer refused nichts.

      Aug 15 16:13:43 Homeserver pvescheduler[1471]: starting server
      Aug 15 16:13:43 Homeserver systemd[1]: Started Proxmox VE scheduler.
      Aug 15 16:13:43 Homeserver systemd[1]: Reached target Multi-User System.
      Aug 15 16:13:43 Homeserver systemd[1]: Reached target Graphical Interface.
      Aug 15 16:13:43 Homeserver systemd[1]: Starting Update UTMP about System Runlevel Changes...
      Aug 15 16:13:43 Homeserver systemd[1]: systemd-update-utmp-runlevel.service: Succeeded.
      Aug 15 16:13:43 Homeserver systemd[1]: Finished Update UTMP about System Runlevel Changes.
      Aug 15 16:13:43 Homeserver systemd[1]: Startup finished in 3.794s (kernel) + 25.290s (userspace) = 29.085s.
      Aug 15 16:13:48 Homeserver systemd-timesyncd[643]: Initial synchronization to time server 185.144.161.170:123 (2.debian.pool.ntp.org).
      Aug 15 16:13:52 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:13:53 Homeserver systemd[1]: Stopping User Manager for UID 0...
      Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Main User Target.
      Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Basic System.
      Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Paths.
      Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Sockets.
      Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Timers.
      Aug 15 16:13:53 Homeserver systemd[1142]: dirmngr.socket: Succeeded.
      Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG network certificate management daemon.
      Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-browser.socket: Succeeded.
      Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache (access for web browsers).
      Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-extra.socket: Succeeded.
      Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache (restricted).
      Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-ssh.socket: Succeeded.
      Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent (ssh-agent emulation).
      Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent.socket: Succeeded.
      Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache.
      Aug 15 16:13:53 Homeserver systemd[1142]: Removed slice User Application Slice.
      Aug 15 16:13:53 Homeserver systemd[1142]: Reached target Shutdown.
      Aug 15 16:13:53 Homeserver systemd[1142]: systemd-exit.service: Succeeded.
      Aug 15 16:13:53 Homeserver systemd[1142]: Finished Exit the Session.
      Aug 15 16:13:53 Homeserver systemd[1142]: Reached target Exit the Session.
      Aug 15 16:13:53 Homeserver systemd[1143]: pam_unix(systemd-user:session): session closed for user root
      Aug 15 16:13:53 Homeserver systemd[1]: user@0.service: Succeeded.
      Aug 15 16:13:53 Homeserver systemd[1]: Stopped User Manager for UID 0.
      Aug 15 16:13:53 Homeserver systemd[1]: Stopping User Runtime Directory /run/user/0...
      Aug 15 16:13:53 Homeserver systemd[1]: run-user-0.mount: Succeeded.
      Aug 15 16:13:53 Homeserver systemd[1]: user-runtime-dir@0.service: Succeeded.
      Aug 15 16:13:53 Homeserver systemd[1]: Stopped User Runtime Directory /run/user/0.
      Aug 15 16:13:53 Homeserver systemd[1]: Removed slice User Slice of UID 0.
      Aug 15 16:14:13 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:14:32 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:14:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:14:42 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:14:52 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:15:02 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:15:32 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:15:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:15:42 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:15:53 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:16:02 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:16:12 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:16:15 Homeserver pvedaemon[1121]: <root@pam> successful auth for user 'root@pam'
      Aug 15 16:16:19 Homeserver pvedaemon[1120]: <root@pam> successful auth for user 'root@pam'
      Aug 15 16:16:22 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:16:22 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      Aug 15 16:16:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
      

      wie gesagt, ioB, Motioneye und PiHole funktionieren. nur die eine VM macht probleme...

      crunchipC Away
      crunchipC Away
      crunchip
      Forum Testing Most Active
      wrote on last edited by
      #43

      @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

      nur die eine VM macht probleme

      und was zeigt die im Log

      umgestiegen von Proxmox auf Unraid

      da_WoodyD 1 Reply Last reply
      0
      • crunchipC crunchip

        @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

        nur die eine VM macht probleme

        und was zeigt die im Log

        da_WoodyD Offline
        da_WoodyD Offline
        da_Woody
        wrote on last edited by
        #44

        @crunchip sorry, irgendwie hab ich irgendwie knopf im kopf. 😞
        wie komm ich da ran? in der proxmox verwaltung fin ich nixhts.

        gruß vom Woody
        HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

        crunchipC 1 Reply Last reply
        0
        • da_WoodyD da_Woody

          @crunchip sorry, irgendwie hab ich irgendwie knopf im kopf. 😞
          wie komm ich da ran? in der proxmox verwaltung fin ich nixhts.

          crunchipC Away
          crunchipC Away
          crunchip
          Forum Testing Most Active
          wrote on last edited by
          #45

          @da_woody na wie auf jeder Maschine, im Verzeichnis /var/log/ findest du alle Möglichen Logs, daemon, dpkg, kern, syslog...

          umgestiegen von Proxmox auf Unraid

          da_WoodyD 1 Reply Last reply
          0
          • crunchipC crunchip

            @da_woody na wie auf jeder Maschine, im Verzeichnis /var/log/ findest du alle Möglichen Logs, daemon, dpkg, kern, syslog...

            da_WoodyD Offline
            da_WoodyD Offline
            da_Woody
            wrote on last edited by
            #46

            @crunchip sag ja, knopf im kopf...
            hab mal ins syslog reingelinst. anscheinend hab mal zu spät backups gelöscht.

            Aug 14 00:01:52 Debian systemd[1]: logrotate.service: Succeeded.
            AAug 14 00:01:52 Debian systemd[1]: rsyslog.service: Sent signal SIGHUP to main process 393 (rsyslogd) on client request.
            ug 14 00:01:52 Debian systemd[1]: Finished Rotate log files.
            Aug 14 00:01:52 Debian systemd[1]: logrotate.service: Consumed 1min 23.487s CPU time.
            Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.860429Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
            Aug 14 00:01:52 Debian influxd[390]: [httpd] 192.168.0.250 - admin [14/Aug/2022:00:01:52 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 89ed0b16-1b53-11ed-96f0-76946d14c247 266
            Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.860518Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
            Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861155Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
            Aug 14 00:01:52 Debian influxd[390]: [httpd] 192.168.0.250 - admin [14/Aug/2022:00:01:52 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 89ed27ab-1b53-11ed-96f1-76946d14c247 258
            Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861244Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
            Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861587Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
            
            

            beim reinschauen in syslog.1 hab ich den anfang vom ende gefunden.

            Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7d8d8b-1b4f-11ed-85bf-76946d14c247 30988
            Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7ec94d-1b4f-11ed-85c1-76946d14c247 23024
            Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7e6425-1b4f-11ed-85c0-76946d14c247 25475
            Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7f277c-1b4f-11ed-85c2-76946d14c247 20685
            Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3cbaa433-1b4f-11ed-85c4-76946d14c247 17374
            Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376113Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
            Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 3cbd0265-1b4f-11ed-85cb-76946d14c247 2260
            Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376245Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
            Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376378Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
            Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 3cbab4d7-1b4f-11ed-85c5-76946d14c247 17557
            
            

            und ich volltrottel hab, nachdem alles wieder funktioniert hat zusammengeräumt und, entgegen meiner sonstigen gewohnheit die letzte sicherung stehn zu lassen, alle backups gelöscht... 🤕

            gruß vom Woody
            HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

            crunchipC 1 Reply Last reply
            0
            • da_WoodyD da_Woody

              @crunchip sag ja, knopf im kopf...
              hab mal ins syslog reingelinst. anscheinend hab mal zu spät backups gelöscht.

              Aug 14 00:01:52 Debian systemd[1]: logrotate.service: Succeeded.
              AAug 14 00:01:52 Debian systemd[1]: rsyslog.service: Sent signal SIGHUP to main process 393 (rsyslogd) on client request.
              ug 14 00:01:52 Debian systemd[1]: Finished Rotate log files.
              Aug 14 00:01:52 Debian systemd[1]: logrotate.service: Consumed 1min 23.487s CPU time.
              Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.860429Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
              Aug 14 00:01:52 Debian influxd[390]: [httpd] 192.168.0.250 - admin [14/Aug/2022:00:01:52 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 89ed0b16-1b53-11ed-96f0-76946d14c247 266
              Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.860518Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
              Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861155Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
              Aug 14 00:01:52 Debian influxd[390]: [httpd] 192.168.0.250 - admin [14/Aug/2022:00:01:52 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 89ed27ab-1b53-11ed-96f1-76946d14c247 258
              Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861244Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
              Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861587Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
              
              

              beim reinschauen in syslog.1 hab ich den anfang vom ende gefunden.

              Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7d8d8b-1b4f-11ed-85bf-76946d14c247 30988
              Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7ec94d-1b4f-11ed-85c1-76946d14c247 23024
              Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7e6425-1b4f-11ed-85c0-76946d14c247 25475
              Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7f277c-1b4f-11ed-85c2-76946d14c247 20685
              Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3cbaa433-1b4f-11ed-85c4-76946d14c247 17374
              Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376113Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
              Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 3cbd0265-1b4f-11ed-85cb-76946d14c247 2260
              Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376245Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
              Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376378Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
              Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 3cbab4d7-1b4f-11ed-85c5-76946d14c247 17557
              
              

              und ich volltrottel hab, nachdem alles wieder funktioniert hat zusammengeräumt und, entgegen meiner sonstigen gewohnheit die letzte sicherung stehn zu lassen, alle backups gelöscht... 🤕

              crunchipC Away
              crunchipC Away
              crunchip
              Forum Testing Most Active
              wrote on last edited by
              #47

              @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

              write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"

              na so wie es aussieht hast du da eigentlich nur ein kleines Platzproblem, deine Influxdb ist halt gewachsen. Wie groß ist denn die VM

              umgestiegen von Proxmox auf Unraid

              da_WoodyD 1 Reply Last reply
              0
              • crunchipC crunchip

                @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"

                na so wie es aussieht hast du da eigentlich nur ein kleines Platzproblem, deine Influxdb ist halt gewachsen. Wie groß ist denn die VM

                da_WoodyD Offline
                da_WoodyD Offline
                da_Woody
                wrote on last edited by
                #48

                @crunchip d716373e-f817-44fa-8540-66c980aa0a2b-grafik.png

                gruß vom Woody
                HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                crunchipC 1 Reply Last reply
                0
                • da_WoodyD da_Woody

                  @crunchip d716373e-f817-44fa-8540-66c980aa0a2b-grafik.png

                  crunchipC Away
                  crunchipC Away
                  crunchip
                  Forum Testing Most Active
                  wrote on last edited by crunchip
                  #49

                  @da_woody so sieht man nur das deine Ram Auslastung am Limit ist
                  auf der VM

                  df -h
                  

                  bzw Datenbankgröße

                  sudo du -sh /var/lib/influxdb/data/
                  

                  umgestiegen von Proxmox auf Unraid

                  da_WoodyD 1 Reply Last reply
                  0
                  • crunchipC crunchip

                    @da_woody so sieht man nur das deine Ram Auslastung am Limit ist
                    auf der VM

                    df -h
                    

                    bzw Datenbankgröße

                    sudo du -sh /var/lib/influxdb/data/
                    
                    da_WoodyD Offline
                    da_WoodyD Offline
                    da_Woody
                    wrote on last edited by da_Woody
                    #50

                    @crunchip sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                    woody@Debian:~$ df -h
                    Dateisystem    Größe Benutzt Verf. Verw% Eingehängt auf
                    udev            2,9G       0  2,9G    0% /dev
                    tmpfs           595M     60M  535M   11% /run
                    /dev/sda1        28G     28G     0  100% /
                    tmpfs           3,0G       0  3,0G    0% /dev/shm
                    tmpfs           5,0M       0  5,0M    0% /run/lock
                    tmpfs           595M       0  595M    0% /run/user/1000
                    woody@Debian:~$ sudo du -sh /var/lib/influxdb/data/
                    [sudo] Passwort für woody:
                    7,4G    /var/lib/influxdb/data/
                    woody@Debian:~$
                    
                    

                    gruß vom Woody
                    HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                    crunchipC 1 Reply Last reply
                    0
                    • da_WoodyD da_Woody

                      @crunchip sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                      woody@Debian:~$ df -h
                      Dateisystem    Größe Benutzt Verf. Verw% Eingehängt auf
                      udev            2,9G       0  2,9G    0% /dev
                      tmpfs           595M     60M  535M   11% /run
                      /dev/sda1        28G     28G     0  100% /
                      tmpfs           3,0G       0  3,0G    0% /dev/shm
                      tmpfs           5,0M       0  5,0M    0% /run/lock
                      tmpfs           595M       0  595M    0% /run/user/1000
                      woody@Debian:~$ sudo du -sh /var/lib/influxdb/data/
                      [sudo] Passwort für woody:
                      7,4G    /var/lib/influxdb/data/
                      woody@Debian:~$
                      
                      
                      crunchipC Away
                      crunchipC Away
                      crunchip
                      Forum Testing Most Active
                      wrote on last edited by crunchip
                      #51

                      @da_woody kann es sein das du die VM in Proxmox vergössert hast? denn da steht 100 GB, du hast aber nur

                      @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                      /dev/sda1 28G 28G 0 100% /

                      und die is VOLL

                      das heisst, du musst auch das Dateisystem erweitern, damit die 100GB erkannt werden
                      https://blog.bastii717.dev/speicherplatz-der-festplatte-erweitern/

                      umgestiegen von Proxmox auf Unraid

                      da_WoodyD 1 Reply Last reply
                      0
                      • crunchipC crunchip

                        @da_woody kann es sein das du die VM in Proxmox vergössert hast? denn da steht 100 GB, du hast aber nur

                        @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                        /dev/sda1 28G 28G 0 100% /

                        und die is VOLL

                        das heisst, du musst auch das Dateisystem erweitern, damit die 100GB erkannt werden
                        https://blog.bastii717.dev/speicherplatz-der-festplatte-erweitern/

                        da_WoodyD Offline
                        da_WoodyD Offline
                        da_Woody
                        wrote on last edited by
                        #52

                        @crunchip das hat mich auch irgendwie verwirrt. allerdings wurden die 100GB beim erstellen angegeben soweit ich mich erinnern kann. hab das jetzt mal auf 180GB vergrössert sinnloser weise.
                        der beitrag ist gut geschrieben, allerdings gibts fdisk -l, parted und co. in meinem debian nicht...

                        gruß vom Woody
                        HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                        crunchipC 1 Reply Last reply
                        0
                        • da_WoodyD da_Woody

                          @crunchip das hat mich auch irgendwie verwirrt. allerdings wurden die 100GB beim erstellen angegeben soweit ich mich erinnern kann. hab das jetzt mal auf 180GB vergrössert sinnloser weise.
                          der beitrag ist gut geschrieben, allerdings gibts fdisk -l, parted und co. in meinem debian nicht...

                          crunchipC Away
                          crunchipC Away
                          crunchip
                          Forum Testing Most Active
                          wrote on last edited by crunchip
                          #53

                          @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                          hab das jetzt mal auf 180GB vergrössert sinnloser weise.

                          warum machst du das, bedenke das ist begrenzt, deine Gesamtplatte/LVM ist wie groß?
                          sonst bekommst du die selben Probleme wie hier, https://forum.iobroker.net/post/795353

                          @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                          allerdings gibts fdisk -l, parted und co

                          kannst du nachinstallieren

                          alternativ kannst du es auch mit einer iso machen, siehe https://beyond.lol/disk-einer-vm-vergroessern-in-proxmox/#:~:text=Als erstes loggen wir uns,man die Disk vergrössern möchte

                          umgestiegen von Proxmox auf Unraid

                          da_WoodyD 1 Reply Last reply
                          0
                          • crunchipC crunchip

                            @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                            hab das jetzt mal auf 180GB vergrössert sinnloser weise.

                            warum machst du das, bedenke das ist begrenzt, deine Gesamtplatte/LVM ist wie groß?
                            sonst bekommst du die selben Probleme wie hier, https://forum.iobroker.net/post/795353

                            @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                            allerdings gibts fdisk -l, parted und co

                            kannst du nachinstallieren

                            alternativ kannst du es auch mit einer iso machen, siehe https://beyond.lol/disk-einer-vm-vergroessern-in-proxmox/#:~:text=Als erstes loggen wir uns,man die Disk vergrössern möchte

                            da_WoodyD Offline
                            da_WoodyD Offline
                            da_Woody
                            wrote on last edited by
                            #54

                            @crunchip moin!

                            warum machst du das

                            aus blödheit? 😄
                            hab aber entdeckt, daß ich mal proxmoxbackup eingerichtet habe und dort noch backup vom 2022-08-07 gefunden. das hab ich jetzt mal zurückgespielt. somit ist wieder 100GB bootdisk da. gparted iso hab ich auch schon am server. am nachmittag werd ich das mal probieren und danach nochmal das ganze posting durcharbeiten...
                            mal schauen. 🙂
                            thnx für den isotip! ist für mich sicher einfacher, als auf der konsole rumzuturnen.

                            gruß vom Woody
                            HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                            crunchipC 1 Reply Last reply
                            0
                            • da_WoodyD da_Woody

                              @crunchip moin!

                              warum machst du das

                              aus blödheit? 😄
                              hab aber entdeckt, daß ich mal proxmoxbackup eingerichtet habe und dort noch backup vom 2022-08-07 gefunden. das hab ich jetzt mal zurückgespielt. somit ist wieder 100GB bootdisk da. gparted iso hab ich auch schon am server. am nachmittag werd ich das mal probieren und danach nochmal das ganze posting durcharbeiten...
                              mal schauen. 🙂
                              thnx für den isotip! ist für mich sicher einfacher, als auf der konsole rumzuturnen.

                              crunchipC Away
                              crunchipC Away
                              crunchip
                              Forum Testing Most Active
                              wrote on last edited by
                              #55

                              @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                              ist für mich sicher einfacher, als auf der konsole rumzuturnen.

                              deshalb der Link😜

                              sollte normal klappen, einzige kann sein, je nach dem wie die Partition angelegt ist, das du das Volumen nicht erweitern kannst, weil die swap Partition in Weg ist. Sollte das der Fall sein, muss diese Weg, Volumen erweitern und danach die swap Partition wieder anfügen.

                              Falls Fragen, VORHER Fragen, bevor du Mist baust

                              umgestiegen von Proxmox auf Unraid

                              da_WoodyD 1 Reply Last reply
                              0
                              • crunchipC crunchip

                                @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                ist für mich sicher einfacher, als auf der konsole rumzuturnen.

                                deshalb der Link😜

                                sollte normal klappen, einzige kann sein, je nach dem wie die Partition angelegt ist, das du das Volumen nicht erweitern kannst, weil die swap Partition in Weg ist. Sollte das der Fall sein, muss diese Weg, Volumen erweitern und danach die swap Partition wieder anfügen.

                                Falls Fragen, VORHER Fragen, bevor du Mist baust

                                da_WoodyD Offline
                                da_WoodyD Offline
                                da_Woody
                                wrote on last edited by da_Woody
                                #56

                                @crunchip sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                Falls Fragen, VORHER Fragen, bevor du Mist baust

                                ich schwöre! 😄

                                ich hab mir vorher auch die 3 anderen VMs mit df -h angeschaut. dort passen die größen. strange, warum das nur bei der einen auftritt.

                                gruß vom Woody
                                HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                                da_WoodyD 1 Reply Last reply
                                0
                                • da_WoodyD da_Woody

                                  @crunchip sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                  Falls Fragen, VORHER Fragen, bevor du Mist baust

                                  ich schwöre! 😄

                                  ich hab mir vorher auch die 3 anderen VMs mit df -h angeschaut. dort passen die größen. strange, warum das nur bei der einen auftritt.

                                  da_WoodyD Offline
                                  da_WoodyD Offline
                                  da_Woody
                                  wrote on last edited by
                                  #57

                                  @da_woody zo!
                                  ich denk mal, ich kann erfolg vermelden. musste nach einem erstversuch nochmal das backup zurück spielen. my fault.
                                  original, warum auch immer:
                                  7d19e89e-b9d9-4058-9940-6acf66b9cfaf-grafik.png
                                  hab dann sda5, danach sda2 gekillt. sda1 vergrößert und hinten wieder ein swap gebastelt. allerdings nicht als extended, sondern als sda2. daten fluppen mal wieder rein, grafana funzt, ebenso wie influxDB-Studio.
                                  jetzt noch den sermon wegen tasmoadmin durchgehn...
                                  bascht das so? oder soll ich noch was anderes tun?

                                  gruß vom Woody
                                  HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                                  crunchipC 1 Reply Last reply
                                  0
                                  • da_WoodyD da_Woody

                                    @da_woody zo!
                                    ich denk mal, ich kann erfolg vermelden. musste nach einem erstversuch nochmal das backup zurück spielen. my fault.
                                    original, warum auch immer:
                                    7d19e89e-b9d9-4058-9940-6acf66b9cfaf-grafik.png
                                    hab dann sda5, danach sda2 gekillt. sda1 vergrößert und hinten wieder ein swap gebastelt. allerdings nicht als extended, sondern als sda2. daten fluppen mal wieder rein, grafana funzt, ebenso wie influxDB-Studio.
                                    jetzt noch den sermon wegen tasmoadmin durchgehn...
                                    bascht das so? oder soll ich noch was anderes tun?

                                    crunchipC Away
                                    crunchipC Away
                                    crunchip
                                    Forum Testing Most Active
                                    wrote on last edited by crunchip
                                    #58

                                    @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                    bascht das so?

                                    weiss net, seh ich ja nicht😜

                                    wenn dein sda1 jetzt aufs max vergrößert ist, dann sollte es passen

                                    df -h
                                    

                                    umgestiegen von Proxmox auf Unraid

                                    da_WoodyD 2 Replies Last reply
                                    0
                                    • crunchipC crunchip

                                      @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                      bascht das so?

                                      weiss net, seh ich ja nicht😜

                                      wenn dein sda1 jetzt aufs max vergrößert ist, dann sollte es passen

                                      df -h
                                      
                                      da_WoodyD Offline
                                      da_WoodyD Offline
                                      da_Woody
                                      wrote on last edited by
                                      #59

                                      @crunchip vor lauter begeisterung... 😄

                                      woody@Debian:~$ df -h
                                      Dateisystem    Größe Benutzt Verf. Verw% Eingehängt auf
                                      udev            2,9G       0  2,9G    0% /dev
                                      tmpfs           595M    508K  594M    1% /run
                                      /dev/sda1        95G     21G   69G   24% /
                                      tmpfs           3,0G       0  3,0G    0% /dev/shm
                                      tmpfs           5,0M       0  5,0M    0% /run/lock
                                      tmpfs           595M       0  595M    0% /run/user/1000
                                      woody@Debian:~$
                                      
                                      

                                      und damits nicht fad wird, ist mir der shelly 1pm vom poolfilter abgekackt... naja, 3 jahre im freien...
                                      gerade neuen angelernt, aliasmanager wieder angepasst. einbauen is heute nicht mehr drinnen... definitiv zu hardcore in der prallen...
                                      75b53db6-1e81-4e4a-ba69-40be313d2f34-grafik.png

                                      gruß vom Woody
                                      HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                                      1 Reply Last reply
                                      1
                                      • crunchipC crunchip

                                        @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                        bascht das so?

                                        weiss net, seh ich ja nicht😜

                                        wenn dein sda1 jetzt aufs max vergrößert ist, dann sollte es passen

                                        df -h
                                        
                                        da_WoodyD Offline
                                        da_WoodyD Offline
                                        da_Woody
                                        wrote on last edited by
                                        #60

                                        @crunchip so, alles andere abgearbeitet. tasmoadmin tutet auch wieder...
                                        thnx nochmal an alle beteiligten! laola.gif

                                        gruß vom Woody
                                        HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                                        1 Reply Last reply
                                        0
                                        • Thomas BraunT Thomas Braun

                                          @da_woody sagte in [done] Tasmo Admin Problem:

                                          Dann installier php-curl und php-zip noch nach und dann sollte es auch für ein upgrade auf bookworm nächstes Jahr passen. Egal welche php-Version da genau aktuell sein wird.

                                          da_WoodyD Offline
                                          da_WoodyD Offline
                                          da_Woody
                                          wrote on last edited by
                                          #61

                                          @thomas-braun sagte in [wieder erledigt] Tasmo Admin / VM Problem:

                                          @da_woody sagte in [done] Tasmo Admin Problem:

                                          dann sollte es auch für ein upgrade auf bookworm nächstes Jahr passen. Egal welche php-Version da genau aktuell sein wird.

                                          oder so...
                                          nach wurmupdate wieder das selbe. kein zugriff auf tasmoadmin.
                                          firefox:
                                          63821044-064d-40d6-819c-c09b2cc0614f-grafik.png
                                          chrome:
                                          06b03bc5-e439-4537-871e-c74322478296-grafik.png

                                          woody@Debian:~$ apt policy libapache2-mod-php php php-curl php-zip
                                          libapache2-mod-php:
                                            Installiert:           2:8.2+93
                                            Installationskandidat: 2:8.2+93
                                            Versionstabelle:
                                           *** 2:8.2+93 500
                                                  500 http://deb.debian.org/debian bookworm/main amd64 Packages
                                                  100 /var/lib/dpkg/status
                                          php:
                                            Installiert:           2:8.2+93
                                            Installationskandidat: 2:8.2+93
                                            Versionstabelle:
                                           *** 2:8.2+93 500
                                                  500 http://deb.debian.org/debian bookworm/main amd64 Packages
                                                  100 /var/lib/dpkg/status
                                          php-curl:
                                            Installiert:           2:8.2+93
                                            Installationskandidat: 2:8.2+93
                                            Versionstabelle:
                                           *** 2:8.2+93 500
                                                  500 http://deb.debian.org/debian bookworm/main amd64 Packages
                                                  100 /var/lib/dpkg/status
                                          php-zip:
                                            Installiert:           2:8.2+93
                                            Installationskandidat: 2:8.2+93
                                            Versionstabelle:
                                           *** 2:8.2+93 500
                                                  500 http://deb.debian.org/debian bookworm/main amd64 Packages
                                                  100 /var/lib/dpkg/status
                                          woody@Debian:~$
                                          
                                          

                                          gruß vom Woody
                                          HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                                          1 Reply Last reply
                                          0
                                          Reply
                                          • Reply as topic
                                          Log in to reply
                                          • Oldest to Newest
                                          • Newest to Oldest
                                          • Most Votes


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          417

                                          Online

                                          32.4k

                                          Users

                                          81.4k

                                          Topics

                                          1.3m

                                          Posts
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Login

                                          • Don't have an account? Register

                                          • Login or register to search.
                                          • First post
                                            Last post
                                          0
                                          • Recent
                                          • Tags
                                          • Unread 0
                                          • Categories
                                          • Unreplied
                                          • Popular
                                          • GitHub
                                          • Docu
                                          • Hilfe