Navigation

    Logo
    • Register
    • Login
    • Search
    • Recent
    • Tags
    • Unread
    • Categories
    • Unreplied
    • Popular
    • GitHub
    • Docu
    • Hilfe
    1. Home
    2. Deutsch
    3. Off Topic
    4. Microcontroller
    5. erneuert nicht [wieder erledigt] Tasmo Admin / VM Problem

    NEWS

    • ioBroker goes Matter ... Matter Adapter in Stable

    • Monatsrückblick - April 2025

    • Minor js-controller 7.0.7 Update in latest repo

    erneuert nicht [wieder erledigt] Tasmo Admin / VM Problem

    This topic has been deleted. Only users with topic management privileges can see it.
    • da_Woody
      da_Woody @Thomas Braun last edited by

      @thomas-braun sagte in [done] Tasmo Admin Problem:

      apt policy libapache2-mod-php php php-curl php-zip

      sorry, heute keine zeit gehabt...

      woody@Debian:~$ apt policy libapache2-mod-php php php-curl php-zip
      libapache2-mod-php:
        Installiert:           2:7.4+76
        Installationskandidat: 2:7.4+76
        Versionstabelle:
       *** 2:7.4+76 500
              500 http://ftp.debian.org/debian bullseye/main amd64 Packages
              100 /var/lib/dpkg/status
      php:
        Installiert:           2:7.4+76
        Installationskandidat: 2:7.4+76
        Versionstabelle:
       *** 2:7.4+76 500
              500 http://ftp.debian.org/debian bullseye/main amd64 Packages
              100 /var/lib/dpkg/status
      php-curl:
        Installiert:           (keine)
        Installationskandidat: 2:7.4+76
        Versionstabelle:
           2:7.4+76 500
              500 http://ftp.debian.org/debian bullseye/main amd64 Packages
      php-zip:
        Installiert:           (keine)
        Installationskandidat: 2:7.4+76
        Versionstabelle:
           2:7.4+76 500
              500 http://ftp.debian.org/debian bullseye/main amd64 Packages
      woody@Debian:~$
      
      

      das mit draufhauen ist halt mein wiener humor. das darfst du nicht so ernst nehmen. 🙂
      dank dir und anderen hab ich ja schon viel gelernt. aber als DOS und WIN gelernter fehlt da noch einiges.
      das feine hier, man darf auch dämliche fragen stellen, ohne nieder gemacht zu werden. 👍

      Thomas Braun 1 Reply Last reply Reply Quote 0
      • Thomas Braun
        Thomas Braun Most Active @da_Woody last edited by Thomas Braun

        @da_woody sagte in [done] Tasmo Admin Problem:

        Dann installier php-curl und php-zip noch nach und dann sollte es auch für ein upgrade auf bookworm nächstes Jahr passen. Egal welche php-Version da genau aktuell sein wird.

        da_Woody 2 Replies Last reply Reply Quote 0
        • da_Woody
          da_Woody @Thomas Braun last edited by

          @thomas-braun 🤡 mach mal!
          ne, im ernst

          sudo apt install -y php-curl
          sudo apt install -y php-zip
          

          ? passt das so?
          ich geh jetzt in die horizontale. das wetter war heute ermüdend... nebenbei komm ich grad vom fussballplatz. so dorfliega spiele können extrem sein... 😉

          Thomas Braun 1 Reply Last reply Reply Quote 0
          • Thomas Braun
            Thomas Braun Most Active @da_Woody last edited by Thomas Braun

            @da_woody

            Ich würde das -y weg lassen.

            Einzeiler:

            sudo apt install php-curl php-zip
            
            da_Woody 1 Reply Last reply Reply Quote 1
            • da_Woody
              da_Woody @Thomas Braun last edited by

              @thomas-braun sagte in [done] Tasmo Admin Problem:

              sudo apt install php-curl php-zip

              👍 noch durchgehalten... 😉

              woody@Debian:~$ apt policy libapache2-mod-php php php-curl php-zip
              libapache2-mod-php:
                Installiert:           2:7.4+76
                Installationskandidat: 2:7.4+76
                Versionstabelle:
               *** 2:7.4+76 500
                      500 http://ftp.debian.org/debian bullseye/main amd64 Packages
                      100 /var/lib/dpkg/status
              php:
                Installiert:           2:7.4+76
                Installationskandidat: 2:7.4+76
                Versionstabelle:
               *** 2:7.4+76 500
                      500 http://ftp.debian.org/debian bullseye/main amd64 Packages
                      100 /var/lib/dpkg/status
              php-curl:
                Installiert:           2:7.4+76
                Installationskandidat: 2:7.4+76
                Versionstabelle:
               *** 2:7.4+76 500
                      500 http://ftp.debian.org/debian bullseye/main amd64 Packages
                      100 /var/lib/dpkg/status
              php-zip:
                Installiert:           2:7.4+76
                Installationskandidat: 2:7.4+76
                Versionstabelle:
               *** 2:7.4+76 500
                      500 http://ftp.debian.org/debian bullseye/main amd64 Packages
                      100 /var/lib/dpkg/status
              woody@Debian:~$
              
              

              würd sagen, bascht...

              Thomas Braun 1 Reply Last reply Reply Quote 0
              • Thomas Braun
                Thomas Braun Most Active @da_Woody last edited by

                @da_woody

                Dann kann php8 ja kommen.

                da_Woody 1 Reply Last reply Reply Quote 1
                • da_Woody
                  da_Woody @Thomas Braun last edited by

                  @thomas-braun irgendwie hauts mir den vogel langsam raus.
                  alles funktioniert, alle passt. gestern mal alle backups auf der SSD gelöscht. danach proxmox update durchgeführt.
                  was soll ich sagen,
                  6cc73ad4-153b-468a-8503-aabd65c76eab-grafik.png
                  irre CPU auslastung und influx, grafana und tasmoadmin komm ich nicht mehr rauf. putty ja, aber die GUIs sind nicht mehr erreichbar.
                  Fehler: Verbindung fehlgeschlagen
                  42d588d3-af76-471a-a3cd-c05e1e950974-grafik.png

                  Thomas Braun crunchip 2 Replies Last reply Reply Quote 0
                  • Thomas Braun
                    Thomas Braun Most Active @da_Woody last edited by

                    @da_woody

                    PruxMurks interessiert mich nicht weiter.

                    da_Woody 1 Reply Last reply Reply Quote 0
                    • da_Woody
                      da_Woody @Thomas Braun last edited by da_Woody

                      @thomas-braun schon i. o. ...
                      hat aber nix mit proxmox zu tun, alle anderen VMs tun ja. wollte nur erleutern, was ich gemacht habe.

                      1 Reply Last reply Reply Quote 0
                      • crunchip
                        crunchip Forum Testing Most Active @da_Woody last edited by

                        @da_woody dann guck doch mal ins proxmox syslog

                        da_Woody 1 Reply Last reply Reply Quote 0
                        • da_Woody
                          da_Woody @crunchip last edited by

                          @crunchip pöff. hab die kiste neu gestartet. IMHO hab ich da was ab dem start gefunden. sagt mir aber außer refused nichts.

                          Aug 15 16:13:43 Homeserver pvescheduler[1471]: starting server
                          Aug 15 16:13:43 Homeserver systemd[1]: Started Proxmox VE scheduler.
                          Aug 15 16:13:43 Homeserver systemd[1]: Reached target Multi-User System.
                          Aug 15 16:13:43 Homeserver systemd[1]: Reached target Graphical Interface.
                          Aug 15 16:13:43 Homeserver systemd[1]: Starting Update UTMP about System Runlevel Changes...
                          Aug 15 16:13:43 Homeserver systemd[1]: systemd-update-utmp-runlevel.service: Succeeded.
                          Aug 15 16:13:43 Homeserver systemd[1]: Finished Update UTMP about System Runlevel Changes.
                          Aug 15 16:13:43 Homeserver systemd[1]: Startup finished in 3.794s (kernel) + 25.290s (userspace) = 29.085s.
                          Aug 15 16:13:48 Homeserver systemd-timesyncd[643]: Initial synchronization to time server 185.144.161.170:123 (2.debian.pool.ntp.org).
                          Aug 15 16:13:52 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:13:53 Homeserver systemd[1]: Stopping User Manager for UID 0...
                          Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Main User Target.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Basic System.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Paths.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Sockets.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Timers.
                          Aug 15 16:13:53 Homeserver systemd[1142]: dirmngr.socket: Succeeded.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG network certificate management daemon.
                          Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-browser.socket: Succeeded.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache (access for web browsers).
                          Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-extra.socket: Succeeded.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache (restricted).
                          Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-ssh.socket: Succeeded.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent (ssh-agent emulation).
                          Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent.socket: Succeeded.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Removed slice User Application Slice.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Reached target Shutdown.
                          Aug 15 16:13:53 Homeserver systemd[1142]: systemd-exit.service: Succeeded.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Finished Exit the Session.
                          Aug 15 16:13:53 Homeserver systemd[1142]: Reached target Exit the Session.
                          Aug 15 16:13:53 Homeserver systemd[1143]: pam_unix(systemd-user:session): session closed for user root
                          Aug 15 16:13:53 Homeserver systemd[1]: user@0.service: Succeeded.
                          Aug 15 16:13:53 Homeserver systemd[1]: Stopped User Manager for UID 0.
                          Aug 15 16:13:53 Homeserver systemd[1]: Stopping User Runtime Directory /run/user/0...
                          Aug 15 16:13:53 Homeserver systemd[1]: run-user-0.mount: Succeeded.
                          Aug 15 16:13:53 Homeserver systemd[1]: user-runtime-dir@0.service: Succeeded.
                          Aug 15 16:13:53 Homeserver systemd[1]: Stopped User Runtime Directory /run/user/0.
                          Aug 15 16:13:53 Homeserver systemd[1]: Removed slice User Slice of UID 0.
                          Aug 15 16:14:13 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:14:32 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:14:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:14:42 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:14:52 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:15:02 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:15:32 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:15:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:15:42 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:15:53 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:16:02 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:16:12 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:16:15 Homeserver pvedaemon[1121]: <root@pam> successful auth for user 'root@pam'
                          Aug 15 16:16:19 Homeserver pvedaemon[1120]: <root@pam> successful auth for user 'root@pam'
                          Aug 15 16:16:22 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:16:22 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          Aug 15 16:16:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                          

                          wie gesagt, ioB, Motioneye und PiHole funktionieren. nur die eine VM macht probleme...

                          crunchip 1 Reply Last reply Reply Quote 0
                          • crunchip
                            crunchip Forum Testing Most Active @da_Woody last edited by

                            @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                            nur die eine VM macht probleme

                            und was zeigt die im Log

                            da_Woody 1 Reply Last reply Reply Quote 0
                            • da_Woody
                              da_Woody @crunchip last edited by

                              @crunchip sorry, irgendwie hab ich irgendwie knopf im kopf. 😞
                              wie komm ich da ran? in der proxmox verwaltung fin ich nixhts.

                              crunchip 1 Reply Last reply Reply Quote 0
                              • crunchip
                                crunchip Forum Testing Most Active @da_Woody last edited by

                                @da_woody na wie auf jeder Maschine, im Verzeichnis /var/log/ findest du alle Möglichen Logs, daemon, dpkg, kern, syslog...

                                da_Woody 1 Reply Last reply Reply Quote 0
                                • da_Woody
                                  da_Woody @crunchip last edited by

                                  @crunchip sag ja, knopf im kopf...
                                  hab mal ins syslog reingelinst. anscheinend hab mal zu spät backups gelöscht.

                                  Aug 14 00:01:52 Debian systemd[1]: logrotate.service: Succeeded.
                                  AAug 14 00:01:52 Debian systemd[1]: rsyslog.service: Sent signal SIGHUP to main process 393 (rsyslogd) on client request.
                                  ug 14 00:01:52 Debian systemd[1]: Finished Rotate log files.
                                  Aug 14 00:01:52 Debian systemd[1]: logrotate.service: Consumed 1min 23.487s CPU time.
                                  Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.860429Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                                  Aug 14 00:01:52 Debian influxd[390]: [httpd] 192.168.0.250 - admin [14/Aug/2022:00:01:52 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 89ed0b16-1b53-11ed-96f0-76946d14c247 266
                                  Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.860518Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
                                  Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861155Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                                  Aug 14 00:01:52 Debian influxd[390]: [httpd] 192.168.0.250 - admin [14/Aug/2022:00:01:52 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 89ed27ab-1b53-11ed-96f1-76946d14c247 258
                                  Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861244Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
                                  Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861587Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                                  
                                  

                                  beim reinschauen in syslog.1 hab ich den anfang vom ende gefunden.

                                  Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7d8d8b-1b4f-11ed-85bf-76946d14c247 30988
                                  Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7ec94d-1b4f-11ed-85c1-76946d14c247 23024
                                  Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7e6425-1b4f-11ed-85c0-76946d14c247 25475
                                  Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7f277c-1b4f-11ed-85c2-76946d14c247 20685
                                  Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3cbaa433-1b4f-11ed-85c4-76946d14c247 17374
                                  Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376113Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                                  Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 3cbd0265-1b4f-11ed-85cb-76946d14c247 2260
                                  Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376245Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
                                  Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376378Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                                  Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 3cbab4d7-1b4f-11ed-85c5-76946d14c247 17557
                                  
                                  

                                  und ich volltrottel hab, nachdem alles wieder funktioniert hat zusammengeräumt und, entgegen meiner sonstigen gewohnheit die letzte sicherung stehn zu lassen, alle backups gelöscht... 🤕

                                  crunchip 1 Reply Last reply Reply Quote 0
                                  • crunchip
                                    crunchip Forum Testing Most Active @da_Woody last edited by

                                    @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                    write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"

                                    na so wie es aussieht hast du da eigentlich nur ein kleines Platzproblem, deine Influxdb ist halt gewachsen. Wie groß ist denn die VM

                                    da_Woody 1 Reply Last reply Reply Quote 0
                                    • da_Woody
                                      da_Woody @crunchip last edited by

                                      @crunchip d716373e-f817-44fa-8540-66c980aa0a2b-grafik.png

                                      crunchip 1 Reply Last reply Reply Quote 0
                                      • crunchip
                                        crunchip Forum Testing Most Active @da_Woody last edited by crunchip

                                        @da_woody so sieht man nur das deine Ram Auslastung am Limit ist
                                        auf der VM

                                        df -h
                                        

                                        bzw Datenbankgröße

                                        sudo du -sh /var/lib/influxdb/data/
                                        
                                        da_Woody 1 Reply Last reply Reply Quote 0
                                        • da_Woody
                                          da_Woody @crunchip last edited by da_Woody

                                          @crunchip sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                          woody@Debian:~$ df -h
                                          Dateisystem    Größe Benutzt Verf. Verw% Eingehängt auf
                                          udev            2,9G       0  2,9G    0% /dev
                                          tmpfs           595M     60M  535M   11% /run
                                          /dev/sda1        28G     28G     0  100% /
                                          tmpfs           3,0G       0  3,0G    0% /dev/shm
                                          tmpfs           5,0M       0  5,0M    0% /run/lock
                                          tmpfs           595M       0  595M    0% /run/user/1000
                                          woody@Debian:~$ sudo du -sh /var/lib/influxdb/data/
                                          [sudo] Passwort für woody:
                                          7,4G    /var/lib/influxdb/data/
                                          woody@Debian:~$
                                          
                                          
                                          crunchip 1 Reply Last reply Reply Quote 0
                                          • crunchip
                                            crunchip Forum Testing Most Active @da_Woody last edited by crunchip

                                            @da_woody kann es sein das du die VM in Proxmox vergössert hast? denn da steht 100 GB, du hast aber nur

                                            @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                            /dev/sda1 28G 28G 0 100% /

                                            und die is VOLL

                                            das heisst, du musst auch das Dateisystem erweitern, damit die 100GB erkannt werden
                                            https://blog.bastii717.dev/speicherplatz-der-festplatte-erweitern/

                                            da_Woody 1 Reply Last reply Reply Quote 0
                                            • First post
                                              Last post

                                            Support us

                                            ioBroker
                                            Community Adapters
                                            Donate

                                            917
                                            Online

                                            31.6k
                                            Users

                                            79.5k
                                            Topics

                                            1.3m
                                            Posts

                                            proxmox 7 tasmoadmin
                                            6
                                            61
                                            3015
                                            Loading More Posts
                                            • Oldest to Newest
                                            • Newest to Oldest
                                            • Most Votes
                                            Reply
                                            • Reply as topic
                                            Log in to reply
                                            Community
                                            Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                                            The ioBroker Community 2014-2023
                                            logo