Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. Microcontroller
  5. erneuert nicht [wieder erledigt] Tasmo Admin / VM Problem

NEWS

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    11
    1
    481

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    24
    1
    1.6k

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    9.6k

erneuert nicht [wieder erledigt] Tasmo Admin / VM Problem

Geplant Angeheftet Gesperrt Verschoben Microcontroller
proxmox 7tasmoadmin
61 Beiträge 6 Kommentatoren 6.1k Aufrufe 5 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • Thomas BraunT Thomas Braun

    @da_woody sagte in [done] Tasmo Admin Problem:

    Dann installier php-curl und php-zip noch nach und dann sollte es auch für ein upgrade auf bookworm nächstes Jahr passen. Egal welche php-Version da genau aktuell sein wird.

    da_WoodyD Offline
    da_WoodyD Offline
    da_Woody
    schrieb am zuletzt editiert von
    #34

    @thomas-braun :clown_face: mach mal!
    ne, im ernst

    sudo apt install -y php-curl
    sudo apt install -y php-zip
    

    ? passt das so?
    ich geh jetzt in die horizontale. das wetter war heute ermüdend... nebenbei komm ich grad vom fussballplatz. so dorfliega spiele können extrem sein... ;)

    gruß vom Woody
    HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

    Thomas BraunT 1 Antwort Letzte Antwort
    0
    • da_WoodyD da_Woody

      @thomas-braun :clown_face: mach mal!
      ne, im ernst

      sudo apt install -y php-curl
      sudo apt install -y php-zip
      

      ? passt das so?
      ich geh jetzt in die horizontale. das wetter war heute ermüdend... nebenbei komm ich grad vom fussballplatz. so dorfliega spiele können extrem sein... ;)

      Thomas BraunT Online
      Thomas BraunT Online
      Thomas Braun
      Most Active
      schrieb am zuletzt editiert von Thomas Braun
      #35

      @da_woody

      Ich würde das -y weg lassen.

      Einzeiler:

      sudo apt install php-curl php-zip
      

      Linux-Werkzeugkasten:
      https://forum.iobroker.net/topic/42952/der-kleine-iobroker-linux-werkzeugkasten
      NodeJS Fixer Skript:
      https://forum.iobroker.net/topic/68035/iob-node-fix-skript
      iob_diag: curl -sLf -o diag.sh https://iobroker.net/diag.sh && bash diag.sh

      da_WoodyD 1 Antwort Letzte Antwort
      1
      • Thomas BraunT Thomas Braun

        @da_woody

        Ich würde das -y weg lassen.

        Einzeiler:

        sudo apt install php-curl php-zip
        
        da_WoodyD Offline
        da_WoodyD Offline
        da_Woody
        schrieb am zuletzt editiert von
        #36

        @thomas-braun sagte in [done] Tasmo Admin Problem:

        sudo apt install php-curl php-zip

        :+1: noch durchgehalten... ;)

        woody@Debian:~$ apt policy libapache2-mod-php php php-curl php-zip
        libapache2-mod-php:
          Installiert:           2:7.4+76
          Installationskandidat: 2:7.4+76
          Versionstabelle:
         *** 2:7.4+76 500
                500 http://ftp.debian.org/debian bullseye/main amd64 Packages
                100 /var/lib/dpkg/status
        php:
          Installiert:           2:7.4+76
          Installationskandidat: 2:7.4+76
          Versionstabelle:
         *** 2:7.4+76 500
                500 http://ftp.debian.org/debian bullseye/main amd64 Packages
                100 /var/lib/dpkg/status
        php-curl:
          Installiert:           2:7.4+76
          Installationskandidat: 2:7.4+76
          Versionstabelle:
         *** 2:7.4+76 500
                500 http://ftp.debian.org/debian bullseye/main amd64 Packages
                100 /var/lib/dpkg/status
        php-zip:
          Installiert:           2:7.4+76
          Installationskandidat: 2:7.4+76
          Versionstabelle:
         *** 2:7.4+76 500
                500 http://ftp.debian.org/debian bullseye/main amd64 Packages
                100 /var/lib/dpkg/status
        woody@Debian:~$
        
        

        würd sagen, bascht...

        gruß vom Woody
        HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

        Thomas BraunT 1 Antwort Letzte Antwort
        0
        • da_WoodyD da_Woody

          @thomas-braun sagte in [done] Tasmo Admin Problem:

          sudo apt install php-curl php-zip

          :+1: noch durchgehalten... ;)

          woody@Debian:~$ apt policy libapache2-mod-php php php-curl php-zip
          libapache2-mod-php:
            Installiert:           2:7.4+76
            Installationskandidat: 2:7.4+76
            Versionstabelle:
           *** 2:7.4+76 500
                  500 http://ftp.debian.org/debian bullseye/main amd64 Packages
                  100 /var/lib/dpkg/status
          php:
            Installiert:           2:7.4+76
            Installationskandidat: 2:7.4+76
            Versionstabelle:
           *** 2:7.4+76 500
                  500 http://ftp.debian.org/debian bullseye/main amd64 Packages
                  100 /var/lib/dpkg/status
          php-curl:
            Installiert:           2:7.4+76
            Installationskandidat: 2:7.4+76
            Versionstabelle:
           *** 2:7.4+76 500
                  500 http://ftp.debian.org/debian bullseye/main amd64 Packages
                  100 /var/lib/dpkg/status
          php-zip:
            Installiert:           2:7.4+76
            Installationskandidat: 2:7.4+76
            Versionstabelle:
           *** 2:7.4+76 500
                  500 http://ftp.debian.org/debian bullseye/main amd64 Packages
                  100 /var/lib/dpkg/status
          woody@Debian:~$
          
          

          würd sagen, bascht...

          Thomas BraunT Online
          Thomas BraunT Online
          Thomas Braun
          Most Active
          schrieb am zuletzt editiert von
          #37

          @da_woody

          Dann kann php8 ja kommen.

          Linux-Werkzeugkasten:
          https://forum.iobroker.net/topic/42952/der-kleine-iobroker-linux-werkzeugkasten
          NodeJS Fixer Skript:
          https://forum.iobroker.net/topic/68035/iob-node-fix-skript
          iob_diag: curl -sLf -o diag.sh https://iobroker.net/diag.sh && bash diag.sh

          da_WoodyD 1 Antwort Letzte Antwort
          1
          • Thomas BraunT Thomas Braun

            @da_woody

            Dann kann php8 ja kommen.

            da_WoodyD Offline
            da_WoodyD Offline
            da_Woody
            schrieb am zuletzt editiert von
            #38

            @thomas-braun irgendwie hauts mir den vogel langsam raus.
            alles funktioniert, alle passt. gestern mal alle backups auf der SSD gelöscht. danach proxmox update durchgeführt.
            was soll ich sagen,
            6cc73ad4-153b-468a-8503-aabd65c76eab-grafik.png
            irre CPU auslastung und influx, grafana und tasmoadmin komm ich nicht mehr rauf. putty ja, aber die GUIs sind nicht mehr erreichbar.
            Fehler: Verbindung fehlgeschlagen
            42d588d3-af76-471a-a3cd-c05e1e950974-grafik.png

            gruß vom Woody
            HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

            Thomas BraunT crunchipC 2 Antworten Letzte Antwort
            0
            • da_WoodyD da_Woody

              @thomas-braun irgendwie hauts mir den vogel langsam raus.
              alles funktioniert, alle passt. gestern mal alle backups auf der SSD gelöscht. danach proxmox update durchgeführt.
              was soll ich sagen,
              6cc73ad4-153b-468a-8503-aabd65c76eab-grafik.png
              irre CPU auslastung und influx, grafana und tasmoadmin komm ich nicht mehr rauf. putty ja, aber die GUIs sind nicht mehr erreichbar.
              Fehler: Verbindung fehlgeschlagen
              42d588d3-af76-471a-a3cd-c05e1e950974-grafik.png

              Thomas BraunT Online
              Thomas BraunT Online
              Thomas Braun
              Most Active
              schrieb am zuletzt editiert von
              #39

              @da_woody

              PruxMurks interessiert mich nicht weiter.

              Linux-Werkzeugkasten:
              https://forum.iobroker.net/topic/42952/der-kleine-iobroker-linux-werkzeugkasten
              NodeJS Fixer Skript:
              https://forum.iobroker.net/topic/68035/iob-node-fix-skript
              iob_diag: curl -sLf -o diag.sh https://iobroker.net/diag.sh && bash diag.sh

              da_WoodyD 1 Antwort Letzte Antwort
              0
              • Thomas BraunT Thomas Braun

                @da_woody

                PruxMurks interessiert mich nicht weiter.

                da_WoodyD Offline
                da_WoodyD Offline
                da_Woody
                schrieb am zuletzt editiert von da_Woody
                #40

                @thomas-braun schon i. o. ...
                hat aber nix mit proxmox zu tun, alle anderen VMs tun ja. wollte nur erleutern, was ich gemacht habe.

                gruß vom Woody
                HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                1 Antwort Letzte Antwort
                0
                • da_WoodyD da_Woody

                  @thomas-braun irgendwie hauts mir den vogel langsam raus.
                  alles funktioniert, alle passt. gestern mal alle backups auf der SSD gelöscht. danach proxmox update durchgeführt.
                  was soll ich sagen,
                  6cc73ad4-153b-468a-8503-aabd65c76eab-grafik.png
                  irre CPU auslastung und influx, grafana und tasmoadmin komm ich nicht mehr rauf. putty ja, aber die GUIs sind nicht mehr erreichbar.
                  Fehler: Verbindung fehlgeschlagen
                  42d588d3-af76-471a-a3cd-c05e1e950974-grafik.png

                  crunchipC Abwesend
                  crunchipC Abwesend
                  crunchip
                  Forum Testing Most Active
                  schrieb am zuletzt editiert von
                  #41

                  @da_woody dann guck doch mal ins proxmox syslog

                  umgestiegen von Proxmox auf Unraid

                  da_WoodyD 1 Antwort Letzte Antwort
                  0
                  • crunchipC crunchip

                    @da_woody dann guck doch mal ins proxmox syslog

                    da_WoodyD Offline
                    da_WoodyD Offline
                    da_Woody
                    schrieb am zuletzt editiert von
                    #42

                    @crunchip pöff. hab die kiste neu gestartet. IMHO hab ich da was ab dem start gefunden. sagt mir aber außer refused nichts.

                    Aug 15 16:13:43 Homeserver pvescheduler[1471]: starting server
                    Aug 15 16:13:43 Homeserver systemd[1]: Started Proxmox VE scheduler.
                    Aug 15 16:13:43 Homeserver systemd[1]: Reached target Multi-User System.
                    Aug 15 16:13:43 Homeserver systemd[1]: Reached target Graphical Interface.
                    Aug 15 16:13:43 Homeserver systemd[1]: Starting Update UTMP about System Runlevel Changes...
                    Aug 15 16:13:43 Homeserver systemd[1]: systemd-update-utmp-runlevel.service: Succeeded.
                    Aug 15 16:13:43 Homeserver systemd[1]: Finished Update UTMP about System Runlevel Changes.
                    Aug 15 16:13:43 Homeserver systemd[1]: Startup finished in 3.794s (kernel) + 25.290s (userspace) = 29.085s.
                    Aug 15 16:13:48 Homeserver systemd-timesyncd[643]: Initial synchronization to time server 185.144.161.170:123 (2.debian.pool.ntp.org).
                    Aug 15 16:13:52 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:13:53 Homeserver systemd[1]: Stopping User Manager for UID 0...
                    Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Main User Target.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Basic System.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Paths.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Sockets.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Timers.
                    Aug 15 16:13:53 Homeserver systemd[1142]: dirmngr.socket: Succeeded.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG network certificate management daemon.
                    Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-browser.socket: Succeeded.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache (access for web browsers).
                    Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-extra.socket: Succeeded.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache (restricted).
                    Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-ssh.socket: Succeeded.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent (ssh-agent emulation).
                    Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent.socket: Succeeded.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Removed slice User Application Slice.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Reached target Shutdown.
                    Aug 15 16:13:53 Homeserver systemd[1142]: systemd-exit.service: Succeeded.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Finished Exit the Session.
                    Aug 15 16:13:53 Homeserver systemd[1142]: Reached target Exit the Session.
                    Aug 15 16:13:53 Homeserver systemd[1143]: pam_unix(systemd-user:session): session closed for user root
                    Aug 15 16:13:53 Homeserver systemd[1]: user@0.service: Succeeded.
                    Aug 15 16:13:53 Homeserver systemd[1]: Stopped User Manager for UID 0.
                    Aug 15 16:13:53 Homeserver systemd[1]: Stopping User Runtime Directory /run/user/0...
                    Aug 15 16:13:53 Homeserver systemd[1]: run-user-0.mount: Succeeded.
                    Aug 15 16:13:53 Homeserver systemd[1]: user-runtime-dir@0.service: Succeeded.
                    Aug 15 16:13:53 Homeserver systemd[1]: Stopped User Runtime Directory /run/user/0.
                    Aug 15 16:13:53 Homeserver systemd[1]: Removed slice User Slice of UID 0.
                    Aug 15 16:14:13 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:14:32 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:14:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:14:42 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:14:52 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:15:02 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:15:32 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:15:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:15:42 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:15:53 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:16:02 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:16:12 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:16:15 Homeserver pvedaemon[1121]: <root@pam> successful auth for user 'root@pam'
                    Aug 15 16:16:19 Homeserver pvedaemon[1120]: <root@pam> successful auth for user 'root@pam'
                    Aug 15 16:16:22 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:16:22 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    Aug 15 16:16:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                    

                    wie gesagt, ioB, Motioneye und PiHole funktionieren. nur die eine VM macht probleme...

                    gruß vom Woody
                    HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                    crunchipC 1 Antwort Letzte Antwort
                    0
                    • da_WoodyD da_Woody

                      @crunchip pöff. hab die kiste neu gestartet. IMHO hab ich da was ab dem start gefunden. sagt mir aber außer refused nichts.

                      Aug 15 16:13:43 Homeserver pvescheduler[1471]: starting server
                      Aug 15 16:13:43 Homeserver systemd[1]: Started Proxmox VE scheduler.
                      Aug 15 16:13:43 Homeserver systemd[1]: Reached target Multi-User System.
                      Aug 15 16:13:43 Homeserver systemd[1]: Reached target Graphical Interface.
                      Aug 15 16:13:43 Homeserver systemd[1]: Starting Update UTMP about System Runlevel Changes...
                      Aug 15 16:13:43 Homeserver systemd[1]: systemd-update-utmp-runlevel.service: Succeeded.
                      Aug 15 16:13:43 Homeserver systemd[1]: Finished Update UTMP about System Runlevel Changes.
                      Aug 15 16:13:43 Homeserver systemd[1]: Startup finished in 3.794s (kernel) + 25.290s (userspace) = 29.085s.
                      Aug 15 16:13:48 Homeserver systemd-timesyncd[643]: Initial synchronization to time server 185.144.161.170:123 (2.debian.pool.ntp.org).
                      Aug 15 16:13:52 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:13:53 Homeserver systemd[1]: Stopping User Manager for UID 0...
                      Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Main User Target.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Basic System.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Paths.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Sockets.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Stopped target Timers.
                      Aug 15 16:13:53 Homeserver systemd[1142]: dirmngr.socket: Succeeded.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG network certificate management daemon.
                      Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-browser.socket: Succeeded.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache (access for web browsers).
                      Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-extra.socket: Succeeded.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache (restricted).
                      Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent-ssh.socket: Succeeded.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent (ssh-agent emulation).
                      Aug 15 16:13:53 Homeserver systemd[1142]: gpg-agent.socket: Succeeded.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Closed GnuPG cryptographic agent and passphrase cache.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Removed slice User Application Slice.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Reached target Shutdown.
                      Aug 15 16:13:53 Homeserver systemd[1142]: systemd-exit.service: Succeeded.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Finished Exit the Session.
                      Aug 15 16:13:53 Homeserver systemd[1142]: Reached target Exit the Session.
                      Aug 15 16:13:53 Homeserver systemd[1143]: pam_unix(systemd-user:session): session closed for user root
                      Aug 15 16:13:53 Homeserver systemd[1]: user@0.service: Succeeded.
                      Aug 15 16:13:53 Homeserver systemd[1]: Stopped User Manager for UID 0.
                      Aug 15 16:13:53 Homeserver systemd[1]: Stopping User Runtime Directory /run/user/0...
                      Aug 15 16:13:53 Homeserver systemd[1]: run-user-0.mount: Succeeded.
                      Aug 15 16:13:53 Homeserver systemd[1]: user-runtime-dir@0.service: Succeeded.
                      Aug 15 16:13:53 Homeserver systemd[1]: Stopped User Runtime Directory /run/user/0.
                      Aug 15 16:13:53 Homeserver systemd[1]: Removed slice User Slice of UID 0.
                      Aug 15 16:14:13 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:14:32 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:14:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:14:42 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:14:52 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:15:02 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:15:32 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:15:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:15:42 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:15:53 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:16:02 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:16:12 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:16:15 Homeserver pvedaemon[1121]: <root@pam> successful auth for user 'root@pam'
                      Aug 15 16:16:19 Homeserver pvedaemon[1120]: <root@pam> successful auth for user 'root@pam'
                      Aug 15 16:16:22 Homeserver pvestatd[1100]: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:16:22 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      Aug 15 16:16:32 Homeserver pvestatd[1100]: qemu status update error: metrics send error 'Proxmox': failed to send metrics: Connection refused
                      

                      wie gesagt, ioB, Motioneye und PiHole funktionieren. nur die eine VM macht probleme...

                      crunchipC Abwesend
                      crunchipC Abwesend
                      crunchip
                      Forum Testing Most Active
                      schrieb am zuletzt editiert von
                      #43

                      @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                      nur die eine VM macht probleme

                      und was zeigt die im Log

                      umgestiegen von Proxmox auf Unraid

                      da_WoodyD 1 Antwort Letzte Antwort
                      0
                      • crunchipC crunchip

                        @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                        nur die eine VM macht probleme

                        und was zeigt die im Log

                        da_WoodyD Offline
                        da_WoodyD Offline
                        da_Woody
                        schrieb am zuletzt editiert von
                        #44

                        @crunchip sorry, irgendwie hab ich irgendwie knopf im kopf. :(
                        wie komm ich da ran? in der proxmox verwaltung fin ich nixhts.

                        gruß vom Woody
                        HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                        crunchipC 1 Antwort Letzte Antwort
                        0
                        • da_WoodyD da_Woody

                          @crunchip sorry, irgendwie hab ich irgendwie knopf im kopf. :(
                          wie komm ich da ran? in der proxmox verwaltung fin ich nixhts.

                          crunchipC Abwesend
                          crunchipC Abwesend
                          crunchip
                          Forum Testing Most Active
                          schrieb am zuletzt editiert von
                          #45

                          @da_woody na wie auf jeder Maschine, im Verzeichnis /var/log/ findest du alle Möglichen Logs, daemon, dpkg, kern, syslog...

                          umgestiegen von Proxmox auf Unraid

                          da_WoodyD 1 Antwort Letzte Antwort
                          0
                          • crunchipC crunchip

                            @da_woody na wie auf jeder Maschine, im Verzeichnis /var/log/ findest du alle Möglichen Logs, daemon, dpkg, kern, syslog...

                            da_WoodyD Offline
                            da_WoodyD Offline
                            da_Woody
                            schrieb am zuletzt editiert von
                            #46

                            @crunchip sag ja, knopf im kopf...
                            hab mal ins syslog reingelinst. anscheinend hab mal zu spät backups gelöscht.

                            Aug 14 00:01:52 Debian systemd[1]: logrotate.service: Succeeded.
                            AAug 14 00:01:52 Debian systemd[1]: rsyslog.service: Sent signal SIGHUP to main process 393 (rsyslogd) on client request.
                            ug 14 00:01:52 Debian systemd[1]: Finished Rotate log files.
                            Aug 14 00:01:52 Debian systemd[1]: logrotate.service: Consumed 1min 23.487s CPU time.
                            Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.860429Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                            Aug 14 00:01:52 Debian influxd[390]: [httpd] 192.168.0.250 - admin [14/Aug/2022:00:01:52 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 89ed0b16-1b53-11ed-96f0-76946d14c247 266
                            Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.860518Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
                            Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861155Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                            Aug 14 00:01:52 Debian influxd[390]: [httpd] 192.168.0.250 - admin [14/Aug/2022:00:01:52 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 89ed27ab-1b53-11ed-96f1-76946d14c247 258
                            Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861244Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
                            Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861587Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                            
                            

                            beim reinschauen in syslog.1 hab ich den anfang vom ende gefunden.

                            Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7d8d8b-1b4f-11ed-85bf-76946d14c247 30988
                            Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7ec94d-1b4f-11ed-85c1-76946d14c247 23024
                            Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7e6425-1b4f-11ed-85c0-76946d14c247 25475
                            Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7f277c-1b4f-11ed-85c2-76946d14c247 20685
                            Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3cbaa433-1b4f-11ed-85c4-76946d14c247 17374
                            Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376113Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                            Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 3cbd0265-1b4f-11ed-85cb-76946d14c247 2260
                            Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376245Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
                            Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376378Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                            Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 3cbab4d7-1b4f-11ed-85c5-76946d14c247 17557
                            
                            

                            und ich volltrottel hab, nachdem alles wieder funktioniert hat zusammengeräumt und, entgegen meiner sonstigen gewohnheit die letzte sicherung stehn zu lassen, alle backups gelöscht... :face_with_head_bandage:

                            gruß vom Woody
                            HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                            crunchipC 1 Antwort Letzte Antwort
                            0
                            • da_WoodyD da_Woody

                              @crunchip sag ja, knopf im kopf...
                              hab mal ins syslog reingelinst. anscheinend hab mal zu spät backups gelöscht.

                              Aug 14 00:01:52 Debian systemd[1]: logrotate.service: Succeeded.
                              AAug 14 00:01:52 Debian systemd[1]: rsyslog.service: Sent signal SIGHUP to main process 393 (rsyslogd) on client request.
                              ug 14 00:01:52 Debian systemd[1]: Finished Rotate log files.
                              Aug 14 00:01:52 Debian systemd[1]: logrotate.service: Consumed 1min 23.487s CPU time.
                              Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.860429Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                              Aug 14 00:01:52 Debian influxd[390]: [httpd] 192.168.0.250 - admin [14/Aug/2022:00:01:52 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 89ed0b16-1b53-11ed-96f0-76946d14c247 266
                              Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.860518Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
                              Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861155Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                              Aug 14 00:01:52 Debian influxd[390]: [httpd] 192.168.0.250 - admin [14/Aug/2022:00:01:52 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 89ed27ab-1b53-11ed-96f1-76946d14c247 258
                              Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861244Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
                              Aug 14 00:01:52 Debian influxd[390]: ts=2022-08-13T22:01:52.861587Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                              
                              

                              beim reinschauen in syslog.1 hab ich den anfang vom ende gefunden.

                              Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7d8d8b-1b4f-11ed-85bf-76946d14c247 30988
                              Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7ec94d-1b4f-11ed-85c1-76946d14c247 23024
                              Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7e6425-1b4f-11ed-85c0-76946d14c247 25475
                              Aug 13 23:31:04 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:04 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3c7f277c-1b4f-11ed-85c2-76946d14c247 20685
                              Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 204 0 "-" "-" 3cbaa433-1b4f-11ed-85c4-76946d14c247 17374
                              Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376113Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                              Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 3cbd0265-1b4f-11ed-85cb-76946d14c247 2260
                              Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376245Z lvl=error msg="[500] - \"engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device\"" log_id=0cHFWMF0000 service=httpd
                              Aug 13 23:31:05 Debian influxd[390]: ts=2022-08-13T21:31:05.376378Z lvl=info msg="Write failed" log_id=0cHFWMF0000 service=write shard=694 error="engine: error writing WAL entry: write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"
                              Aug 13 23:31:05 Debian influxd[390]: [httpd] 192.168.0.250 - admin [13/Aug/2022:23:31:05 +0200] "POST /write?database=Drassburg&db=Drassburg&p=%5BREDACTED%5D&precision=ms&u=admin HTTP/1.1" 500 131 "-" "-" 3cbab4d7-1b4f-11ed-85c5-76946d14c247 17557
                              
                              

                              und ich volltrottel hab, nachdem alles wieder funktioniert hat zusammengeräumt und, entgegen meiner sonstigen gewohnheit die letzte sicherung stehn zu lassen, alle backups gelöscht... :face_with_head_bandage:

                              crunchipC Abwesend
                              crunchipC Abwesend
                              crunchip
                              Forum Testing Most Active
                              schrieb am zuletzt editiert von
                              #47

                              @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                              write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"

                              na so wie es aussieht hast du da eigentlich nur ein kleines Platzproblem, deine Influxdb ist halt gewachsen. Wie groß ist denn die VM

                              umgestiegen von Proxmox auf Unraid

                              da_WoodyD 1 Antwort Letzte Antwort
                              0
                              • crunchipC crunchip

                                @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                write /var/lib/influxdb/wal/Drassburg/autogen/694/_00187.wal: no space left on device"

                                na so wie es aussieht hast du da eigentlich nur ein kleines Platzproblem, deine Influxdb ist halt gewachsen. Wie groß ist denn die VM

                                da_WoodyD Offline
                                da_WoodyD Offline
                                da_Woody
                                schrieb am zuletzt editiert von
                                #48

                                @crunchip d716373e-f817-44fa-8540-66c980aa0a2b-grafik.png

                                gruß vom Woody
                                HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                                crunchipC 1 Antwort Letzte Antwort
                                0
                                • da_WoodyD da_Woody

                                  @crunchip d716373e-f817-44fa-8540-66c980aa0a2b-grafik.png

                                  crunchipC Abwesend
                                  crunchipC Abwesend
                                  crunchip
                                  Forum Testing Most Active
                                  schrieb am zuletzt editiert von crunchip
                                  #49

                                  @da_woody so sieht man nur das deine Ram Auslastung am Limit ist
                                  auf der VM

                                  df -h
                                  

                                  bzw Datenbankgröße

                                  sudo du -sh /var/lib/influxdb/data/
                                  

                                  umgestiegen von Proxmox auf Unraid

                                  da_WoodyD 1 Antwort Letzte Antwort
                                  0
                                  • crunchipC crunchip

                                    @da_woody so sieht man nur das deine Ram Auslastung am Limit ist
                                    auf der VM

                                    df -h
                                    

                                    bzw Datenbankgröße

                                    sudo du -sh /var/lib/influxdb/data/
                                    
                                    da_WoodyD Offline
                                    da_WoodyD Offline
                                    da_Woody
                                    schrieb am zuletzt editiert von da_Woody
                                    #50

                                    @crunchip sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                    woody@Debian:~$ df -h
                                    Dateisystem    Größe Benutzt Verf. Verw% Eingehängt auf
                                    udev            2,9G       0  2,9G    0% /dev
                                    tmpfs           595M     60M  535M   11% /run
                                    /dev/sda1        28G     28G     0  100% /
                                    tmpfs           3,0G       0  3,0G    0% /dev/shm
                                    tmpfs           5,0M       0  5,0M    0% /run/lock
                                    tmpfs           595M       0  595M    0% /run/user/1000
                                    woody@Debian:~$ sudo du -sh /var/lib/influxdb/data/
                                    [sudo] Passwort für woody:
                                    7,4G    /var/lib/influxdb/data/
                                    woody@Debian:~$
                                    
                                    

                                    gruß vom Woody
                                    HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                                    crunchipC 1 Antwort Letzte Antwort
                                    0
                                    • da_WoodyD da_Woody

                                      @crunchip sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                      woody@Debian:~$ df -h
                                      Dateisystem    Größe Benutzt Verf. Verw% Eingehängt auf
                                      udev            2,9G       0  2,9G    0% /dev
                                      tmpfs           595M     60M  535M   11% /run
                                      /dev/sda1        28G     28G     0  100% /
                                      tmpfs           3,0G       0  3,0G    0% /dev/shm
                                      tmpfs           5,0M       0  5,0M    0% /run/lock
                                      tmpfs           595M       0  595M    0% /run/user/1000
                                      woody@Debian:~$ sudo du -sh /var/lib/influxdb/data/
                                      [sudo] Passwort für woody:
                                      7,4G    /var/lib/influxdb/data/
                                      woody@Debian:~$
                                      
                                      
                                      crunchipC Abwesend
                                      crunchipC Abwesend
                                      crunchip
                                      Forum Testing Most Active
                                      schrieb am zuletzt editiert von crunchip
                                      #51

                                      @da_woody kann es sein das du die VM in Proxmox vergössert hast? denn da steht 100 GB, du hast aber nur

                                      @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                      /dev/sda1 28G 28G 0 100% /

                                      und die is VOLL

                                      das heisst, du musst auch das Dateisystem erweitern, damit die 100GB erkannt werden
                                      https://blog.bastii717.dev/speicherplatz-der-festplatte-erweitern/

                                      umgestiegen von Proxmox auf Unraid

                                      da_WoodyD 1 Antwort Letzte Antwort
                                      0
                                      • crunchipC crunchip

                                        @da_woody kann es sein das du die VM in Proxmox vergössert hast? denn da steht 100 GB, du hast aber nur

                                        @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                        /dev/sda1 28G 28G 0 100% /

                                        und die is VOLL

                                        das heisst, du musst auch das Dateisystem erweitern, damit die 100GB erkannt werden
                                        https://blog.bastii717.dev/speicherplatz-der-festplatte-erweitern/

                                        da_WoodyD Offline
                                        da_WoodyD Offline
                                        da_Woody
                                        schrieb am zuletzt editiert von
                                        #52

                                        @crunchip das hat mich auch irgendwie verwirrt. allerdings wurden die 100GB beim erstellen angegeben soweit ich mich erinnern kann. hab das jetzt mal auf 180GB vergrössert sinnloser weise.
                                        der beitrag ist gut geschrieben, allerdings gibts fdisk -l, parted und co. in meinem debian nicht...

                                        gruß vom Woody
                                        HAPPINESS is not a DESTINATION, it's a WAY of LIFE!

                                        crunchipC 1 Antwort Letzte Antwort
                                        0
                                        • da_WoodyD da_Woody

                                          @crunchip das hat mich auch irgendwie verwirrt. allerdings wurden die 100GB beim erstellen angegeben soweit ich mich erinnern kann. hab das jetzt mal auf 180GB vergrössert sinnloser weise.
                                          der beitrag ist gut geschrieben, allerdings gibts fdisk -l, parted und co. in meinem debian nicht...

                                          crunchipC Abwesend
                                          crunchipC Abwesend
                                          crunchip
                                          Forum Testing Most Active
                                          schrieb am zuletzt editiert von crunchip
                                          #53

                                          @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                          hab das jetzt mal auf 180GB vergrössert sinnloser weise.

                                          warum machst du das, bedenke das ist begrenzt, deine Gesamtplatte/LVM ist wie groß?
                                          sonst bekommst du die selben Probleme wie hier, https://forum.iobroker.net/post/795353

                                          @da_woody sagte in [wieder geöffnet] Tasmo Admin / VM Problem:

                                          allerdings gibts fdisk -l, parted und co

                                          kannst du nachinstallieren

                                          alternativ kannst du es auch mit einer iso machen, siehe https://beyond.lol/disk-einer-vm-vergroessern-in-proxmox/#:~:text=Als erstes loggen wir uns,man die Disk vergrössern möchte

                                          umgestiegen von Proxmox auf Unraid

                                          da_WoodyD 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate

                                          344

                                          Online

                                          32.5k

                                          Benutzer

                                          81.8k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe