Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Praktische Anwendungen (Showcase)
  4. USB Switch zwischen zwei NUC Eigenbau

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    13
    1
    122

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    11
    1
    562

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    24
    1
    1.7k

USB Switch zwischen zwei NUC Eigenbau

Geplant Angeheftet Gesperrt Verschoben Praktische Anwendungen (Showcase)
14 Beiträge 6 Kommentatoren 1.3k Aufrufe 8 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • S saeft_2003

    @arteck

    Kann ich machen sieht aber nicht besonders schön aus 🙈

    F137A188-FC40-4328-8330-A9A36980071C.jpeg

    Dr. BakteriusD Online
    Dr. BakteriusD Online
    Dr. Bakterius
    Most Active
    schrieb am zuletzt editiert von
    #5

    @saeft_2003 Cool. Und wie sieht das mit der Datenübertragung aus? Ist ja nicht geschirmt und da können so einige Interferenzen entstehen.

    S 1 Antwort Letzte Antwort
    0
    • Dr. BakteriusD Dr. Bakterius

      @saeft_2003 Cool. Und wie sieht das mit der Datenübertragung aus? Ist ja nicht geschirmt und da können so einige Interferenzen entstehen.

      S Offline
      S Offline
      saeft_2003
      Most Active
      schrieb am zuletzt editiert von
      #6

      @dr-bakterius

      Das ganze läuft jetzt seit 2 Wochen und ich konnte keine Probleme feststellen. Vielleicht machen die 15cm ungeschirmt nicht so viel aus?

      Das eine ist für Smartmeter wo sekündlich Daten rein kommen und der andere ist für ein Homematic RF Stick wo auch viel drüber geht. Wie gesagt alles läuft.

      1 Antwort Letzte Antwort
      0
      • S saeft_2003

        Falls irgendwer Interesse an dem Skript (blockly) hat wo automatisch proxmox backup zurückspielt dann bitte melden.

        chraltC Offline
        chraltC Offline
        chralt
        schrieb am zuletzt editiert von
        #7

        @saeft_2003
        Hallo,

        ich habe eine ähnliche Konfiguration mit 1 NUC und 1 GEEK (ist praktisch dasselbe) beide auch mit Proxmox.

        Ich habe aktuell meine VM/CT auf beide Rechner gleichmäßig verteilt, also WEB-Server mit NC, iobroker, Grafana, InfluxDB, Dateiserver Musik/Film/Fotoserver, MariaDB, ....
        Meine Rechner hängen an einer SUV, aber nur einer wird, nach dem wieder Strom da ist, auch wieder eingeschaltet.
        Ich sichere das Ganze bisher eher sporadisch und auch nur manuell.

        Der Raspi mit CCU3 hängt mal ganz woanders.

        Daher interessiert mich das Skript.

        Gruß und vielen Dank im Voraus!

        Raspi 4B 8GB; iobroker & CCU3 auf Raspi

        S 2 Antworten Letzte Antwort
        0
        • chraltC chralt

          @saeft_2003
          Hallo,

          ich habe eine ähnliche Konfiguration mit 1 NUC und 1 GEEK (ist praktisch dasselbe) beide auch mit Proxmox.

          Ich habe aktuell meine VM/CT auf beide Rechner gleichmäßig verteilt, also WEB-Server mit NC, iobroker, Grafana, InfluxDB, Dateiserver Musik/Film/Fotoserver, MariaDB, ....
          Meine Rechner hängen an einer SUV, aber nur einer wird, nach dem wieder Strom da ist, auch wieder eingeschaltet.
          Ich sichere das Ganze bisher eher sporadisch und auch nur manuell.

          Der Raspi mit CCU3 hängt mal ganz woanders.

          Daher interessiert mich das Skript.

          Gruß und vielen Dank im Voraus!

          S Offline
          S Offline
          saeft_2003
          Most Active
          schrieb am zuletzt editiert von
          #8

          @chralt

          Kann ich heute Abend posten und kurz dazu was erklären…

          1 Antwort Letzte Antwort
          0
          • chraltC chralt

            @saeft_2003
            Hallo,

            ich habe eine ähnliche Konfiguration mit 1 NUC und 1 GEEK (ist praktisch dasselbe) beide auch mit Proxmox.

            Ich habe aktuell meine VM/CT auf beide Rechner gleichmäßig verteilt, also WEB-Server mit NC, iobroker, Grafana, InfluxDB, Dateiserver Musik/Film/Fotoserver, MariaDB, ....
            Meine Rechner hängen an einer SUV, aber nur einer wird, nach dem wieder Strom da ist, auch wieder eingeschaltet.
            Ich sichere das Ganze bisher eher sporadisch und auch nur manuell.

            Der Raspi mit CCU3 hängt mal ganz woanders.

            Daher interessiert mich das Skript.

            Gruß und vielen Dank im Voraus!

            S Offline
            S Offline
            saeft_2003
            Most Active
            schrieb am zuletzt editiert von
            #9

            @chralt

            als erstes brauch man den linux-control Adapter. Mit dem kann ich anzeigen lassen wie die letzten Backups auf dem NAS heißen. Hier eine grobe Anleitung bezogen auf die VM 112. Ich mache das so mit mehreren VMs nacheinander.

            Befehl:

            cd /mnt/pve/Diskstation_212/dump && ls
            

            Ausgabe:

            vzdump-qemu-112-2024_06_23-01_15_02.vma.gz
            vzdump-qemu-112-2024_06_24-01_15_02.vma.gz
            vzdump-qemu-112-2024_06_26-01_15_02.vma.gz
            vzdump-qemu-112-2024_06_28-01_15_03.vma.gz
            vzdump-qemu-112-2024_06_29-01_15_02.vma.gz
            vzdump-qemu-112-2024_06_30-01_15_00.vma.gz
            vzdump-qemu-112-2024_07_01-01_15_02.vma.gz
            vzdump-qemu-112-2024_07_03-01_15_02.vma.gz
            vzdump-qemu-112-2024_07_05-01_15_02.vma.gz
            vzdump-qemu-112-2024_07_06-01_15_02.vma.gz
            vzdump-qemu-112-2024_07_07-01_15_05.vma.gz
            vzdump-qemu-112-2024_07_08-01_15_01.vma.gz
            vzdump-qemu-112-2024_07_10-01_15_04.vma.gz
            vzdump-qemu-112-2024_07_12-01_15_03.vma.gz
            vzdump-qemu-112-2024_07_13-01_15_02.vma.gz
            

            Mit dem Block schreib ich den Name vom letzen Backup in einen DP.
            backup.jpg

            vzdump-qemu-112-2024_07_13-01_15_02.vma.gz
            

            Jeden Sonntag um 5:00 Uhr wird über eine WLAN Steckdose der Backup NUC gestartet (muss man evtl im Bios einstellen).
            Dann kommt folgender Ablauf.

            1. destroy 112 --> löscht die alte VM
            ssh.exec('qm destroy 112').start();
            
            1. Danach wird ein restore DP geschrieben der das letzte backup beinhaltet
            cd /mnt/pve/Diskstation_212/dump && qmrestore vzdump-qemu-112-2024_07_07-02_00_05.vma.gz 112
            
            1. restore --> startet das zurückspielen der VM
            ssh.exec(getState('javascript.0.restore_proxmox_backup').val).start();
            
            1. onboot 0 112 --> bewirkt das beim nächsten NUC start die VM nicht mit startet
            ssh.exec('qm set 112 --onboot 0').start();
            
            1. usb 112 --> ändert den durchgereichten USB port passend zum backup NUC
            ssh.exec('qm set 112 -usb1 host=1-3').start();
            

            skript.jpg

            Hier das komplette skript. Es müssen natürlich einige Sachen angepasst werden und DP erstellt. Falls Fragen stehe ich gerne bereit.

            Backup_NUC6_restore.xml

            chraltC E 2 Antworten Letzte Antwort
            0
            • S saeft_2003

              @chralt

              als erstes brauch man den linux-control Adapter. Mit dem kann ich anzeigen lassen wie die letzten Backups auf dem NAS heißen. Hier eine grobe Anleitung bezogen auf die VM 112. Ich mache das so mit mehreren VMs nacheinander.

              Befehl:

              cd /mnt/pve/Diskstation_212/dump && ls
              

              Ausgabe:

              vzdump-qemu-112-2024_06_23-01_15_02.vma.gz
              vzdump-qemu-112-2024_06_24-01_15_02.vma.gz
              vzdump-qemu-112-2024_06_26-01_15_02.vma.gz
              vzdump-qemu-112-2024_06_28-01_15_03.vma.gz
              vzdump-qemu-112-2024_06_29-01_15_02.vma.gz
              vzdump-qemu-112-2024_06_30-01_15_00.vma.gz
              vzdump-qemu-112-2024_07_01-01_15_02.vma.gz
              vzdump-qemu-112-2024_07_03-01_15_02.vma.gz
              vzdump-qemu-112-2024_07_05-01_15_02.vma.gz
              vzdump-qemu-112-2024_07_06-01_15_02.vma.gz
              vzdump-qemu-112-2024_07_07-01_15_05.vma.gz
              vzdump-qemu-112-2024_07_08-01_15_01.vma.gz
              vzdump-qemu-112-2024_07_10-01_15_04.vma.gz
              vzdump-qemu-112-2024_07_12-01_15_03.vma.gz
              vzdump-qemu-112-2024_07_13-01_15_02.vma.gz
              

              Mit dem Block schreib ich den Name vom letzen Backup in einen DP.
              backup.jpg

              vzdump-qemu-112-2024_07_13-01_15_02.vma.gz
              

              Jeden Sonntag um 5:00 Uhr wird über eine WLAN Steckdose der Backup NUC gestartet (muss man evtl im Bios einstellen).
              Dann kommt folgender Ablauf.

              1. destroy 112 --> löscht die alte VM
              ssh.exec('qm destroy 112').start();
              
              1. Danach wird ein restore DP geschrieben der das letzte backup beinhaltet
              cd /mnt/pve/Diskstation_212/dump && qmrestore vzdump-qemu-112-2024_07_07-02_00_05.vma.gz 112
              
              1. restore --> startet das zurückspielen der VM
              ssh.exec(getState('javascript.0.restore_proxmox_backup').val).start();
              
              1. onboot 0 112 --> bewirkt das beim nächsten NUC start die VM nicht mit startet
              ssh.exec('qm set 112 --onboot 0').start();
              
              1. usb 112 --> ändert den durchgereichten USB port passend zum backup NUC
              ssh.exec('qm set 112 -usb1 host=1-3').start();
              

              skript.jpg

              Hier das komplette skript. Es müssen natürlich einige Sachen angepasst werden und DP erstellt. Falls Fragen stehe ich gerne bereit.

              Backup_NUC6_restore.xml

              chraltC Offline
              chraltC Offline
              chralt
              schrieb am zuletzt editiert von
              #10

              @saeft_2003
              Hallo,

              Erst mal vielen Dank!!

              Das ist ja mal eine spannende Aufgabe, ich denke damit werde ich ein Weilchen beschäftigt sein.

              Ich melde mich damn mal wenn ich wenn ich damit fertig bin
              Gruß

              Raspi 4B 8GB; iobroker & CCU3 auf Raspi

              1 Antwort Letzte Antwort
              0
              • S saeft_2003

                @chralt

                als erstes brauch man den linux-control Adapter. Mit dem kann ich anzeigen lassen wie die letzten Backups auf dem NAS heißen. Hier eine grobe Anleitung bezogen auf die VM 112. Ich mache das so mit mehreren VMs nacheinander.

                Befehl:

                cd /mnt/pve/Diskstation_212/dump && ls
                

                Ausgabe:

                vzdump-qemu-112-2024_06_23-01_15_02.vma.gz
                vzdump-qemu-112-2024_06_24-01_15_02.vma.gz
                vzdump-qemu-112-2024_06_26-01_15_02.vma.gz
                vzdump-qemu-112-2024_06_28-01_15_03.vma.gz
                vzdump-qemu-112-2024_06_29-01_15_02.vma.gz
                vzdump-qemu-112-2024_06_30-01_15_00.vma.gz
                vzdump-qemu-112-2024_07_01-01_15_02.vma.gz
                vzdump-qemu-112-2024_07_03-01_15_02.vma.gz
                vzdump-qemu-112-2024_07_05-01_15_02.vma.gz
                vzdump-qemu-112-2024_07_06-01_15_02.vma.gz
                vzdump-qemu-112-2024_07_07-01_15_05.vma.gz
                vzdump-qemu-112-2024_07_08-01_15_01.vma.gz
                vzdump-qemu-112-2024_07_10-01_15_04.vma.gz
                vzdump-qemu-112-2024_07_12-01_15_03.vma.gz
                vzdump-qemu-112-2024_07_13-01_15_02.vma.gz
                

                Mit dem Block schreib ich den Name vom letzen Backup in einen DP.
                backup.jpg

                vzdump-qemu-112-2024_07_13-01_15_02.vma.gz
                

                Jeden Sonntag um 5:00 Uhr wird über eine WLAN Steckdose der Backup NUC gestartet (muss man evtl im Bios einstellen).
                Dann kommt folgender Ablauf.

                1. destroy 112 --> löscht die alte VM
                ssh.exec('qm destroy 112').start();
                
                1. Danach wird ein restore DP geschrieben der das letzte backup beinhaltet
                cd /mnt/pve/Diskstation_212/dump && qmrestore vzdump-qemu-112-2024_07_07-02_00_05.vma.gz 112
                
                1. restore --> startet das zurückspielen der VM
                ssh.exec(getState('javascript.0.restore_proxmox_backup').val).start();
                
                1. onboot 0 112 --> bewirkt das beim nächsten NUC start die VM nicht mit startet
                ssh.exec('qm set 112 --onboot 0').start();
                
                1. usb 112 --> ändert den durchgereichten USB port passend zum backup NUC
                ssh.exec('qm set 112 -usb1 host=1-3').start();
                

                skript.jpg

                Hier das komplette skript. Es müssen natürlich einige Sachen angepasst werden und DP erstellt. Falls Fragen stehe ich gerne bereit.

                Backup_NUC6_restore.xml

                E Offline
                E Offline
                eve11
                schrieb am zuletzt editiert von
                #11

                @saeft_2003
                Ich habe das Script soweit nachbauen können, und ich denke es funktioniert soweit.
                Der erste Container wird ohne Probleme in Proxmox angelegt. Aber beim zweiten kommt dann folgende Fehlermeldung:

                recovering backed-up configuration from 'vzdump-lxc-102-2024_07_14-01_06_18.tar.lzo'
                  WARNING: You have not turned on protection against thin pools running out of space.
                  WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full.
                  Logical volume "vm-102-disk-2" created.
                  WARNING: Sum of all thin volume sizes (216.00 GiB) exceeds the size of thin pool pve/data and the amount of free space in volume group (<16.00 GiB).
                Creating filesystem with 8388608 4k blocks and 2097152 inodes
                Filesystem UUID: 71e0c8ba-f330-42d9-9607-8798d9495b89
                Superblock backups stored on blocks: 
                	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
                	4096000, 7962624
                restoring 'vzdump-lxc-102-2024_07_14-01_06_18.tar.lzo' now..
                extracting archive '/mnt/pve/nfsBackup/dump/vzdump-lxc-102-2024_07_14-01_06_18.tar.lzo'
                TASK ERROR: broken pipe 
                

                Wenn ich diesen Container manuell in Proxmox wieder erstelle, wird er ohne Probleme angelegt. Auch wenn ich ihn mittels Befehl in Putty erstelle wird dieser wieder angelegt:

                cd /mnt/pve/nfsBackup/dump && pct restore 102 vzdump-lxc-102-2024_07_14-01_06_18.tar.lzo --storage local-lvm
                

                Hast du eine Idee an was dies liegen kann.

                Danke

                Heiko

                S 1 Antwort Letzte Antwort
                0
                • E eve11

                  @saeft_2003
                  Ich habe das Script soweit nachbauen können, und ich denke es funktioniert soweit.
                  Der erste Container wird ohne Probleme in Proxmox angelegt. Aber beim zweiten kommt dann folgende Fehlermeldung:

                  recovering backed-up configuration from 'vzdump-lxc-102-2024_07_14-01_06_18.tar.lzo'
                    WARNING: You have not turned on protection against thin pools running out of space.
                    WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full.
                    Logical volume "vm-102-disk-2" created.
                    WARNING: Sum of all thin volume sizes (216.00 GiB) exceeds the size of thin pool pve/data and the amount of free space in volume group (<16.00 GiB).
                  Creating filesystem with 8388608 4k blocks and 2097152 inodes
                  Filesystem UUID: 71e0c8ba-f330-42d9-9607-8798d9495b89
                  Superblock backups stored on blocks: 
                  	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
                  	4096000, 7962624
                  restoring 'vzdump-lxc-102-2024_07_14-01_06_18.tar.lzo' now..
                  extracting archive '/mnt/pve/nfsBackup/dump/vzdump-lxc-102-2024_07_14-01_06_18.tar.lzo'
                  TASK ERROR: broken pipe 
                  

                  Wenn ich diesen Container manuell in Proxmox wieder erstelle, wird er ohne Probleme angelegt. Auch wenn ich ihn mittels Befehl in Putty erstelle wird dieser wieder angelegt:

                  cd /mnt/pve/nfsBackup/dump && pct restore 102 vzdump-lxc-102-2024_07_14-01_06_18.tar.lzo --storage local-lvm
                  

                  Hast du eine Idee an was dies liegen kann.

                  Danke

                  Heiko

                  S Offline
                  S Offline
                  saeft_2003
                  Most Active
                  schrieb am zuletzt editiert von
                  #12

                  @eve11

                  tut mir leid wüsste jetzt nicht an was das liegen könnte. Ich kenn diesen broken pipe error nicht. Vielleicht kann dir da das proxmox forum helfen?

                  Meldest du dich per ssh mit root an?

                  E 1 Antwort Letzte Antwort
                  0
                  • S saeft_2003

                    @eve11

                    tut mir leid wüsste jetzt nicht an was das liegen könnte. Ich kenn diesen broken pipe error nicht. Vielleicht kann dir da das proxmox forum helfen?

                    Meldest du dich per ssh mit root an?

                    E Offline
                    E Offline
                    eve11
                    schrieb am zuletzt editiert von eve11
                    #13

                    @saeft_2003 said in USB Switch zwischen zwei NUC Eigenbau:

                    @eve11

                    tut mir leid wüsste jetzt nicht an was das liegen könnte. Ich kenn diesen broken pipe error nicht. Vielleicht kann dir da das proxmox forum helfen?

                    Meldest du dich per ssh mit root an?

                    Ja, mit root. Sollte ich es mal mit einem anderen User probieren ?

                    CodierknechtC 1 Antwort Letzte Antwort
                    0
                    • E eve11

                      @saeft_2003 said in USB Switch zwischen zwei NUC Eigenbau:

                      @eve11

                      tut mir leid wüsste jetzt nicht an was das liegen könnte. Ich kenn diesen broken pipe error nicht. Vielleicht kann dir da das proxmox forum helfen?

                      Meldest du dich per ssh mit root an?

                      Ja, mit root. Sollte ich es mal mit einem anderen User probieren ?

                      CodierknechtC Online
                      CodierknechtC Online
                      Codierknecht
                      Developer Most Active
                      schrieb am zuletzt editiert von
                      #14

                      @eve11 sagte in USB Switch zwischen zwei NUC Eigenbau:

                      Ja, mit root. Sollte ich es mal mit einem anderen User probieren ?

                      Man wurschtelt unter Linux nicht als root im System rum.

                      "Any fool can write code that a computer can understand. Good programmers write code that humans can understand." (Martin Fowler, "Refactoring")

                      Proxmox 9.1.1 LXC|8 GB|Core i7-6700
                      HmIP|ZigBee|Tasmota|Unifi
                      Zabbix Certified Specialist
                      Konnte ich Dir helfen? Dann benutze bitte das Voting unten rechts im Beitrag

                      1 Antwort Letzte Antwort
                      0
                      Antworten
                      • In einem neuen Thema antworten
                      Anmelden zum Antworten
                      • Älteste zuerst
                      • Neuste zuerst
                      • Meiste Stimmen


                      Support us

                      ioBroker
                      Community Adapters
                      Donate

                      857

                      Online

                      32.5k

                      Benutzer

                      81.8k

                      Themen

                      1.3m

                      Beiträge
                      Community
                      Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                      ioBroker Community 2014-2025
                      logo
                      • Anmelden

                      • Du hast noch kein Konto? Registrieren

                      • Anmelden oder registrieren, um zu suchen
                      • Erster Beitrag
                        Letzter Beitrag
                      0
                      • Home
                      • Aktuell
                      • Tags
                      • Ungelesen 0
                      • Kategorien
                      • Unreplied
                      • Beliebt
                      • GitHub
                      • Docu
                      • Hilfe