Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. ioBroker Allgemein
  4. Website mit Parser auslesen

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    3.6k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    1.2k

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.5k

Website mit Parser auslesen

Geplant Angeheftet Gesperrt Verschoben ioBroker Allgemein
34 Beiträge 5 Kommentatoren 885 Aufrufe 3 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • L legerm

    Ich würde gerne auf https://www.wartezeiten.app/europapark/ den "Crowd-Level" auslesen. Habe aber leide nicht die leiseste Ahnung, wie ich das anstellen soll. Kann mir bitte, als völliger Noob, jemand helfen?

    Vielen Dank!

    OliverIOO Offline
    OliverIOO Offline
    OliverIO
    schrieb am zuletzt editiert von OliverIO
    #5

    @legerm

    ist zwar sehr ähnlich aber dann kannst du copy/paste machen

    regex

    Crowd-Level:\s([\d\,]+)
    

    als typ musst du string nemen. number hat bei mir nicht geklappt, da wohl die number checkbox kaputt ist

    Nachtrag:
    sehe gerade das der Request forbidden ist.
    Da mag der Server wohl irgendwas am request nicht.
    habe das mal auch mit einem javascript fetch probiert.
    die geben sich wohl viel mühe das zu unterscheiden.

    dann bleibt nur noch es mit puppeteer zu probieren

    Meine Adapter und Widgets
    TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
    Links im Profil

    1 Antwort Letzte Antwort
    0
    • L legerm

      @dr-bakterius Vielen Dank für die rasende Antwort, bekomme aber nach wie vor einen 403 Fehler. Heißt das, dass es von der Seite geschützt ist?

      HomoranH Nicht stören
      HomoranH Nicht stören
      Homoran
      Global Moderator Administrators
      schrieb am zuletzt editiert von
      #6

      @legerm wie sieht denn der Seitenquelltext aus?

      kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

      Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

      der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

      OliverIOO 1 Antwort Letzte Antwort
      0
      • HomoranH Homoran

        @legerm wie sieht denn der Seitenquelltext aus?

        OliverIOO Offline
        OliverIOO Offline
        OliverIO
        schrieb am zuletzt editiert von
        #7

        @homoran sagte in Website mit Parser auslesen:

        @legerm wie sieht denn der Seitenquelltext aus?

        bei 403 kommt ja nix mit. da kommt nur der http header

        Meine Adapter und Widgets
        TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
        Links im Profil

        MartinPM HomoranH 2 Antworten Letzte Antwort
        0
        • OliverIOO OliverIO

          @homoran sagte in Website mit Parser auslesen:

          @legerm wie sieht denn der Seitenquelltext aus?

          bei 403 kommt ja nix mit. da kommt nur der http header

          MartinPM Offline
          MartinPM Offline
          MartinP
          schrieb am zuletzt editiert von
          #8

          Ich habe mal probeweise den parser - Adapter installiert, und keine Probleme, Crowd-Level-Datenpunkt wird angelegt

          URL

          https://www.wartezeiten.app/europapark/
          

          RegEx

          Crowd-Level: +([0-9]+,[0-9]+)
          

          4eea6279-8ad6-429e-a974-43fac36ec6c9-grafik.png

          Intel(R) Celeron(R) CPU N3000 @ 1.04GHz 8G RAM 480G SSD
          Virtualization : unprivileged lxc container (debian 13) on Proxmox 9.1.5)
          Linux pve 6.17.9-1-pve
          6 GByte RAM für den Container
          Fritzbox 6591 FW 8.20 (Vodafone Leih-Box)
          Remote-Access über Wireguard der Fritzbox

          1 Antwort Letzte Antwort
          0
          • OliverIOO OliverIO

            @homoran sagte in Website mit Parser auslesen:

            @legerm wie sieht denn der Seitenquelltext aus?

            bei 403 kommt ja nix mit. da kommt nur der http header

            HomoranH Nicht stören
            HomoranH Nicht stören
            Homoran
            Global Moderator Administrators
            schrieb am zuletzt editiert von
            #9

            @oliverio sagte in Website mit Parser auslesen:

            @homoran sagte in Website mit Parser auslesen:

            @legerm wie sieht denn der Seitenquelltext aus?

            bei 403 kommt ja nix mit. da kommt nur der http header

            klar, aber ich kann mobil nur mitspielen wenn hier jemand den am PC gewonnenen Seitenquelltext postet.

            kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

            Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

            der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

            OliverIOO 1 Antwort Letzte Antwort
            0
            • HomoranH Homoran

              @oliverio sagte in Website mit Parser auslesen:

              @homoran sagte in Website mit Parser auslesen:

              @legerm wie sieht denn der Seitenquelltext aus?

              bei 403 kommt ja nix mit. da kommt nur der http header

              klar, aber ich kann mobil nur mitspielen wenn hier jemand den am PC gewonnenen Seitenquelltext postet.

              OliverIOO Offline
              OliverIOO Offline
              OliverIO
              schrieb am zuletzt editiert von
              #10

              @homoran

              kein problem
              aber am quelltext liegt es nicht.
              der seitenbetreiber kann sehr gut zwischen browser und anderem abruf unterscheiden.
              als antwort kommt immer 403, was forbidden entspricht. selbst wenn ich den original fetch aus dem browser ausführe.
              vergleich des fetchs zwischen 2 funktionierende browser abfragen haben kein unterschied feststellen können.

              andere scheinen kein problem zu haben

              da mehr wie 10000 zeichen hier als datei
              europapark.txt

              Meine Adapter und Widgets
              TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
              Links im Profil

              MartinPM HomoranH 2 Antworten Letzte Antwort
              1
              • OliverIOO OliverIO

                @homoran

                kein problem
                aber am quelltext liegt es nicht.
                der seitenbetreiber kann sehr gut zwischen browser und anderem abruf unterscheiden.
                als antwort kommt immer 403, was forbidden entspricht. selbst wenn ich den original fetch aus dem browser ausführe.
                vergleich des fetchs zwischen 2 funktionierende browser abfragen haben kein unterschied feststellen können.

                andere scheinen kein problem zu haben

                da mehr wie 10000 zeichen hier als datei
                europapark.txt

                MartinPM Offline
                MartinPM Offline
                MartinP
                schrieb am zuletzt editiert von MartinP
                #11

                @oliverio sagte in Website mit Parser auslesen:

                aber am quelltext liegt es nicht.
                der seitenbetreiber kann sehr gut zwischen browser und anderem abruf unterscheiden.
                als antwort kommt immer 403, was forbidden entspricht. selbst wenn ich den original fetch aus dem browser ausführe.

                Hmm, ich kann mir das eigentlich nicht vorstellen.

                Den Parser-Adapter habe ich quasi mit den Standard-Einstellungen laufen lassen, und kriege Antworten ...

                Vielleicht macht die Seite "Dicht", wenn es zu viele Anfragen von einem Client gibt ...

                Für diesen Anwendungsfall sind sicher auch deutlich mehr als 5 Sekunden Abfrageintervall völlig ausreichend...
                Vielleicht eine "faule" Parser-Instanz einrichten, die nur alle 10 Minuten schaut ...

                Hier der Beginn des Outputs, wenn man sie ohne weiteren Parameter mit curl saugt:

                martin@martin-D2836-S1:~$ curl https://www.wartezeiten.app/europapark/ 
                <!DOCTYPE html><html lang="en-US"><head><title>Just a moment...</title><meta http-equiv="Content-Type" content="text/html; charset=UTF-8"><meta http-equiv="X-UA-Compatible" content="IE=Edge"><meta name="robots" content="noindex,nofollow"><meta name="viewport" content="width=device-width,initial-scale=1"><style>*{box-sizing:border-box;margin:0;padding:0}html{line-height:1.15;-webkit-text-size-adjust:100%;color:#313131;font-family:system-ui,-apple-system,BlinkMacSystemFont,"Segoe UI",Roboto,"Helvetica Neue",Arial,"Noto Sans",sans-serif
                
                ....
                
                

                Intel(R) Celeron(R) CPU N3000 @ 1.04GHz 8G RAM 480G SSD
                Virtualization : unprivileged lxc container (debian 13) on Proxmox 9.1.5)
                Linux pve 6.17.9-1-pve
                6 GByte RAM für den Container
                Fritzbox 6591 FW 8.20 (Vodafone Leih-Box)
                Remote-Access über Wireguard der Fritzbox

                1 Antwort Letzte Antwort
                0
                • OliverIOO OliverIO

                  @homoran

                  kein problem
                  aber am quelltext liegt es nicht.
                  der seitenbetreiber kann sehr gut zwischen browser und anderem abruf unterscheiden.
                  als antwort kommt immer 403, was forbidden entspricht. selbst wenn ich den original fetch aus dem browser ausführe.
                  vergleich des fetchs zwischen 2 funktionierende browser abfragen haben kein unterschied feststellen können.

                  andere scheinen kein problem zu haben

                  da mehr wie 10000 zeichen hier als datei
                  europapark.txt

                  HomoranH Nicht stören
                  HomoranH Nicht stören
                  Homoran
                  Global Moderator Administrators
                  schrieb am zuletzt editiert von Homoran
                  #12

                  @oliverio sagte in Website mit Parser auslesen:

                  aber am quelltext liegt es nicht.

                  Natürlich nicht!

                  aber ohne quelltext komm ich nicht an einen (eigenen) Regex zum testen

                  Danke dafür, mein noch ungetester RegEx wäre owd-Lev[^\d]+([\d,]+)

                  Das Problem von number wird das Komma sein.

                  EDIT: hab auch die 403

                  kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

                  Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

                  der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

                  Dr. BakteriusD 1 Antwort Letzte Antwort
                  0
                  • HomoranH Nicht stören
                    HomoranH Nicht stören
                    Homoran
                    Global Moderator Administrators
                    schrieb am zuletzt editiert von
                    #13

                    ich hab mal die Website im Browser aufgerufen
                    Screenshot_20251112-180333_Firefox.jpg

                    ohne Bestätigung kommst du ja gar nicht auf die Seite!

                    kein Support per PN! - Fragen im Forum stellen - es gibt fast nichts, was nicht auch für andere interessant ist.

                    Benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat.

                    der Installationsfixer: curl -fsL https://iobroker.net/fix.sh | bash -

                    L 1 Antwort Letzte Antwort
                    0
                    • HomoranH Homoran

                      @oliverio sagte in Website mit Parser auslesen:

                      aber am quelltext liegt es nicht.

                      Natürlich nicht!

                      aber ohne quelltext komm ich nicht an einen (eigenen) Regex zum testen

                      Danke dafür, mein noch ungetester RegEx wäre owd-Lev[^\d]+([\d,]+)

                      Das Problem von number wird das Komma sein.

                      EDIT: hab auch die 403

                      Dr. BakteriusD Online
                      Dr. BakteriusD Online
                      Dr. Bakterius
                      Most Active
                      schrieb am zuletzt editiert von Dr. Bakterius
                      #14

                      @homoran sagte in Website mit Parser auslesen:

                      Das Problem von number wird das Komma sein.

                      Korrekt. Wenn der Datenpunkt als number angelegt ist, kommt statt 15,7 als Ergebnis 157. Aber grundsätzlich hat es mit beidem funktioniert. Aber keine Ahnung warum es bei mir auf Anhieb geklappt hat, und beim TE nicht.

                      Der entscheidende Teil im Quelltext sieht bei mir so aus:

                      <span class="icon is-small" style="margin-right: 10px;">
                         <i class="fa fa-hourglass-half"></i>
                      </span>
                      Crowd-Level: 15,7 % - sehr gering
                      <br />
                      
                      OliverIOO 1 Antwort Letzte Antwort
                      0
                      • Dr. BakteriusD Dr. Bakterius

                        @homoran sagte in Website mit Parser auslesen:

                        Das Problem von number wird das Komma sein.

                        Korrekt. Wenn der Datenpunkt als number angelegt ist, kommt statt 15,7 als Ergebnis 157. Aber grundsätzlich hat es mit beidem funktioniert. Aber keine Ahnung warum es bei mir auf Anhieb geklappt hat, und beim TE nicht.

                        Der entscheidende Teil im Quelltext sieht bei mir so aus:

                        <span class="icon is-small" style="margin-right: 10px;">
                           <i class="fa fa-hourglass-half"></i>
                        </span>
                        Crowd-Level: 15,7 % - sehr gering
                        <br />
                        
                        OliverIOO Offline
                        OliverIOO Offline
                        OliverIO
                        schrieb am zuletzt editiert von OliverIO
                        #15

                        @dr-bakterius

                        bei http error code 403 = forbidden, kommen erst gar keine daten
                        da kommt nur der http header zurück

                        Meine Adapter und Widgets
                        TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                        Links im Profil

                        Dr. BakteriusD 1 Antwort Letzte Antwort
                        0
                        • OliverIOO OliverIO

                          @dr-bakterius

                          bei http error code 403 = forbidden, kommen erst gar keine daten
                          da kommt nur der http header zurück

                          Dr. BakteriusD Online
                          Dr. BakteriusD Online
                          Dr. Bakterius
                          Most Active
                          schrieb am zuletzt editiert von
                          #16

                          @oliverio sagte in Website mit Parser auslesen:

                          error code 403 = forbidden

                          Im Browser?

                          OliverIOO 1 Antwort Letzte Antwort
                          0
                          • Dr. BakteriusD Dr. Bakterius

                            @oliverio sagte in Website mit Parser auslesen:

                            error code 403 = forbidden

                            Im Browser?

                            OliverIOO Offline
                            OliverIOO Offline
                            OliverIO
                            schrieb am zuletzt editiert von
                            #17

                            @dr-bakterius
                            nein, wie oben geschrieben
                            im parser adapter und per skript adapter mit fetch

                            Meine Adapter und Widgets
                            TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                            Links im Profil

                            Dr. BakteriusD 1 Antwort Letzte Antwort
                            0
                            • OliverIOO OliverIO

                              @dr-bakterius
                              nein, wie oben geschrieben
                              im parser adapter und per skript adapter mit fetch

                              Dr. BakteriusD Online
                              Dr. BakteriusD Online
                              Dr. Bakterius
                              Most Active
                              schrieb am zuletzt editiert von
                              #18

                              @oliverio Tja, bei mir klappt es.

                              Screenshot 2025-11-12 183803.png

                              1 Antwort Letzte Antwort
                              0
                              • HomoranH Homoran

                                ich hab mal die Website im Browser aufgerufen
                                Screenshot_20251112-180333_Firefox.jpg

                                ohne Bestätigung kommst du ja gar nicht auf die Seite!

                                L Offline
                                L Offline
                                legerm
                                schrieb am zuletzt editiert von
                                #19

                                @homoran said in Website mit Parser auslesen:

                                ich hab mal die Website im Browser aufgerufen
                                Screenshot_20251112-180333_Firefox.jpg

                                ohne Bestätigung kommst du ja gar nicht auf die Seite!

                                Liegt es vielleicht daran?

                                MartinPM Dr. BakteriusD 2 Antworten Letzte Antwort
                                0
                                • L legerm

                                  @homoran said in Website mit Parser auslesen:

                                  ich hab mal die Website im Browser aufgerufen
                                  Screenshot_20251112-180333_Firefox.jpg

                                  ohne Bestätigung kommst du ja gar nicht auf die Seite!

                                  Liegt es vielleicht daran?

                                  MartinPM Offline
                                  MartinPM Offline
                                  MartinP
                                  schrieb am zuletzt editiert von MartinP
                                  #20

                                  @legerm Durchaus möglich.
                                  Wiederholt sich die Einwilligung-Abfrage wenn man sie einmal erteilt hat, wenn man die Seite erneut mit dem frisch neu gestarteten Browser aufruft?

                                  Vielleicht kann man den Cookie irgendwie in eine Curl-Anfrage mit einpacken, und den Parser dann auf die heruntergeladene Seite arbeiten lassen.

                                  Ich habe die Cookie Einwilligung nicht, wenn ich die Seite im Browser aufrufe. Womöglich ist die gar nicht von der Seite selber, sondern von der eingeblendeten Werbung.
                                  Vor der schützt mich PiHole... (Blaues Feld)

                                  BTW: Im roten Feld gibt es keine Stau-Infos, da außerhalb der Öffnungszeit ...

                                  d15726a8-7edb-4319-83a1-ee0b3c258357-grafik.png

                                  NACHTRAG: Mit Chrome kriege ich die Cookie-Abfrage beim ersten Aufruf - danach nicht mehr. Werbung wird eingeblendet.

                                  Intel(R) Celeron(R) CPU N3000 @ 1.04GHz 8G RAM 480G SSD
                                  Virtualization : unprivileged lxc container (debian 13) on Proxmox 9.1.5)
                                  Linux pve 6.17.9-1-pve
                                  6 GByte RAM für den Container
                                  Fritzbox 6591 FW 8.20 (Vodafone Leih-Box)
                                  Remote-Access über Wireguard der Fritzbox

                                  1 Antwort Letzte Antwort
                                  0
                                  • L legerm

                                    @homoran said in Website mit Parser auslesen:

                                    ich hab mal die Website im Browser aufgerufen
                                    Screenshot_20251112-180333_Firefox.jpg

                                    ohne Bestätigung kommst du ja gar nicht auf die Seite!

                                    Liegt es vielleicht daran?

                                    Dr. BakteriusD Online
                                    Dr. BakteriusD Online
                                    Dr. Bakterius
                                    Most Active
                                    schrieb am zuletzt editiert von
                                    #21

                                    @legerm sagte in Website mit Parser auslesen:

                                    Liegt es vielleicht daran?

                                    Das glaube ich nicht. Im Hintergrund wird es ja angezeigt. Also steht es auch im Quellcode. Einzige Ausnahme: es handelt sich um ein Bild. Doch das ist eher unwahrscheinlich weil ja auch das aktuelle Datum angezeigt wird.

                                    Was ich aber habe ist ein Pi Hole. Vielleicht liegt es daran.

                                    MartinPM 1 Antwort Letzte Antwort
                                    0
                                    • Dr. BakteriusD Dr. Bakterius

                                      @legerm sagte in Website mit Parser auslesen:

                                      Liegt es vielleicht daran?

                                      Das glaube ich nicht. Im Hintergrund wird es ja angezeigt. Also steht es auch im Quellcode. Einzige Ausnahme: es handelt sich um ein Bild. Doch das ist eher unwahrscheinlich weil ja auch das aktuelle Datum angezeigt wird.

                                      Was ich aber habe ist ein Pi Hole. Vielleicht liegt es daran.

                                      MartinPM Offline
                                      MartinPM Offline
                                      MartinP
                                      schrieb am zuletzt editiert von
                                      #22

                                      @OliverIO

                                      Habe mir Deinen - dankbarerweise formatierten - Seitenquelltext angeschaut... Was macht man denn hier für Schweinereien...?

                                           
                                                  (function() {
                                                      'use strict';
                                      
                                                      const configCheck1 = 'ukhZqPRxsYdCRaOVOSqx';
                                                      const configCheck2 = 'ZaPFFyEoIxocFaIgkRFv';
                                                      const configCheck3 = 'soBleRBitSfRPwnMlwkg';
                                      
                                                      function revealElements() {
                                                          window.requestAnimationFrame(() => {
                                                              [configCheck1, configCheck2, configCheck3].forEach(id => {
                                                                  const el = document.getElementById(id);
                                                                  if (el) {
                                                                      el.style.display = 'block';
                                                                  }
                                                              });
                                                          });
                                                      }
                                      
                                      
                                      

                                      Intel(R) Celeron(R) CPU N3000 @ 1.04GHz 8G RAM 480G SSD
                                      Virtualization : unprivileged lxc container (debian 13) on Proxmox 9.1.5)
                                      Linux pve 6.17.9-1-pve
                                      6 GByte RAM für den Container
                                      Fritzbox 6591 FW 8.20 (Vodafone Leih-Box)
                                      Remote-Access über Wireguard der Fritzbox

                                      OliverIOO 1 Antwort Letzte Antwort
                                      0
                                      • L Offline
                                        L Offline
                                        legerm
                                        schrieb am zuletzt editiert von
                                        #23

                                        Habe Kontakt zum Seitenbetreiber aufgenommen. Die Seite ist durch Cloudfare gegen Bots abgesichert. Scheint wohl gut zu funktionieren....

                                        Aber warum funktioniert es bei Dr. Bakterius? Kann eigentlich nicht am Pihole liegen, oder?

                                        Beste Grüße

                                        Martin

                                        MartinPM OliverIOO HomoranH 3 Antworten Letzte Antwort
                                        0
                                        • L legerm

                                          Habe Kontakt zum Seitenbetreiber aufgenommen. Die Seite ist durch Cloudfare gegen Bots abgesichert. Scheint wohl gut zu funktionieren....

                                          Aber warum funktioniert es bei Dr. Bakterius? Kann eigentlich nicht am Pihole liegen, oder?

                                          Beste Grüße

                                          Martin

                                          MartinPM Offline
                                          MartinPM Offline
                                          MartinP
                                          schrieb am zuletzt editiert von MartinP
                                          #24

                                          @legerm Könnte an Anschluss-Typen liegen (DSLite, DualStack, IOv4 only), an zu vielen Anfragen, die Du gestellt hast (5000 ms sind vielleicht schon Bot-Verdächtig) oder an durch Bots "verbrannten" eigenen öffentlichen IP-Adressen ...

                                          Kriegst Du denn mit curl die Seite heruntergeladen?

                                          Wenn ja könntest Du sie ja per CRON-Job herunterladen (vielleicht nur alle 5...10 Minuten, damit es unverdächtig bleibt)

                                          Der iobroker - Parser Adapter könnte dann auf die heruntergeladene Datei statt auf die URL schauen...

                                          Wenn Curl per IPv4 nicht herunterladen kann, vielleicht auf IPv6 ausweichen, wenn an Deinem Anschluss verfügbar.
                                          teste mal ...

                                          curl -6 https://www.wartezeiten.app/europapark/ 
                                          

                                          Nachtrag: Eigentlich verbietet es die "Netiquette", die Seite durch den Parser-Adapter durchsuchen zu lassen, wenn der Betreiber das durch die Header als "unerwünscht" tituliert hat... Aber vielleicht bin ich nur im "früher war alles besser verfangen"

                                          Intel(R) Celeron(R) CPU N3000 @ 1.04GHz 8G RAM 480G SSD
                                          Virtualization : unprivileged lxc container (debian 13) on Proxmox 9.1.5)
                                          Linux pve 6.17.9-1-pve
                                          6 GByte RAM für den Container
                                          Fritzbox 6591 FW 8.20 (Vodafone Leih-Box)
                                          Remote-Access über Wireguard der Fritzbox

                                          L 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate
                                          FAQ Cloud / IOT
                                          HowTo: Node.js-Update
                                          HowTo: Backup/Restore
                                          Downloads
                                          BLOG

                                          589

                                          Online

                                          32.7k

                                          Benutzer

                                          82.4k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe