NEWS
Idee für "on demand" Website parsing?
-
Hi,
ich würde gerne bei Bedarf Daten aus einer Webseite auslesen, also nicht regelmäßig, sondern nur auf Anfrage.
Leider hat der Parser Adapter, sp wie ich das sehe, ja nur seine festen Interevalle.
Ich sehe also keine Möglichkeit damit gezielt einzelne Werte aktuell abzufragen (vielleicht einen Enhancement Request auf Github Wert? ).
Und den Adapter bei Bedarf komplett neu zu starten halten ich für
a) einen Overkill
und
b) zu trägeJemand eine Idee, wie man das sonst lösen könnte?
-
@padrino Hi, Möglichkeiten gibt es viele. Blockly (naja...), Javascript, NodeRED, bash...
Aber ohne Programmierkenntnisse wird das alles nix, wobei NodeRED da ev. noch am "einfachsten" ist und die wenigsten Kenntnisse voraussetzt. -
@sborg
Denst Du an einen Weg einen HTML Code selbst zu parsen?
Also z.B. mit wget ziehen und dann rein schauen?
Oder schweben Dir andere, nicht exotische Weg vor? -
@padrino Ich mache es fast immer mittels wget. Geht bei mir einfach am schnellsten. Falls die Seite zB. einen RSS-/Atom-Feed anbietet, kann man auch diesen mittels passendem Parser recht komfortabel auslesen (gibt aber auch direkt HTML-Parser).
Mittels NodeRED habe ich es noch nie probiert, aber dafür gibt es viele schöne Module -
@padrino immer dieselbe Seite? Dann ein Script mit request() oder axios(), Auswertung mit RegEx oder cheerio. Ein eigener Datenpunkt mit role=button kann als Auslöser dienen.