Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. ioBroker Allgemein
  4. History Adpater (History vs. influxdb vs SQL)

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.5k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    2.0k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    16
    1
    2.7k

History Adpater (History vs. influxdb vs SQL)

Geplant Angeheftet Gesperrt Verschoben ioBroker Allgemein
17 Beiträge 13 Kommentatoren 9.2k Aufrufe 3 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • BluefoxB Offline
    BluefoxB Offline
    Bluefox
    schrieb am zuletzt editiert von
    #3

    habe ergänzt

    1 Antwort Letzte Antwort
    0
    • D Offline
      D Offline
      Dschaedl
      schrieb am zuletzt editiert von
      #4

      @mctom:

      • es wird eng auf RasPi2 `
        Die DB muss ja nicht auf dem Raspi laufen… :mrgreen:

      Ich habe versucht meine MySQL vom PC anzubinden - klappt tadellos 8-)

      Mein Wunsch: (resp. werde bei nächster Gelegenheit selbst mal reinschauen...)

      Die DB auf dem PC ist nicht immer verfügbar, da dieser nicht 24/7 läuft.

      Der SQL Adapter soll die Daten so lange selber cachen, bis die DB auf dem PC verfügbar wird und dann alles rüberspielen.

      Da mich die History normalerweise sowieso nur interessiert wenn der PC läuft passt das...

      Alternative Idee: Eine DB im Internet benutzen.

      viele Grüsse

      Daniel

      1 Antwort Letzte Antwort
      0
      • ThisoftT Offline
        ThisoftT Offline
        Thisoft
        schrieb am zuletzt editiert von
        #5

        Ja, das mit dem Cachen der Daten im SQL-Adapter bis diese in die Db geschrieben werden können finde ich eine super Idee. Allerdings könnte das dann wieder das z.Zt. akute RAM-Problem verstärken..?!

        22 HM-Geräte; PivCCU2 auf RasPi

        ioBroker-Multihost; Ubuntu-Master auf Intel-Atom und 3 RasPi-Clients

        1 Antwort Letzte Antwort
        0
        • A Offline
          A Offline
          aquapro
          schrieb am zuletzt editiert von
          #6

          Cachen auf SD Karte, würde dies wieder entschärfen.

          <size size="85">BananaPi / Jessie / ioBroker deinstalliert, keine Upgradesicherheit</size>

          1 Antwort Letzte Antwort
          0
          • D Offline
            D Offline
            Dschaedl
            schrieb am zuletzt editiert von
            #7

            endlich habe ich etwas Zeit gefunden um mich um meine Wunschliste zu kümmern. Ich habe den SQL-Adapter als Vorlage genommen und erweitert:

            • mit "node-persist" werden alle gewählten Daten gecached und jeweils alle 10min lokal persistiert.

            • In Intervallen von X Minuten werden die gecachten Daten in die SQL Datenbank geschrieben (wenn diese erreichbar ist [1])

            • Zum Abrufen der Historieserten Daten gibt's dann zwei Vairanten

            • DB ist verfügbar: Daten werden per SQL aus der DB gelesen

            • DB nicht verfügbar: Daten werden aus dem Cache gelesen (soweit dort verfügbar)

            zum Testen:

            original SQL-Adapter deinstallieren und mit diesem ersetzen

            npm install https://github.com/dschaedl/iobroker.sq … ll/master/

            Wichtig: im MySQL Schema habe ich in den Datentabellen eine Spalte "dt" vom Datentyp "datetime" eingefügt um ein lesbares Datum in der DB zu haben.

            -> ALTER TABLE iobroker.ts_number ADD COLUMN dt DATETIME NULL AFTER q; (für ts_number, ts_boolean, ts_string)

            ein paar Details:

            • Die gecachten Werte werden nach dem Transfer in die DB nicht gelöscht, sondern nur markiert; damit beim Abrufen ohne DB genügend Daten zurück kommen

            • Ein Aufräum-Job löscht die gecachten Daten nach X Tagen (lässt sich konfigurieren)

            • Das überspielen der Daten in die SQL-DB findet synchron statt; Asynchron/parallel ist der Raspi rasch überfordert mit der grossen Menge an Daten.

            • Ich arbeite mit MySQL. Die anderen Schemen habe ich aktuell nicht berücksichtigt.

            • [1] Ich habe es nicht hingekriegt einen SQL-Verbindungsfehler zu fangen, ohne dass der Adapter beendet wird. Als Workaorund macht der Adapter nun einen 'Ping' um zu überprüfen ob der PC mit der MySQL DB am laufen ist -> nehme gerne Tips entgegen.

            • Der Timestamp in der DB enspricht dem ts-Attribut des ioBroker States (was leider nicht einem Javascript Date entspricht)

            ==> Bitte Vorsicht mit diesem Adapter; es ist eine erste Version eines Updates. Wenn ihr wichtige Daten in der DB habt, unbedingt vorher backuppen.

            viele Grüsse

            Daniel

            1 Antwort Letzte Antwort
            0
            • S Offline
              S Offline
              Solear
              schrieb am zuletzt editiert von
              #8

              Sehr interessantes Thema, Danke! Auch die Lösung mit dem langen cachen der Daten für einen externen Datenbankrechner ist clever gemacht.

              Was spricht denn gegen eine SQL-Versionauf dem Raspi selbst? Also dem Raspberry 3 mit zB 32 GB Speicherkarte (Class 10 UHD). Sollte doch problemlos reichen, oder? Würde gerne diesen Raspi 3 mit iobroker betreiben und allen Diensten, samt Weboberfläche für den 7'' Raspi-Touchscreen. Angebunden an einem 2. Raspi mit Homematic.

              iobroker als LXC unter Proxmox

              1 Antwort Letzte Antwort
              0
              • BluefoxB Offline
                BluefoxB Offline
                Bluefox
                schrieb am zuletzt editiert von
                #9

                @Dschaedl:

                endlich habe ich etwas Zeit gefunden um mich um meine Wunschliste zu kümmern. Ich habe den SQL-Adapter als Vorlage genommen und erweitert:

                • mit "node-persist" werden alle gewählten Daten gecached und jeweils alle 10min lokal persistiert.

                • In Intervallen von X Minuten werden die gecachten Daten in die SQL Datenbank geschrieben (wenn diese erreichbar ist [1])

                • Zum Abrufen der Historieserten Daten gibt's dann zwei Vairanten

                • DB ist verfügbar: Daten werden per SQL aus der DB gelesen

                • DB nicht verfügbar: Daten werden aus dem Cache gelesen (soweit dort verfügbar)

                zum Testen:

                original SQL-Adapter deinstallieren und mit diesem ersetzen

                npm install https://github.com/dschaedl/iobroker.sq … ll/master/

                Wichtig: im MySQL Schema habe ich in den Datentabellen eine Spalte "dt" vom Datentyp "datetime" eingefügt um ein lesbares Datum in der DB zu haben.

                -> ALTER TABLE iobroker.ts_number ADD COLUMN dt DATETIME NULL AFTER q; (für ts_number, ts_boolean, ts_string)

                ein paar Details:

                • Die gecachten Werte werden nach dem Transfer in die DB nicht gelöscht, sondern nur markiert; damit beim Abrufen ohne DB genügend Daten zurück kommen

                • Ein Aufräum-Job löscht die gecachten Daten nach X Tagen (lässt sich konfigurieren)

                • Das überspielen der Daten in die SQL-DB findet synchron statt; Asynchron/parallel ist der Raspi rasch überfordert mit der grossen Menge an Daten.

                • Ich arbeite mit MySQL. Die anderen Schemen habe ich aktuell nicht berücksichtigt.

                • [1] Ich habe es nicht hingekriegt einen SQL-Verbindungsfehler zu fangen, ohne dass der Adapter beendet wird. Als Workaorund macht der Adapter nun einen 'Ping' um zu überprüfen ob der PC mit der MySQL DB am laufen ist -> nehme gerne Tips entgegen.

                • Der Timestamp in der DB enspricht dem ts-Attribut des ioBroker States (was leider nicht einem Javascript Date entspricht)

                ==> Bitte Vorsicht mit diesem Adapter; es ist eine erste Version eines Updates. Wenn ihr wichtige Daten in der DB habt, unbedingt vorher backuppen.

                viele Grüsse

                Daniel `
                Eine tolle Erweiterung. Ich denke, falls Caching konfigurierbar währe, dann konnte es in Main rein fließen.

                Wenn du so fit bist, kannst du ein Message mit messagebox implementieren, die beliebige quieries ausführen lässt?

                sendTo('sql.0', 'query', 'select * from bla', function(result){

                // Array

                });

                1 Antwort Letzte Antwort
                0
                • C Offline
                  C Offline
                  crepp
                  schrieb am zuletzt editiert von
                  #10

                  Hallo,

                  Ich weiss nicht ob ich in diesem Thread richtig bin, aber wenn nicht, müsste der Admin verschieben…

                  Habe bei mir auf SQL History umgestellt. Konfig der DB und sonstige Einrichtung hab ich nach Anleitung gut hinbekommen. Habe aber bei der Einstellung der geloggten Datenpunkte Probleme. Ich kann die Punkt "aktivieren" nicht speichern. (siehe Anhang) Ich denke dass ist ein Berechtigungsproblem ?!

                  Ein Beispiel-State würde problemlos gespeichert u. ich kann ihn auch über Rickshaw anzeigen lassen.

                  Nur bei neuen Daten hab ich Probleme.

                  Wäre dankbar für Unterstützung.

                  crepp
                  686_err.png

                  Gruß

                  crepp

                  –-

                  CCU2 / 2x RaspberryPi / 2x Amazon Echo Dot / Milight LED / Philips Hue (z.Z. 16 Homematic-Geräte)

                  Kodi auf W10pro und OSMC

                  DVBViewer MediaServer auf W10

                  1 Antwort Letzte Antwort
                  0
                  • F Offline
                    F Offline
                    frost
                    schrieb am zuletzt editiert von
                    #11

                    @mctom:

                    MySQL

                    …

                    • es wird eng auf RasPi2

                    Michael `

                    Von welchem Gesichtspunkt aus, wird es eng? CPU-Power, RAM oder Festspeicher?

                    Bin auch gerade am überlegen, ob ich die History auf DB umstellen soll.

                    1 Antwort Letzte Antwort
                    -1
                    • D Offline
                      D Offline
                      DiJaexxl
                      schrieb am zuletzt editiert von
                      #12

                      Ich habe eine SQL DB auf meinem NAS laufen.

                      Klappt perfekt!

                      Gruss aus Bensberg

                      Dirk

                      1 Antwort Letzte Antwort
                      0
                      • F Offline
                        F Offline
                        frost
                        schrieb am zuletzt editiert von
                        #13

                        Hi DiJ,

                        was ist deine NAS für ein System (vergleichbar mit Rpi3)?

                        Vom Gefühl her: Loggst du viel/mittel/wenig Datenpunkte?

                        1 Antwort Letzte Antwort
                        0
                        • J Offline
                          J Offline
                          jans_ios
                          schrieb am zuletzt editiert von
                          #14

                          Moin moin!

                          Ich habe (dämlicherweise) mit einer SQLite-DB angefangen und dort bereits Monate von Daten. Ich würde gerne umstellen auf MySQL von meinem 24/7-laufenden NAS. In die DB schreiben klappt, aber wie kann ich die bisherigen Daten der SQLite übernehmen?

                          Meine bisherigen Recherchen ergaben keine wirklich sinnvollen Migrationswege, der Adapter selbst "spricht" aber ja sowohl SQLite als auch MySQL - könnte der evtl. eine Art Copy-Job im Konfig-Bereich erhalten? Wäre doch eine Idee, oder?

                          Danke!

                          Gruß, Jan

                          1 Antwort Letzte Antwort
                          0
                          • apollon77A Offline
                            apollon77A Offline
                            apollon77
                            schrieb am zuletzt editiert von
                            #15

                            Du musst die Daten manuell übernehmen …

                            Ich würde eine zweite SQL-Instanz anlegen , auf die MySQL einrichten um die DB-Struktur anzulegen.

                            Dann musst du schauen ob es Tools gibt die dir die Daten aus der SQLite exportiern lassen und dann kannst Du das in die MySQL importieren.

                            Beispiel (Google gefunden): https://stackoverflow.com/questions/186 ... 3-to-mysql

                            Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                            • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                            • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                            1 Antwort Letzte Antwort
                            0
                            • R Offline
                              R Offline
                              ratte-rizzo
                              schrieb am zuletzt editiert von
                              #16

                              Moin

                              Also bei der Entscheidungsfindung möchte ich auch noch einmal kurz meine Erfahrung beisteuern: Ich habe am 7. September vom History Adapter auf SQL umgestellt. Das ganze "frisst" etwa 1GB Arbeitsspeicher auf meinem Rock64, dafür ist es aber deutlich entspannter bei der Prozessorlast, wenn mal wieder alle Flot-Diagramme gleichzeitig aktualisieren.

                              Flot Chart Mem.png
                              Flot Chart CPU.png

                              Lieben Gruß
                              Daniel

                              1 Antwort Letzte Antwort
                              0
                              • A Offline
                                A Offline
                                Alexxx2005
                                schrieb am zuletzt editiert von
                                #17

                                Hallo

                                Verstehe ich das dann richtig das mysql besser ist als influx ? Ist vielseitiger (zum weiter arbeiten) und auch die Prozessorbelastung ?

                                Grüße Alex

                                1 Antwort Letzte Antwort
                                0
                                Antworten
                                • In einem neuen Thema antworten
                                Anmelden zum Antworten
                                • Älteste zuerst
                                • Neuste zuerst
                                • Meiste Stimmen


                                Support us

                                ioBroker
                                Community Adapters
                                Donate
                                FAQ Cloud / IOT
                                HowTo: Node.js-Update
                                HowTo: Backup/Restore
                                Downloads
                                BLOG

                                776

                                Online

                                32.4k

                                Benutzer

                                81.5k

                                Themen

                                1.3m

                                Beiträge
                                Community
                                Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                ioBroker Community 2014-2025
                                logo
                                • Anmelden

                                • Du hast noch kein Konto? Registrieren

                                • Anmelden oder registrieren, um zu suchen
                                • Erster Beitrag
                                  Letzter Beitrag
                                0
                                • Home
                                • Aktuell
                                • Tags
                                • Ungelesen 0
                                • Kategorien
                                • Unreplied
                                • Beliebt
                                • GitHub
                                • Docu
                                • Hilfe