Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. Off Topic
  4. InfluxDB
  5. PC stürzt nach Laden hoher Datenmengen ab

NEWS

  • Jahresrückblick 2025 – unser neuer Blogbeitrag ist online! ✨
    BluefoxB
    Bluefox
    17
    1
    2.0k

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    13
    1
    924

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    25
    1
    2.2k

PC stürzt nach Laden hoher Datenmengen ab

Geplant Angeheftet Gesperrt Verschoben InfluxDB
11 Beiträge 4 Kommentatoren 733 Aufrufe 3 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • C ChrisWitt

    Hallo zusammen,

    schreibe in einer Influx relativ viele Daten für meine PV Anlage + Verbraucher.

    Möchte ich über Grafana nun die Daten aus z.b. 90 Tagen holen, so stürzt mein Mini-Dell nach kürzester Zeit ab.

    Kann man das irgendwie einstellen, dass er nur bis XX% Auslastung arbeitet und dafür länger für die Datenabfrage braucht?

    Ich danke euch.

    haus-automatisierungH Online
    haus-automatisierungH Online
    haus-automatisierung
    Developer Most Active
    schrieb am zuletzt editiert von
    #2

    @chriswitt sagte in PC stürzt nach Laden hoher Datenmengen ab:

    Möchte ich über Grafana nun die Daten aus z.b. 90 Tagen holen, so stürzt mein Mini-Dell nach kürzester Zeit ab.

    Normalerweise aggregiert man Daten mit Tasks (hieß bei InfluxDB 1.x "Continuous Queries") um die Abfragen über längere Abfragezeiträume schneller zu machen.

    Was genau fragst Du denn ab und wieviele Datensätze sind es insgesamt?

    🧑‍🎓 Autor des beliebten ioBroker-Master-Kurses
    🎥 Tutorials rund um das Thema DIY-Smart-Home: https://haus-automatisierung.com/
    📚 Meine inoffizielle ioBroker Dokumentation

    C 1 Antwort Letzte Antwort
    0
    • C ChrisWitt

      Hallo zusammen,

      schreibe in einer Influx relativ viele Daten für meine PV Anlage + Verbraucher.

      Möchte ich über Grafana nun die Daten aus z.b. 90 Tagen holen, so stürzt mein Mini-Dell nach kürzester Zeit ab.

      Kann man das irgendwie einstellen, dass er nur bis XX% Auslastung arbeitet und dafür länger für die Datenabfrage braucht?

      Ich danke euch.

      OliverIOO Offline
      OliverIOO Offline
      OliverIO
      schrieb am zuletzt editiert von OliverIO
      #3

      @chriswitt

      Wenn zu viel Speicher benötigt wird und das Betriebssystem abstürzt, dann solltest du eventuell auch nach Hardwaregründen suchen. Eventuell hat einer der Speicherbausteine einen hau
      Normalerweise wird bei Speicherbedarf, der die vorhandene Hardware übersteigt Sachen in den Swap gelegt. Das macht einfach alles nur unendlich langsam. Wenn es dann tatsächlich auch für das Betriebssystem nicht mehr reicht, dann fängt es an Applikationen abzuschießen.
      Daher ist deine Fehlerbeschreibung etwas seltsam, das der gesamte Rechner abstürzt
      Was für ein Betriebssystem hast du laufen?
      Bei Linux versuche mal im syslog nach Fehler zu suchen
      Bei Windows in der Ereignisanzeige. Wobei da ist es meist etwas schwieriger etwas herauszulesen.

      Meine Adapter und Widgets
      TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
      Links im Profil

      1 Antwort Letzte Antwort
      0
      • haus-automatisierungH haus-automatisierung

        @chriswitt sagte in PC stürzt nach Laden hoher Datenmengen ab:

        Möchte ich über Grafana nun die Daten aus z.b. 90 Tagen holen, so stürzt mein Mini-Dell nach kürzester Zeit ab.

        Normalerweise aggregiert man Daten mit Tasks (hieß bei InfluxDB 1.x "Continuous Queries") um die Abfragen über längere Abfragezeiträume schneller zu machen.

        Was genau fragst Du denn ab und wieviele Datensätze sind es insgesamt?

        C Online
        C Online
        ChrisWitt
        schrieb am zuletzt editiert von
        #4

        @haus-automatisierung

        Genau dein Skript ;)

        Sobald ich mehr als 30 Tage ansehen will geht die CPU Auslastung auf 100% und alles stürzt ab. Pc muss ich dann mit der „Hand „ starten.

        Hardware : Dell OptiPlex 5040 SFF | Intel 6th Gen | i5-6500 | 8 GB | 512 GB SSD | DVD-ROM | | Exzellent

        Linux Debian

        IoBroker, influx, Grafana Sind installiert.

        Standardausstattung:

        IMG_1170.jpeg

        C Ro75R 2 Antworten Letzte Antwort
        0
        • C ChrisWitt

          @haus-automatisierung

          Genau dein Skript ;)

          Sobald ich mehr als 30 Tage ansehen will geht die CPU Auslastung auf 100% und alles stürzt ab. Pc muss ich dann mit der „Hand „ starten.

          Hardware : Dell OptiPlex 5040 SFF | Intel 6th Gen | i5-6500 | 8 GB | 512 GB SSD | DVD-ROM | | Exzellent

          Linux Debian

          IoBroker, influx, Grafana Sind installiert.

          Standardausstattung:

          IMG_1170.jpeg

          C Online
          C Online
          ChrisWitt
          schrieb am zuletzt editiert von
          #5

          Screenshot 2024-07-01 162944.png

          Hier ein screen der Auslastung während er lädt.

          Auslagerungsdatei habe ich schon von 1 auf 2 Gig erweitert. Reicht auch nicht.

          Was kann man tun ? Ram erweitern auf 32 gig ?

          1 Antwort Letzte Antwort
          0
          • C ChrisWitt

            @haus-automatisierung

            Genau dein Skript ;)

            Sobald ich mehr als 30 Tage ansehen will geht die CPU Auslastung auf 100% und alles stürzt ab. Pc muss ich dann mit der „Hand „ starten.

            Hardware : Dell OptiPlex 5040 SFF | Intel 6th Gen | i5-6500 | 8 GB | 512 GB SSD | DVD-ROM | | Exzellent

            Linux Debian

            IoBroker, influx, Grafana Sind installiert.

            Standardausstattung:

            IMG_1170.jpeg

            Ro75R Offline
            Ro75R Offline
            Ro75
            schrieb am zuletzt editiert von
            #6

            @chriswitt sagte in PC stürzt nach Laden hoher Datenmengen ab:

            Dell OptiPlex 5040 SFF | Intel 6th Gen | i5-6500 | 8 GB | 512 GB SSD | DVD-ROM | | Exzellen

            na wieviel Speicher hast du denn tatsächlich? Hier 8GB, im Bild nur 4GB. Läuft alles in einem Container, oder normal ohne irgend etwas dazwischen?

            In welchem Zeitabstand werden die Daten gespeichert?

            Ro75.

            SERVER = Beelink U59 16GB DDR4 RAM 512GB SSD, FB 7490, FritzDect 200+301+440, ConBee II, Zigbee Aqara Sensoren + NOUS A1Z, NOUS A1T, Philips Hue ** ioBroker, REDIS, influxdb2, Grafana, PiHole, Plex-Mediaserver, paperless-ngx (Docker), MariaDB + phpmyadmin *** VIS-Runtime = Intel NUC 8GB RAM 128GB SSD + 24" Touchscreen

            C 1 Antwort Letzte Antwort
            0
            • Ro75R Ro75

              @chriswitt sagte in PC stürzt nach Laden hoher Datenmengen ab:

              Dell OptiPlex 5040 SFF | Intel 6th Gen | i5-6500 | 8 GB | 512 GB SSD | DVD-ROM | | Exzellen

              na wieviel Speicher hast du denn tatsächlich? Hier 8GB, im Bild nur 4GB. Läuft alles in einem Container, oder normal ohne irgend etwas dazwischen?

              In welchem Zeitabstand werden die Daten gespeichert?

              Ro75.

              C Online
              C Online
              ChrisWitt
              schrieb am zuletzt editiert von
              #7

              @ro75

              Wo im Bild nur 4? Sind doch überall 8.

              Naja ich habe alles per Terminal nacheinander installiert. Erst ioBroker , dann Influx, dann grafana. Also vermutlich nichts dazwischen (da kenn ich mich viel zu wenig aus )

              So wie ich das verstehe schreibt das Skript von @haus-automatisierung jede Sekunde einen Wert.

              Ro75R 1 Antwort Letzte Antwort
              0
              • C ChrisWitt

                @ro75

                Wo im Bild nur 4? Sind doch überall 8.

                Naja ich habe alles per Terminal nacheinander installiert. Erst ioBroker , dann Influx, dann grafana. Also vermutlich nichts dazwischen (da kenn ich mich viel zu wenig aus )

                So wie ich das verstehe schreibt das Skript von @haus-automatisierung jede Sekunde einen Wert.

                Ro75R Offline
                Ro75R Offline
                Ro75
                schrieb am zuletzt editiert von
                #8

                @chriswitt sagte in PC stürzt nach Laden hoher Datenmengen ab:

                Wo im Bild nur 4? Sind doch überall 8.

                hast recht - mein Fehler

                So wie ich das verstehe schreibt das Skript von @haus-automatisierung jede Sekunde einen Wert.

                Jetzt rechne mal aus, wieviele Datensätze bei 90 Tagen geladen werden müssen. Wenn jede Sekunde ein Wert gespeichert wird, dann sind das bei 90 Tagen ca. 7.776.000 Datensätze. Für meine Begriffe zu viele Daten.

                Ro75.

                SERVER = Beelink U59 16GB DDR4 RAM 512GB SSD, FB 7490, FritzDect 200+301+440, ConBee II, Zigbee Aqara Sensoren + NOUS A1Z, NOUS A1T, Philips Hue ** ioBroker, REDIS, influxdb2, Grafana, PiHole, Plex-Mediaserver, paperless-ngx (Docker), MariaDB + phpmyadmin *** VIS-Runtime = Intel NUC 8GB RAM 128GB SSD + 24" Touchscreen

                C 1 Antwort Letzte Antwort
                0
                • Ro75R Ro75

                  @chriswitt sagte in PC stürzt nach Laden hoher Datenmengen ab:

                  Wo im Bild nur 4? Sind doch überall 8.

                  hast recht - mein Fehler

                  So wie ich das verstehe schreibt das Skript von @haus-automatisierung jede Sekunde einen Wert.

                  Jetzt rechne mal aus, wieviele Datensätze bei 90 Tagen geladen werden müssen. Wenn jede Sekunde ein Wert gespeichert wird, dann sind das bei 90 Tagen ca. 7.776.000 Datensätze. Für meine Begriffe zu viele Daten.

                  Ro75.

                  C Online
                  C Online
                  ChrisWitt
                  schrieb am zuletzt editiert von
                  #9

                  @ro75 said in PC stürzt nach Laden hoher Datenmengen ab:

                  @chriswitt sagte in PC stürzt nach Laden hoher Datenmengen ab:

                  Wo im Bild nur 4? Sind doch überall 8.

                  hast recht - mein Fehler

                  So wie ich das verstehe schreibt das Skript von @haus-automatisierung jede Sekunde einen Wert.

                  Jetzt rechne mal aus, wieviele Datensätze bei 90 Tagen geladen werden müssen. Wenn jede Sekunde ein Wert gespeichert wird, dann sind das bei 90 Tagen ca. 7.776.000 Datensätze. Für meine Begriffe zu viele Daten.

                  Ro75.

                  @Ro75 So wie es aussieht loggt es bei jeder Veränderung :

                      on({ id: Object.keys(loggingTemplate), change: 'ne' }, async (obj) => {
                          // Update value in loggingObj
                          const key = loggingTemplate[obj.id];
                          loggingObj[key] = obj.state.val;
                  

                  Wie kann ich das ändern, dass er z.B. nur alle 30sek. loggt. Wäre für mich ausreichend.

                  Danke dir

                  1 Antwort Letzte Antwort
                  0
                  • OliverIOO Offline
                    OliverIOO Offline
                    OliverIO
                    schrieb am zuletzt editiert von
                    #10

                    @chriswitt

                    in javascript einfach in einer variable den timestamp merken, an dem geschrieben wird.
                    beim nächsten trigger dann prüfen ob letzter timestamp mindestens 30*1000 größer ist.
                    aber dann sind es in 90 tagen immer noch 15 mio werte.

                    wenn dir alle 30 sekunden reicht, dann kannst du ja mal probieren, das influx dir das auch alle 30 sekunden aggregiert und nur diese daten liefert. die abfrage ändert die zugrundeliegenden daten nicht, nur die abfrage liefert das.
                    damit kannst du dann rumspielen ob du evtl noch weiter aggregieren willst.

                    ich kenne jetzt das skript nicht, aber da müsste doch sicherlich eine influx abfrage drin sein, die du nach den folgenden anweisungen apssassen kannst

                    https://docs.influxdata.com/influxdb/cloud/query-data/flux/window-aggregate/

                    versuche soviel funktionalität in die abfrage von influx zu legen, da diese das um einiges effizienter kann, wie du nachher in javascript auswerten kannst.

                    Meine Adapter und Widgets
                    TVProgram, SqueezeboxRPC, OpenLiga, RSSFeed, MyTime,, pi-hole2, vis-json-template, skiinfo, vis-mapwidgets, vis-2-widgets-rssfeed
                    Links im Profil

                    C 1 Antwort Letzte Antwort
                    0
                    • OliverIOO OliverIO

                      @chriswitt

                      in javascript einfach in einer variable den timestamp merken, an dem geschrieben wird.
                      beim nächsten trigger dann prüfen ob letzter timestamp mindestens 30*1000 größer ist.
                      aber dann sind es in 90 tagen immer noch 15 mio werte.

                      wenn dir alle 30 sekunden reicht, dann kannst du ja mal probieren, das influx dir das auch alle 30 sekunden aggregiert und nur diese daten liefert. die abfrage ändert die zugrundeliegenden daten nicht, nur die abfrage liefert das.
                      damit kannst du dann rumspielen ob du evtl noch weiter aggregieren willst.

                      ich kenne jetzt das skript nicht, aber da müsste doch sicherlich eine influx abfrage drin sein, die du nach den folgenden anweisungen apssassen kannst

                      https://docs.influxdata.com/influxdb/cloud/query-data/flux/window-aggregate/

                      versuche soviel funktionalität in die abfrage von influx zu legen, da diese das um einiges effizienter kann, wie du nachher in javascript auswerten kannst.

                      C Online
                      C Online
                      ChrisWitt
                      schrieb am zuletzt editiert von
                      #11

                      @oliverio said in PC stürzt nach Laden hoher Datenmengen ab:

                      @chriswitt

                      in javascript einfach in einer variable den timestamp merken, an dem geschrieben wird.
                      beim nächsten trigger dann prüfen ob letzter timestamp mindestens 30*1000 größer ist.
                      aber dann sind es in 90 tagen immer noch 15 mio werte.

                      wenn dir alle 30 sekunden reicht, dann kannst du ja mal probieren, das influx dir das auch alle 30 sekunden aggregiert und nur diese daten liefert. die abfrage ändert die zugrundeliegenden daten nicht, nur die abfrage liefert das.
                      damit kannst du dann rumspielen ob du evtl noch weiter aggregieren willst.

                      ich kenne jetzt das skript nicht, aber da müsste doch sicherlich eine influx abfrage drin sein, die du nach den folgenden anweisungen apssassen kannst

                      https://docs.influxdata.com/influxdb/cloud/query-data/flux/window-aggregate/

                      versuche soviel funktionalität in die abfrage von influx zu legen, da diese das um einiges effizienter kann, wie du nachher in javascript auswerten kannst.

                      Ach ich hab halt so gar keine detailllierte Ahnung ;)

                      Das Skript ist prinzipiell dieses hier :

                      https://haus-automatisierung.com/software/2023/05/11/influxdb2-pv-dashboard.html

                      Könnte mir das jemand umbauen auf einen x sek. log ? ;)

                      Geb auch ein Bier aus :)

                      1 Antwort Letzte Antwort
                      0
                      Antworten
                      • In einem neuen Thema antworten
                      Anmelden zum Antworten
                      • Älteste zuerst
                      • Neuste zuerst
                      • Meiste Stimmen


                      Support us

                      ioBroker
                      Community Adapters
                      Donate

                      711

                      Online

                      32.6k

                      Benutzer

                      82.2k

                      Themen

                      1.3m

                      Beiträge
                      Community
                      Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                      ioBroker Community 2014-2025
                      logo
                      • Anmelden

                      • Du hast noch kein Konto? Registrieren

                      • Anmelden oder registrieren, um zu suchen
                      • Erster Beitrag
                        Letzter Beitrag
                      0
                      • Home
                      • Aktuell
                      • Tags
                      • Ungelesen 0
                      • Kategorien
                      • Unreplied
                      • Beliebt
                      • GitHub
                      • Docu
                      • Hilfe