Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. ioBroker Allgemein
  4. SQL-Adapter verursacht hohe CPU-Last

NEWS

  • Neuer Blogbeitrag: Monatsrückblick - Dezember 2025 🎄
    BluefoxB
    Bluefox
    11
    1
    340

  • Weihnachtsangebot 2025! 🎄
    BluefoxB
    Bluefox
    24
    1
    1.6k

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    9.5k

SQL-Adapter verursacht hohe CPU-Last

Geplant Angeheftet Gesperrt Verschoben ioBroker Allgemein
sql adapter cpu last
79 Beiträge 13 Kommentatoren 9.6k Aufrufe 12 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • B bvol

    ich bin bei Euch, bei mir sieht es genauso aus....

    Vermutlich konnte ich das nun lösen und erfolgreich wieder auf stabile wechseln. Aus meiner Sicht ist der ursprüngliche Auslöser Adapter "sql": 1.13.1

    Warum auch immer bin ich in den latest abgerutscht und hatte plötzlich massive Probleme mit der CPU Last im Docker auf meiner DS.

    Ich habe ein Downgrade aus dem Latest hin zum. Stable gemacht.

    pkill io
    npm install iobroker.admin@4.0.10
    npm install iobroker.flot@1.9.2
    npm install iobroker.hm-rega@2.5.5
    npm install iobroker.hm-rpc@1.14.2
    npm install iobroker.hue@3.3.2
    npm install iobroker.info@1.7.2
    npm install iobroker.simple-api@2.4.5
    npm install iobroker.socketio@3.0.7
    npm install iobroker.vis@1.2.4
    npm install iobroker.weatherunderground@3.1.6
    npm install iobroker.web@3.0.8
    npm install iobroker.js-controller@3.1.4
    npm install iobroker.sql@1.12.5
    

    Docker Container neu gestartet und erstmal Freude gehabt. Plötzlich ging aber die CPU wieder durch die Decke....

    Da ich eine zweite nahezu identische Installation habe, mit genau den gleichen Paketversionen und aktiven Instanzen, konnte nur noch die DB einen Einfluss haben. Diese habe ich dann via phpMyadmin kopiert und siehe da, in der ts_number Tabelle war ein haufen Schrott drin, den phpMyadmin nicht kopieren wollte. Somit habe ich dann den entschrotteten Inhalt auf der neuen DB und siehe da, bisher ist die sql.0 Instanz wieder bei 0.3% - da wo sie auch hingehört.

    Meine Vermutung ist nun, dass sql 1.13.1 irgendein Quatsch mit der DB anstellt

    apollon77A Offline
    apollon77A Offline
    apollon77
    schrieb am zuletzt editiert von
    #49

    @bvol sagte in SQL-Adapter verursacht hohe CPU-Last:

    Meine Vermutung ist nun, dass sql 1.13.1 irgendein Quatsch mit der DB anstellt

    Mal Frech gefragt ... über Admin könnt Ihr ja auf frühere Versionen zurück ... Könntet Ihr mal schauen ob Ihr die Version findet wo das losgeht? Also - ist es wirklich die 1.13.1? Dann schaue ich da mal rein

    Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

    • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
    • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
    1 Antwort Letzte Antwort
    0
    • apollon77A Offline
      apollon77A Offline
      apollon77
      schrieb am zuletzt editiert von
      #50

      Wie viele States habt Ihr so aktiviert?

      Wer "Lust" hat mal was auszuprobieren: https://github.com/ioBroker/ioBroker.sql/issues/127#issuecomment-647346141

      Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

      • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
      • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
      1 Antwort Letzte Antwort
      0
      • U Offline
        U Offline
        Urs
        schrieb am zuletzt editiert von
        #51

        Ich schreibe ungefähr 150 States aus ca 30 Adaptern in die DB. Waren aber auch schon bis 190 und als ich die Probleme hatte waren es ungefähr 160.

        Die Versionen zurück oder Dein Link hatte ich noch nicht den Mut und die Zeit es auszuprobieren, da es im Moment bei mir läuft (ohne die beiden Internet-Speedtest-Adapter wie oben beschrieben).

        1 Antwort Letzte Antwort
        0
        • s.bormannS Offline
          s.bormannS Offline
          s.bormann
          Most Active
          schrieb am zuletzt editiert von
          #52

          Hallo,

          ich habe vor einigen Tagen auch alle Werte auf Typ "Nummer" umgestellt. Seither habe ich keine Probleme mit der Prozessorlast mehr. Irgendwas beim Speichern von anderen Datentypen scheint problematisch zu sein!

          LG

          apollon77A 1 Antwort Letzte Antwort
          0
          • s.bormannS s.bormann

            Hallo,

            ich habe vor einigen Tagen auch alle Werte auf Typ "Nummer" umgestellt. Seither habe ich keine Probleme mit der Prozessorlast mehr. Irgendwas beim Speichern von anderen Datentypen scheint problematisch zu sein!

            LG

            apollon77A Offline
            apollon77A Offline
            apollon77
            schrieb am zuletzt editiert von
            #53

            @s-bormann Das mag sein ... der Fix den wir gemacht haben kann sehr gut damit zu tun haben ... wenn nämlich datentypen nicht definiert waren kam es vor das danach dinge mehrfach ausgeführt wurden und sowas ...

            Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

            • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
            • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
            1 Antwort Letzte Antwort
            0
            • Z Offline
              Z Offline
              Zappie
              schrieb am zuletzt editiert von
              #54

              Screenshot_2020-06-27 pve - Proxmox Virtual Environment.png

              Hallo,

              Für mich ist das Upgrade auf Version 1.14.2 die Lösung.

              Gruss

              apollon77A 1 Antwort Letzte Antwort
              0
              • Z Zappie

                Screenshot_2020-06-27 pve - Proxmox Virtual Environment.png

                Hallo,

                Für mich ist das Upgrade auf Version 1.14.2 die Lösung.

                Gruss

                apollon77A Offline
                apollon77A Offline
                apollon77
                schrieb am zuletzt editiert von
                #55

                @Zappie Danke die Antwort habe ich gebraucht :-)

                Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                s.bormannS 1 Antwort Letzte Antwort
                0
                • B Offline
                  B Offline
                  bvol
                  schrieb am zuletzt editiert von
                  #56

                  1.14.2 verhält sich unauffällig. CPU Last im erwarteten Bereich, also gem. top zwischen 0 und 0.4%. Wie es sein soll.

                  1 Antwort Letzte Antwort
                  0
                  • U Urs

                    @bvol Danke für die Ausführungen.

                    Strings in der ts_number wären mir aufgefallen, hatte ich nie. Ich bin aber auch nicht so Fan von Strings. Ausser ein paar good, average und bad gibt es noch up down und stable, wobei ich die letzten 3 auch noch rausschmeissen werde, kann man ja anhand der Daten bei Bedarf sehen/errechnen. Am Anfang hatte ich gerade bei Netatmo auch die min/max Datum in die SQL geschrieben, aber auch das ist eigentlich Sinnfrei da ja jeder Datensatz mit der Unix-Zeit gespeichert wird.

                    Danke für den Tip mit dem Kopieren. Da scheint wirklich was faul zu sein:
                    52a3664d-12b0-40bd-8d00-ef87807a635f-image.png
                    Entrümpeln wäre daher sicher gut...aber spätestens bei php Script muss ich da aussteigen. Gibt es da echt auch eine einfache Lösung für Nicht-Admin und Nicht-Programmierer -sprich Laien- wie mich? Oder eine Schritt-für-Schritt-so-entrümpele-ich-meine-SQL-Datenbank-auch-ohne-Doktortitel-Anleitung? ;)

                    Performance Thema: Hmm, da hab ich heute auch was erlebt. Wollte Die SQL-Datenbank über HeidiSQL von Hand sichern, und zwar nicht wie sonst auf dem Windows PC sondern direkt auf einem Netzlaufwerk. Das dauerte 1h 20 Minuten für ungefähr 120Mb! Wenn ich auf dem PC sichere dann dauert es etwa 45 Sekunden. Hinter dem Netzlaufwerk verbirgt sich eine USB3 HDD welche an der Fritzbox per SMB freigegeben ist. Da erwarte ich keine Performance-Wunder aber das heute war dann doch eher sehr enttäuschend, zumal das hin und herschieben von Dateien auf dem Netzlaufwerk -in Anbetracht der eingesetzten Hardware - eine durchaus akzeptable Performance liefert. Muss kein SQL-Problem wie bei dir sein, kann genau so gut auch an meiner Unkenntnis liegen und ich hab irgendwo einen Schrott konfiguriert...

                    B Offline
                    B Offline
                    bvol
                    schrieb am zuletzt editiert von bvol
                    #57

                    @Urs hier das Cleanup Script: (es legt eine zusätzliche Tabelle mit den "gesäuberten" Daten an. Es sortiert nach ID und TS und schreibt nur die zum vorigen Wert geänderten Werte.)

                    <?php
                    
                    // SQL Verbindung
                    			$sqlserver = "MYSQLSERVERIP:3307"; // DB Server:Port
                    			$sqluser = "admin"; // DB User
                    			$sqlpw = "*******"; // DB User PW
                    			$sqlDB = "iobroker"; // DB Name
                    			$sourceTable = "ts_number"; // Source Table
                    			$cleanTable = $sourceTable ."_cleaned"; // Temp Table
                    			$writedatasets =100; // Number of datasets written to Temp Table using single SQL Statement
                    			$SQLqueryLIMIT=0; // For Testing purposes. 0 selects all Source sets.
                    
                    
                    // DB Verbindung bauen
                    			error_reporting(0);
                    			$db = mysqli_connect($sqlserver, $sqluser, $sqlpw, $sqlDB);
                    			print_r ($db->connect_error);
                    			if ($db->connect_errno) {
                    			    die('Sorry - gerade gibt es ein Problem');
                    			}
                    // Attempt select query execution
                    if ($SQLqueryLIMIT > 0) {
                    	$sql = "SELECT * FROM ".$sourceTable." ORDER BY id ASC,ts ASC LIMIT ".$SQLqueryLIMIT;
                    }
                    else {
                    	$sql = "SELECT * FROM ".$sourceTable." ORDER BY id ASC,ts ASC";
                    }
                    
                    
                    // load Table to memory
                    if($result = mysqli_query($GLOBALS['db'],$sql)){
                    // do nothing
                    }
                    
                    // Create Cleantable
                    
                    $sql ="DROP TABLE IF EXISTS `".$cleanTable."`";
                    mysqli_query($GLOBALS['db'],$sql);
                    $sql ="CREATE TABLE `".$cleanTable."` SELECT * FROM `".$sourceTable."` WHERE 1 = 2";
                    mysqli_query($GLOBALS['db'],$sql);
                    $sql ="ALTER TABLE `".$cleanTable."` ADD PRIMARY KEY (`id`,`ts`)";
                    mysqli_query($GLOBALS['db'],$sql);
                    
                    
                    $idprev=0;
                    $valprev=0;
                    $saetze=0;
                    $DataArr = array();
                    while($row = mysqli_fetch_array($result)){
                    	if (($row['val']==$valprev) && ($row['id']==$idprev)) {
                    		//echo $idprev .  " " . $valprev .  " " . $tsprev  . " Behalten \n";
                    		//echo $row['id'] .  " " . $row['val'] .  " " . $row['ts']  . " Loeschen \n";
                    		}
                    	else
                    		{
                    			$fieldVal1 = ($row['id']);
                          $fieldVal2 = ($row['ts']);
                          $fieldVal3 = ($row['val']);
                    			$fieldVal4 = ($row['ack']);
                    			$fieldVal5 = ($row['_from']);
                    			$fieldVal6 = ($row['q']);
                    			$DataArr[] = "('$fieldVal1','$fieldVal2','$fieldVal3','$fieldVal4','$fieldVal5','$fieldVal6')";
                    			$idprev=$row['id'];
                    			$valprev=$row['val'];
                    			$tsprev=$row['ts'];
                    			$saetze++;
                    		}
                    	if ($saetze==$GLOBALS['writedatasets']){
                    		$sql = "INSERT INTO ".$cleanTable." (id, ts, val, ack, _from, q) values ";
                    		$sql .= implode(',', $DataArr);
                    		$sql .= ";";
                    		// echo $sql;
                    		mysqli_query($GLOBALS['db'], $sql);
                    		$saetze=0;
                    		unset($DataArr); // $DataArr is gone
                    		$DataArr = array(); // $DataArr is here again
                    	}
                    
                    
                    }
                    if ($saetze>=0){
                    	//echo implode(',', $DataArr);
                    	$sql = "INSERT INTO ".$cleanTable." (id, ts, val, ack, _from, q) values ";
                    	$sql .= implode(',', $DataArr);
                    	$sql .= ";";
                    	//echo $sql;
                    	mysqli_query($GLOBALS['db'], $sql);
                    }
                    
                    echo mysqli_num_rows($result);
                    // Free result set
                    mysqli_free_result($result);
                    // DB Verbindung schliessen
                    mysqli_close($db);
                    ?>
                    
                    

                    Code als php Script speichern und mit php ausführen. ACHTUNG: Script zieht die gesamte Tabelle in den Speicher, sorgt also für genügend RAM, je nachdem wie gross die Tabelle ist.

                    Zum Testen $SQLqueryLIMIT mal auf 1000 setzen, dann werden nur die ersten 1000 Tabelleneinträge geholt.

                    $writedatasets =100; definiert die Anzahl an Datensätzen, die mittels einem SQL Statement in die cleaned Tabelle geschrieben werden. Sorgt für mehr Speed, kann aber den MySQL Server überfordern. Mit dem Wert 100 habe ich gute Erfahrungen gemacht.

                    $sourceTable = "ts_number"; -> gibt die zu lesende Tabelle an.

                    Wenn das Ergebnis den Erwartungen entspricht, dann mittels phpMyAdmin o.Ä. die Tabellen entsprechend umbenennen...

                    U 1 Antwort Letzte Antwort
                    0
                    • apollon77A apollon77

                      @Zappie Danke die Antwort habe ich gebraucht :-)

                      s.bormannS Offline
                      s.bormannS Offline
                      s.bormann
                      Most Active
                      schrieb am zuletzt editiert von
                      #58

                      @apollon77 Bei mir läuft auch wieder alles! Danke fürs Fixen!

                      1 Antwort Letzte Antwort
                      0
                      • B bvol

                        @Urs hier das Cleanup Script: (es legt eine zusätzliche Tabelle mit den "gesäuberten" Daten an. Es sortiert nach ID und TS und schreibt nur die zum vorigen Wert geänderten Werte.)

                        <?php
                        
                        // SQL Verbindung
                        			$sqlserver = "MYSQLSERVERIP:3307"; // DB Server:Port
                        			$sqluser = "admin"; // DB User
                        			$sqlpw = "*******"; // DB User PW
                        			$sqlDB = "iobroker"; // DB Name
                        			$sourceTable = "ts_number"; // Source Table
                        			$cleanTable = $sourceTable ."_cleaned"; // Temp Table
                        			$writedatasets =100; // Number of datasets written to Temp Table using single SQL Statement
                        			$SQLqueryLIMIT=0; // For Testing purposes. 0 selects all Source sets.
                        
                        
                        // DB Verbindung bauen
                        			error_reporting(0);
                        			$db = mysqli_connect($sqlserver, $sqluser, $sqlpw, $sqlDB);
                        			print_r ($db->connect_error);
                        			if ($db->connect_errno) {
                        			    die('Sorry - gerade gibt es ein Problem');
                        			}
                        // Attempt select query execution
                        if ($SQLqueryLIMIT > 0) {
                        	$sql = "SELECT * FROM ".$sourceTable." ORDER BY id ASC,ts ASC LIMIT ".$SQLqueryLIMIT;
                        }
                        else {
                        	$sql = "SELECT * FROM ".$sourceTable." ORDER BY id ASC,ts ASC";
                        }
                        
                        
                        // load Table to memory
                        if($result = mysqli_query($GLOBALS['db'],$sql)){
                        // do nothing
                        }
                        
                        // Create Cleantable
                        
                        $sql ="DROP TABLE IF EXISTS `".$cleanTable."`";
                        mysqli_query($GLOBALS['db'],$sql);
                        $sql ="CREATE TABLE `".$cleanTable."` SELECT * FROM `".$sourceTable."` WHERE 1 = 2";
                        mysqli_query($GLOBALS['db'],$sql);
                        $sql ="ALTER TABLE `".$cleanTable."` ADD PRIMARY KEY (`id`,`ts`)";
                        mysqli_query($GLOBALS['db'],$sql);
                        
                        
                        $idprev=0;
                        $valprev=0;
                        $saetze=0;
                        $DataArr = array();
                        while($row = mysqli_fetch_array($result)){
                        	if (($row['val']==$valprev) && ($row['id']==$idprev)) {
                        		//echo $idprev .  " " . $valprev .  " " . $tsprev  . " Behalten \n";
                        		//echo $row['id'] .  " " . $row['val'] .  " " . $row['ts']  . " Loeschen \n";
                        		}
                        	else
                        		{
                        			$fieldVal1 = ($row['id']);
                              $fieldVal2 = ($row['ts']);
                              $fieldVal3 = ($row['val']);
                        			$fieldVal4 = ($row['ack']);
                        			$fieldVal5 = ($row['_from']);
                        			$fieldVal6 = ($row['q']);
                        			$DataArr[] = "('$fieldVal1','$fieldVal2','$fieldVal3','$fieldVal4','$fieldVal5','$fieldVal6')";
                        			$idprev=$row['id'];
                        			$valprev=$row['val'];
                        			$tsprev=$row['ts'];
                        			$saetze++;
                        		}
                        	if ($saetze==$GLOBALS['writedatasets']){
                        		$sql = "INSERT INTO ".$cleanTable." (id, ts, val, ack, _from, q) values ";
                        		$sql .= implode(',', $DataArr);
                        		$sql .= ";";
                        		// echo $sql;
                        		mysqli_query($GLOBALS['db'], $sql);
                        		$saetze=0;
                        		unset($DataArr); // $DataArr is gone
                        		$DataArr = array(); // $DataArr is here again
                        	}
                        
                        
                        }
                        if ($saetze>=0){
                        	//echo implode(',', $DataArr);
                        	$sql = "INSERT INTO ".$cleanTable." (id, ts, val, ack, _from, q) values ";
                        	$sql .= implode(',', $DataArr);
                        	$sql .= ";";
                        	//echo $sql;
                        	mysqli_query($GLOBALS['db'], $sql);
                        }
                        
                        echo mysqli_num_rows($result);
                        // Free result set
                        mysqli_free_result($result);
                        // DB Verbindung schliessen
                        mysqli_close($db);
                        ?>
                        
                        

                        Code als php Script speichern und mit php ausführen. ACHTUNG: Script zieht die gesamte Tabelle in den Speicher, sorgt also für genügend RAM, je nachdem wie gross die Tabelle ist.

                        Zum Testen $SQLqueryLIMIT mal auf 1000 setzen, dann werden nur die ersten 1000 Tabelleneinträge geholt.

                        $writedatasets =100; definiert die Anzahl an Datensätzen, die mittels einem SQL Statement in die cleaned Tabelle geschrieben werden. Sorgt für mehr Speed, kann aber den MySQL Server überfordern. Mit dem Wert 100 habe ich gute Erfahrungen gemacht.

                        $sourceTable = "ts_number"; -> gibt die zu lesende Tabelle an.

                        Wenn das Ergebnis den Erwartungen entspricht, dann mittels phpMyAdmin o.Ä. die Tabellen entsprechend umbenennen...

                        U Offline
                        U Offline
                        Urs
                        schrieb am zuletzt editiert von
                        #59

                        @bvol hey, cool, vielen Dank. Muss mal schauen wann ich dazu komme das mal auszuprobieren. Melde mich wieder.

                        1 Antwort Letzte Antwort
                        0
                        • U Urs

                          @AlCalzone
                          Danke.
                          Werde aber noch zuwarten mit downgraden, denn im Moment läuft es mit knapp 10% CPU-Last, aber gut zu wissen wie es geht falls es dann doch nötig ist.

                          Die im obigen Screenshot gezeigten Adapter hab ich entweder gelöscht weil sie nur zum testen waren (iquontrol, exchange rates und unify) oder nacheinander upgedated (ohne Auffälligkeiten). Bis auf einen, den Vodafone Speedcheck. Da bin ich mir noch nicht sicher ob ich den oder eher den web speedy nehmen soll, muss ich bei Gelegenheit nochmal testen.

                          Aber durch die ganze Testerei hab ich jetzt verschiedene hässliche Meldungen vom SQL Adapter bzw von MariaDB:

                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for web-speedy.0.Results.server.ping
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for web-speedy.0.Results.speeds.upload_MB
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for web-speedy.0.Results.speeds.download_Mb
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for web-speedy.0.Results.speeds.download_MB
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.ping.packetLoss
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.ping.avg
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.ping.max
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.ping.min
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.upload_Mb
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.upload_MB
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.download_MB
                          

                          Wie bekomme ich die am bessten weg?

                          etvE Offline
                          etvE Offline
                          etv
                          schrieb am zuletzt editiert von
                          #60

                          Ich habe die selben Meldungen für Datenpunkte die ich leider gelöscht habe bevor ich das Logging disabled hab...

                          Aber durch die ganze Testerei hab ich jetzt verschiedene hässliche Meldungen vom SQL Adapter bzw von MariaDB:

                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for web-speedy.0.Results.server.ping
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for web-speedy.0.Results.speeds.upload_MB
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for web-speedy.0.Results.speeds.download_Mb
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for web-speedy.0.Results.speeds.download_MB
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.ping.packetLoss
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.ping.avg
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.ping.max
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.ping.min
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.upload_Mb
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.upload_MB
                          sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.download_MB
                          

                          Auch meine Frage - wie bekommt man die weg? Wie kann man das SQL Logging für nicht mehr existente Datenpunkte abdrehen?

                          Liebe Grüße
                          Tom

                          …ist schon sehr lange begeisterter ioBroker Nutzer! 1x zu Hause und 1x auf der Alm. ioBroker ist das 'Hirn' des Smarthome und steuert HomeMatic und Shellys, loggt was so passiert, zeigt es auf Tabletts schön an und ermöglicht mir via Cloud Adapter den Fernzugriff...

                          Dr. BakteriusD 1 Antwort Letzte Antwort
                          0
                          • etvE etv

                            Ich habe die selben Meldungen für Datenpunkte die ich leider gelöscht habe bevor ich das Logging disabled hab...

                            Aber durch die ganze Testerei hab ich jetzt verschiedene hässliche Meldungen vom SQL Adapter bzw von MariaDB:

                            sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for web-speedy.0.Results.server.ping
                            sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for web-speedy.0.Results.speeds.upload_MB
                            sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for web-speedy.0.Results.speeds.download_Mb
                            sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for web-speedy.0.Results.speeds.download_MB
                            sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.ping.packetLoss
                            sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.ping.avg
                            sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.ping.max
                            sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.ping.min
                            sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.upload_Mb
                            sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.upload_MB
                            sql.0	2020-06-04 03:59:59.727	warn	(3939) No realID found for vodafone-speedtest.0.Results.download_MB
                            

                            Auch meine Frage - wie bekommt man die weg? Wie kann man das SQL Logging für nicht mehr existente Datenpunkte abdrehen?

                            Liebe Grüße
                            Tom

                            Dr. BakteriusD Online
                            Dr. BakteriusD Online
                            Dr. Bakterius
                            Most Active
                            schrieb am zuletzt editiert von
                            #61

                            @etv Geloggt wird eh nicht mehr, aber die Werte befinden sich noch in der Datenbank. Das wäre auch so, wenn du das Logging vorher deaktiviert hättest. Ich habe die entsprechenden Werte direkt aus der Datenbank gelöscht. Da sollte man aber wissen was man tut.

                            apollon77A 1 Antwort Letzte Antwort
                            1
                            • Dr. BakteriusD Dr. Bakterius

                              @etv Geloggt wird eh nicht mehr, aber die Werte befinden sich noch in der Datenbank. Das wäre auch so, wenn du das Logging vorher deaktiviert hättest. Ich habe die entsprechenden Werte direkt aus der Datenbank gelöscht. Da sollte man aber wissen was man tut.

                              apollon77A Offline
                              apollon77A Offline
                              apollon77
                              schrieb am zuletzt editiert von
                              #62

                              @Dr-Bakterius Dem Adapter ist egal was in der DB steht ... kann es sein das aus irgend einem Grund nur der STate gelköscht ist aber das Objekt noch da ist ... ja das Thema steht noch auf der Liste ...

                              @etv
                              mach bitte mal an der Kommandozeile

                              iobroker object get vodafone-speedtest.0.Results.ping.packetLoss

                              und

                              iobroker state get vodafone-speedtest.0.Results.ping.packetLoss

                              Und sag mal was das gibt

                              Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                              • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                              • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                              liv-in-skyL Dr. BakteriusD etvE 3 Antworten Letzte Antwort
                              0
                              • apollon77A apollon77

                                @Dr-Bakterius Dem Adapter ist egal was in der DB steht ... kann es sein das aus irgend einem Grund nur der STate gelköscht ist aber das Objekt noch da ist ... ja das Thema steht noch auf der Liste ...

                                @etv
                                mach bitte mal an der Kommandozeile

                                iobroker object get vodafone-speedtest.0.Results.ping.packetLoss

                                und

                                iobroker state get vodafone-speedtest.0.Results.ping.packetLoss

                                Und sag mal was das gibt

                                liv-in-skyL Offline
                                liv-in-skyL Offline
                                liv-in-sky
                                schrieb am zuletzt editiert von
                                #63

                                @apollon77

                                habe da auch massig davon

                                Image 6.png

                                kam durch json-import von anderen usen - für script-testen
                                datenpunkte sind mitlerweile gelöscht

                                nach einem gelösten Thread wäre es sinnvoll dies in der Überschrift des ersten Posts einzutragen [gelöst]-... Bitte benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat. Forum-Tools: PicPick https://picpick.app/en/download/ und ScreenToGif https://www.screentogif.com/downloads.html

                                apollon77A 1 Antwort Letzte Antwort
                                0
                                • liv-in-skyL liv-in-sky

                                  @apollon77

                                  habe da auch massig davon

                                  Image 6.png

                                  kam durch json-import von anderen usen - für script-testen
                                  datenpunkte sind mitlerweile gelöscht

                                  apollon77A Offline
                                  apollon77A Offline
                                  apollon77
                                  schrieb am zuletzt editiert von
                                  #64

                                  @liv-in-sky Und das State? das noch da?

                                  Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                  • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                  • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                  liv-in-skyL 1 Antwort Letzte Antwort
                                  0
                                  • apollon77A apollon77

                                    @liv-in-sky Und das State? das noch da?

                                    liv-in-skyL Offline
                                    liv-in-skyL Offline
                                    liv-in-sky
                                    schrieb am zuletzt editiert von
                                    #65

                                    @apollon77

                                    der wird doch mitgelöscht, wenn man die datenpunkte löscht ? oder

                                    habe mal abgefragt:

                                    log(getState('maxcube.0.devices.thermostat_101881.setpoint').val)
                                    

                                    Image 11.png

                                    nach einem gelösten Thread wäre es sinnvoll dies in der Überschrift des ersten Posts einzutragen [gelöst]-... Bitte benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat. Forum-Tools: PicPick https://picpick.app/en/download/ und ScreenToGif https://www.screentogif.com/downloads.html

                                    apollon77A 1 Antwort Letzte Antwort
                                    0
                                    • liv-in-skyL liv-in-sky

                                      @apollon77

                                      der wird doch mitgelöscht, wenn man die datenpunkte löscht ? oder

                                      habe mal abgefragt:

                                      log(getState('maxcube.0.devices.thermostat_101881.setpoint').val)
                                      

                                      Image 11.png

                                      apollon77A Offline
                                      apollon77A Offline
                                      apollon77
                                      schrieb am zuletzt editiert von
                                      #66

                                      @liv-in-sky Ja sollte er ... ich versuche es zu verstehen ... :-) Also alles ausschliessen

                                      An sich liesst der sql Adapter zu Beginn die Objekte die ein custom haben ... also wenn Objekte gelöscht sind sollte er die nie bekommen

                                      Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                      • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                      • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                      liv-in-skyL 2 Antworten Letzte Antwort
                                      0
                                      • apollon77A apollon77

                                        @liv-in-sky Ja sollte er ... ich versuche es zu verstehen ... :-) Also alles ausschliessen

                                        An sich liesst der sql Adapter zu Beginn die Objekte die ein custom haben ... also wenn Objekte gelöscht sind sollte er die nie bekommen

                                        liv-in-skyL Offline
                                        liv-in-skyL Offline
                                        liv-in-sky
                                        schrieb am zuletzt editiert von
                                        #67

                                        @apollon77

                                        genau so hätte ich mir das auch vorgestellt

                                        wenn ich mit dem tool in der datenbank suche nach max kommt auch nix

                                        Image 12.png

                                        nach einem gelösten Thread wäre es sinnvoll dies in der Überschrift des ersten Posts einzutragen [gelöst]-... Bitte benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat. Forum-Tools: PicPick https://picpick.app/en/download/ und ScreenToGif https://www.screentogif.com/downloads.html

                                        1 Antwort Letzte Antwort
                                        0
                                        • apollon77A apollon77

                                          @liv-in-sky Ja sollte er ... ich versuche es zu verstehen ... :-) Also alles ausschliessen

                                          An sich liesst der sql Adapter zu Beginn die Objekte die ein custom haben ... also wenn Objekte gelöscht sind sollte er die nie bekommen

                                          liv-in-skyL Offline
                                          liv-in-skyL Offline
                                          liv-in-sky
                                          schrieb am zuletzt editiert von
                                          #68

                                          @apollon77

                                          in der sql datenbank ist noch was - aber das ist wohl das problem

                                          Image 13.png

                                          nach einem gelösten Thread wäre es sinnvoll dies in der Überschrift des ersten Posts einzutragen [gelöst]-... Bitte benutzt das Voting rechts unten im Beitrag wenn er euch geholfen hat. Forum-Tools: PicPick https://picpick.app/en/download/ und ScreenToGif https://www.screentogif.com/downloads.html

                                          apollon77A 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate
                                          FAQ Cloud / IOT
                                          HowTo: Node.js-Update
                                          HowTo: Backup/Restore
                                          Downloads
                                          BLOG

                                          729

                                          Online

                                          32.5k

                                          Benutzer

                                          81.7k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe