Navigation

    Logo
    • Register
    • Login
    • Search
    • Recent
    • Tags
    • Unread
    • Categories
    • Unreplied
    • Popular
    • GitHub
    • Docu
    • Hilfe
    1. Home
    2. Deutsch
    3. ioBroker Allgemein
    4. Nur mal eine Idee: Microsoft cognitive services

    NEWS

    • ioBroker@Smart Living Forum Solingen, 14.06. - Agenda added

    • ioBroker goes Matter ... Matter Adapter in Stable

    • Monatsrückblick - April 2025

    Nur mal eine Idee: Microsoft cognitive services

    This topic has been deleted. Only users with topic management privileges can see it.
    • Dutchman
      Dutchman Developer Most Active Administrators last edited by

      Klinkt schlüssig und plausible und garnicht Mal so schwer in ja zu machen…

      Hoffentlich ist am WE noch was Zeit übrig 😉

      Sent from my iPhone using Tapatalk

      1 Reply Last reply Reply Quote 0
      • S
        schroedinger last edited by

        hi,

        ich denke ich bin einen wesentlichen Schritt weiter .

        (Mit der Hilfe von MS) habe ich ein Skript geschrieben, welches das Bild der Webcam hochladet und als response "faceId" und ein Mengen von attributes zurücksendet.

        Hier das Script:

        ` > 'use strict';

        const request = require('request');

        // Replace <subscription key="">with your valid subscription key.

        const subscriptionKey = '<api_key>'; // hier muss der API-key eingetragen werden

        // You must use the same location in your REST call as you used to get your

        // subscription keys. For example, if you got your subscription keys from

        // westus, replace "westcentralus" in the URL below with "westus".

        const uriBase = 'https://westeurope.api.cognitive.micros … 1.0/detect';

        const imageUrl =

        'http://<ip_adresse>/photo.jpg'; //hier die IP-Adresse des Bildes oder der Webcam eintragen

        // Request parameters.

        const params = {

        'returnFaceId': 'true',

        'returnFaceLandmarks': 'false',

        'returnFaceAttributes': 'age,gender,headPose,smile,facialHair,glasses,' +

        'emotion,hair,makeup,occlusion,accessories,blur,exposure,noise'

        };

        const options = {

        uri: uriBase,

        qs: params,

        body: '{"url": ' + '"' + imageUrl + '"}',

        headers: {

        'Content-Type': 'application/json',

        'Ocp-Apim-Subscription-Key' : subscriptionKey

        }

        };

        request.post(options, (error, response, body) => {

        if (error) {

        console.log('Error: ', error);

        return;

        }

        let jsonResponse = JSON.stringify(JSON.parse(body), null, ' ');

        console.log('JSON Response\n');

        console.log(jsonResponse);

        });</ip_adresse></api_key></subscription> `

        wenn man dieses script startet (es läuft fehlerlos), dann erhält man im log folgende response (man beachte die Vielzahl an Attributen die die Gesichtserkennung versucht zu erkennen)

        ` > javascript.0 2018-10-07 20:24:30.081 info ]

        javascript.0 2018-10-07 20:24:30.081 info }

        javascript.0 2018-10-07 20:24:30.081 info }

        javascript.0 2018-10-07 20:24:30.081 info }

        javascript.0 2018-10-07 20:24:30.081 info ]

        javascript.0 2018-10-07 20:24:30.081 info }

        javascript.0 2018-10-07 20:24:30.081 info "confidence": 0.02

        javascript.0 2018-10-07 20:24:30.081 info "color": "red",

        javascript.0 2018-10-07 20:24:30.081 info {

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "confidence": 0.12

        javascript.0 2018-10-07 20:24:30.081 info "color": "brown",

        javascript.0 2018-10-07 20:24:30.081 info {

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "confidence": 0.13

        javascript.0 2018-10-07 20:24:30.081 info "color": "black",

        javascript.0 2018-10-07 20:24:30.081 info {

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "confidence": 0.42

        javascript.0 2018-10-07 20:24:30.081 info "color": "other",

        javascript.0 2018-10-07 20:24:30.081 info {

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "confidence": 0.94

        javascript.0 2018-10-07 20:24:30.081 info "color": "blond",

        javascript.0 2018-10-07 20:24:30.081 info {

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "confidence": 1

        javascript.0 2018-10-07 20:24:30.081 info "color": "gray",

        javascript.0 2018-10-07 20:24:30.081 info {

        javascript.0 2018-10-07 20:24:30.081 info "hairColor": [

        javascript.0 2018-10-07 20:24:30.081 info "invisible": false,

        javascript.0 2018-10-07 20:24:30.081 info "bald": 0.66,

        javascript.0 2018-10-07 20:24:30.081 info "hair": {

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "mouthOccluded": false

        javascript.0 2018-10-07 20:24:30.081 info "eyeOccluded": false,

        javascript.0 2018-10-07 20:24:30.081 info "foreheadOccluded": false,

        javascript.0 2018-10-07 20:24:30.081 info "occlusion": {

        javascript.0 2018-10-07 20:24:30.081 info "accessories": [],

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "lipMakeup": false

        javascript.0 2018-10-07 20:24:30.081 info "eyeMakeup": false,

        javascript.0 2018-10-07 20:24:30.081 info "makeup": {

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "value": 0.4

        javascript.0 2018-10-07 20:24:30.081 info "noiseLevel": "medium",

        javascript.0 2018-10-07 20:24:30.081 info "noise": {

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "value": 0.74

        javascript.0 2018-10-07 20:24:30.081 info "exposureLevel": "goodExposure",

        javascript.0 2018-10-07 20:24:30.081 info "exposure": {

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "value": 0.81

        javascript.0 2018-10-07 20:24:30.081 info "blurLevel": "high",

        javascript.0 2018-10-07 20:24:30.081 info "blur": {

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "surprise": 0

        javascript.0 2018-10-07 20:24:30.081 info "sadness": 0.004,

        javascript.0 2018-10-07 20:24:30.081 info "neutral": 0.996,

        javascript.0 2018-10-07 20:24:30.081 info "happiness": 0,

        javascript.0 2018-10-07 20:24:30.081 info "fear": 0,

        javascript.0 2018-10-07 20:24:30.081 info "disgust": 0,

        javascript.0 2018-10-07 20:24:30.081 info "contempt": 0,

        javascript.0 2018-10-07 20:24:30.081 info "anger": 0,

        javascript.0 2018-10-07 20:24:30.081 info "emotion": {

        javascript.0 2018-10-07 20:24:30.081 info "glasses": "NoGlasses",

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "sideburns": 0.1

        javascript.0 2018-10-07 20:24:30.081 info "beard": 0.1,

        javascript.0 2018-10-07 20:24:30.081 info "moustache": 0.1,

        javascript.0 2018-10-07 20:24:30.081 info "facialHair": {

        javascript.0 2018-10-07 20:24:30.081 info "age": 49,

        javascript.0 2018-10-07 20:24:30.081 info "gender": "male",

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "yaw": -7.8

        javascript.0 2018-10-07 20:24:30.081 info "roll": 8.1,

        javascript.0 2018-10-07 20:24:30.081 info "pitch": 0,

        javascript.0 2018-10-07 20:24:30.081 info "headPose": {

        javascript.0 2018-10-07 20:24:30.081 info "smile": 0,

        javascript.0 2018-10-07 20:24:30.081 info "faceAttributes": {

        javascript.0 2018-10-07 20:24:30.081 info },

        javascript.0 2018-10-07 20:24:30.081 info "height": 305

        javascript.0 2018-10-07 20:24:30.081 info "width": 305,

        javascript.0 2018-10-07 20:24:30.081 info "left": 275,

        javascript.0 2018-10-07 20:24:30.081 info "top": 221,

        javascript.0 2018-10-07 20:24:30.081 info "faceRectangle": {

        javascript.0 2018-10-07 20:24:30.081 info "faceId": "d1dd7a36-6206-4287-8d73-a76788bb4ccb",

        javascript.0 2018-10-07 20:24:30.081 info { `

        Wichtig ist jetzt hauptsächlich die der erhaltene "faceId" - Code ("d1dd7a36-6206-4287-8d73-a76788bb4ccb")

        Diesen Code würde man anschließend wieder an die Cognitive Service senden und als response erhalten , ob das Gesicht mit einer (vorher dort definierten) Person übereinstimmt.

        Wo ist jetzt mein Problem?

        Offen gesagt kenne ich mich mit Node JS nicht wirklich aus, daher weiss ich auch nicht wie ich Folgendes verwirklichen kann:

        In dem oben angeführten Script müßte die erhaltene "faceId" (und ev. einige der zusätzlich erhaltenen face-attributes) in einer Variable (oder einen Datenpunkt?) ablegen um daraus dann wieder ein http request (zu hochladen des faceId) zu erhalten.

        Die dann erhaltene Antwort (= Name der erkannten Person oder ein "unkown person") sollten dann jedenfalls in einen Datenpunkt abgelegt werden.

        VIelleicht hat jemand Zeit & Lust das obige Script diesbezüglich zu erweitern?

        cu

        schroedinger

        1 Reply Last reply Reply Quote 0
        • S
          schroedinger last edited by

          Hi,

          mich hat diese Idee (ein IP-cam-Bild an Microsoft cognitive services zu senden um Gesichter zu erkennen & idenfizieren) nicht losgelassen.

          Und obwohl ich eigentlich JS nicht beherrsche, ist es mir trotzdem gelungen.

          Ich beschreibe mal was ich erreichen wollte und was mir gelungen ist:

          Ich wollte

          • das Bild einer Webcam an die Microsoft API senden und dort das Gesicht oder die Gesichter erkennen zu lassen

          • die "response" erfassen; d.h. eine "faceID" erhalten und ein paar faceattributes (zB.Alter)

          • die erhaltene faceId wieder hochladen und dort eine Person identifizieren lassen

          • den Namen der identifizieren Person in ein iobroker-object schreiben.

          Gemacht habe ich das mit dem folgenden Script

          (dazu vorab: ihr werdet schnell feststellen, dass ich nicht wirklich programmieren kann, das ganze kann man sicher eleganter und effizienter programmieren; ich bin sicher, dass einige Programmzeilen überflüssig sind; auch die "remarks" (//) dürften nicht immer nachvollziehbar sein, ich habe diese meistens nur für mich als Gedankenstütze angefügt)

          Hier das Script:

          ` > createState('personenIDobject', 'unbekannt!'); // ein iobroker object hier kommt Personen ID rein

          createState('erkannteperson', 'niemand erkannt'); // hier kommt Name der erkannten Person sonst "unbekannt"

          'use strict';

          const request = require('request');

          // Replace <subscription key="">with your valid subscription key.

          const subscriptionKey = '<api-key>';

          // You must use the same location in your REST call as you used to get your

          // subscription keys. For example, if you got your subscription keys from

          // westus, replace "westcentralus" in the URL below with "westus".

          const uriBase = 'https://westeurope.api.cognitive.micros … 1.0/detect';

          const imageUrl =

          'http://<ip-adddresse_zu_bild>.jpg'

          // Request parameters.

          const params = {

          'returnFaceId': 'true',

          'returnFaceLandmarks': 'false',

          'returnFaceAttributes': 'age,gender,headPose,smile,facialHair,glasses,' +

          'emotion,hair,makeup,occlusion,accessories,blur,exposure,noise'

          };

          const options = {

          uri: uriBase,

          qs: params,

          body: '{"url": ' + '"' + imageUrl + '"}',

          headers: {

          'Content-Type': 'application/json',

          'Ocp-Apim-Subscription-Key' : subscriptionKey

          }

          };

          request.post(options, (error, response, body) => {

          if (error) {

          console.log('Error: ', error);

          return;

          }

          let jsonResponse = JSON.stringify(JSON.parse(body), null, ' ');

          console.log('JSON Response\n');

          console.log(jsonResponse);

          var faces = JSON.parse(body);

          if (faces.length === 0) {

          return;

          }

          var face = faces[0]; // 1. Objekt auf body ist face

          var faceId = face.faceId; // Wert von property "faceId"

          // console.log(face);

          console.log(faceId);

          // console.log(faces[0].faceRectangle.top); nicht benötigt , nur Lernzwecke

          var smile = (faces[0].faceAttributes.smile); // Lächenl ja/nein?

          console.log(smile);

          var age = (faces[0].faceAttributes.age); // Alter der erkannten Person

          console.log(age);

          // **** Gesicht erkannt faceID ist in Variable faceID *****

          // **** jetzt hochladen und versuchen zu erkennen ******

          console.log("***** STARTE IDENTIFY");

          // Request parameters.

          const uriBase2 = 'https://westeurope.api.cognitive.micros … 0/identify';

          const params2 = {

          };

          const body2 = JSON.stringify({ // definiere hier den body für 2. abfrage

          "personGroupId": 'klaus_persongroup',

          "faceIds": [

          faceId,

          ],

          "maxNumOfCandidatesReturned": 1,

          "confidenceThreshold": 0.5

          });

          const options2 = {

          uri: uriBase2,

          qs: params2,

          body: body2,

          headers: {

          'Content-Type': 'application/json',

          'Ocp-Apim-Subscription-Key' : subscriptionKey

          }

          };

          request.post(options2, (error, response, body) => {

          if (error) {

          console.log('Error: ', error);

          return;

          }

          let jsonResponse2 = JSON.stringify(JSON.parse(body), null, ' ');

          console.log('JSON Response\n');

          console.log(jsonResponse2);

          var persons = JSON.parse(body);

          if (persons.length === 0) {

          return;

          }

          var person = persons[0]; // 1. Objekt auf body ist Person

          var faceId2 = person.faceId; // faceId2 ist value von hochgeladenen gesicht

          // console.log(face);

          console.log(faceId2);

          console.log(jsonResponse2.faceID);

          console.log(person.faceId);

          console.log(persons[0].faceId);

          console.log(persons[0].personId);

          var personstring = JSON.stringify(JSON.parse(body));

          var PERSONID = personstring.substr(77, 36); // hole hier aus response erkannte Person

          console.log("**** Ausweichweg - hole PERSONID mit STR")

          console.log(PERSONID)

          setState('javascript.0.personenIDobject',PERSONID);

          // ab hier Abfrage ob erkannte Person "Klaus" ist ****

          console.log(PERSONID) // ID der identifizierten Person

          if (PERSONID == "2d4ad710-6381-480d-9556-7d2567f75632") {

          console.log("***** KLAUS ******");

          setState("javascript.0.erkannteperson","Klaus");

          } else {

          console.log("unbekannt :-(");

          setState("javascript.0.erkannteperson","unbekannt");

          }

          });

          });</ip-adddresse_zu_bild></api-key></subscription> `

          Was versuche ich jetzt noch zu machen?

          • zurzeit wird nur 1 Person erkannt, dies möchte ich auf mehrer Personen ausweiten

          • mir überlegen, wie ich das ganze "triggern" kann, d.h. welches Ereignis startet das Script (vermutlich mache ich das über einen Bewegungssenor)

          • verschiedenen Aktionen zu definieren - wenn eine Person erkannt wird - oder wenn eine unbekannte Person zB. den Garten betritt

          • vielleicht versuche ich etwas ähnliches auch mit "Stimmerkennung" zu verwirklichen

          Cool wäre es, wenn man das ganze mit einem Adapter verwirklichen könnte; allerdings dürfte mir dazu sowohl Zeit als auch Können fehlen.

          Vielleicht findet der eine oder andere das ganze auch interessant und möchte das THema aufgreifen. Oder vielleicht hat jemand Verbesserungsvorschläge. Auch darüber freue ich mich.

          cu

          schroedinger

          1 Reply Last reply Reply Quote 0
          • foxriver76
            foxriver76 Developer last edited by

            Wie viel Confidence spuckt MS-Algo denn für deine Person aus, wenn du z. B. ein Bild von dir vor die Cam hälst? Ich finde es grundsätzlich eine coole Sache, doch erfassen die IP Cams ja nur zweidimensionale Informationen, weshalb es ja für Sicherheitsgeschichten schon mal komplett raus wäre.

            Wofür setzt du es ein?

            1 Reply Last reply Reply Quote 0
            • S
              schroedinger last edited by

              Hi,

              stimmt schon für sicherheitsrelevante DInge würde ich das nicht verwenden - und zB. mit Apple's FaceID nicht zu vergleichen.

              Ansich ist es daher mehr eine Spielerei; falls es aber mal richtig funktioniert kann man schon ein paar coole Sachen damit machen.

              1 Reply Last reply Reply Quote 0
              • nurChris
                nurChris last edited by

                Hallo!

                Ich grab das hier mal wieder etwas aus… Eine solche Funktion hätte ich gerne damit zuverlässig erkannt wird welche Person nach Hause kommt um dann weitere Skripte danach zu steuern. Leider kann ich überhaupt kein JS. Wenn dann einwenig Blockly.

                Jedenfalls hab ich mir dein Skript angesehen und versucht das so zu übernehmen, nachdem ich einen Api Key eingetragen hab und ein Bild über imgur zum testen identifizieren wollte erhalte ich folgenden log:

                22:37:01.893	info	javascript.0 Start javascript script.js.Skript_2
                22:37:01.894	info	javascript.0 script.js.Skript_2: registered 0 subscriptions and 0 schedules
                22:37:02.229	info	javascript.0 script.js.Skript_2: JSON Response
                22:37:02.229	info	javascript.0 script.js.Skript_2: [ { "faceId": "4d7c65c0-a757-4dff-aafd-5293d608619e", "faceRectangle": { "top": 314, "left": 146, "width": 465, "height": 465 }, "faceAttributes": { "smile": 0, "headPose": { "pitch": 0, "roll": -2.3, "yaw": 6.8 }, "gender": "male", "age": 22, "facialHair": { "moustache": 0.1, "beard": 0.1, "sideburns": 0.1 }, "glasses": "NoGlasses", "emotion": { "anger": 0, "contempt": 0.002, "disgust": 0, "fear": 0, "happiness": 0, "neutral": 0.996, "sadness": 0.002, "surprise": 0 }, "blur": { "blurLevel": "low", "value": 0.07 }, "exposure": { "exposureLevel": "goodExposure", "value": 0.6 }, "noise": { "noiseLevel": "low", "value": 0.24 }, "makeup": { "eyeMakeup": false, "lipMakeup": false }, "accessories": [], "occlusion": { "foreheadOccluded": false, "eyeOccluded": false, "mouthOccluded": false }, "hair": { "bald": 0.03, "invisible": false, "hairColor": [ { "color": "blond", "confidence": 1 }, { "color": "gray", "confidence": 0.81 }, { "color": "brown", "confidence": 0.66 }, { "color": "red", "confidence": 0.21 }, { "color": "other", "confidence": 0.12 }, { "color": "black", "confidence": 0.01 } ] } } } ]
                22:37:02.230	info	javascript.0 script.js.Skript_2: 4d7c65c0-a757-4dff-aafd-5293d608619e
                22:37:02.230	info	javascript.0 script.js.Skript_2: 0
                22:37:02.230	info	javascript.0 script.js.Skript_2: 22
                22:37:02.230	info	javascript.0 script.js.Skript_2: ***** STARTE IDENTIFY
                22:37:02.423	info	javascript.0 script.js.Skript_2: JSON Response
                22:37:02.423	info	javascript.0 script.js.Skript_2: { "error": { "code": "PersonGroupNotFound", "message": "Person group is not found." } }
                22:37:02.424	error	javascript.0 TypeError: Cannot read property 'faceId' of undefined at Request.request.post [as _callback] (script.js.Skript_2:116:22) at Request.self.callback (/opt/iobroker/node_modules/request/request.js:185:22) at emitTwo (events.js:126:13) at Request.emit (events.js:214:7) at Request. <anonymous>(/opt/iobroker/node_modules/request/request.js:1161:10) at emitOne (events.js:116:13) at Request.emit (events.js:211:7) at IncomingMessage. <anonymous>(/opt/iobroker/node_modules/request/request.js:1083:12) at Object.onceWrapper (events.js:313:30) at emitNone (events.js:111:20)
                22:37:02.425	info	javascript.0 Stop script script.js.Skript_2
                22:37:02.468	error	Caught by controller[0]: at Request.request.post [as _callback] (script.js.Skript_2:116:22)</anonymous></anonymous>
                

                Vielleicht kannst du, oder jemand mir sagen was es mit dem error auf sich hat?

                Viele Grüße

                Chris

                1 Reply Last reply Reply Quote 0
                • Dutchman
                  Dutchman Developer Most Active Administrators last edited by

                  Es konnte keine faceid zurück wodurch die Variable undefiniert und das mag JavaScript nicht.

                  Ergo Gedicht bzw Gruppe wurde nicht erkannt

                  Sent from my iPhone using Tapatalk

                  1 Reply Last reply Reply Quote 0
                  • S
                    schroedinger last edited by

                    hi,

                    auf die folgende Art hat funktioniert es bei mir recht zuverlässig.

                    (bin aber ebenfalls kein Programmierer -> daher vermutlich super-ineffizient propgrammiert. Bitte daher nicht schimpfen. 😞

                    eigentlich fand ich es - sogar als Nicht-Programmierer - gar nicht so schwer; nur 2 Dinge machten machten das ganze ziemlich kompliziert und sind auch für die komplizierte Vorgangsweise verantwortlich.

                    Problem 1

                    Es wäre so einfach, wenn es möglich wäre Microsoft Cognitive services (MCS) direkt die IP des wbcam-Bildes mitzuteilen. (zB. 192.168.1.14:8888/photo.jog)

                    Leider bringt dies immer nur Fehlermeldungen.

                    Es ist offensichtlich, dass man MCS offensichtlich den Link in einer "echten" URL senden muss. zb. in der FOrm von "http://meine_externe_IPadresse.at/web/bild.jpg"

                    Das bedeutet, mann muss des Bild von der IP_Cam downloaden und irgendwo auf dem eigenen Webserver ablegen. Und diese URL an MCS senden.

                    -> und das funktioniert.

                    –> führt aber zu einem 2. Problem

                    Problem 2 - Dateiname

                    Nachdemich Problem 1 gelöst hatte war ich ganz happy und es hatte bei dem ersten Bild pro Tag (!!) funktioniert, bei jeden weiteren Bild , dass ich an MCS sendetet bekam ich genau das selbe Ergebnis wie beim ersten Bild. 😞

                    Was war das Problem?

                    Das Bild auf meinem Server ändert sich zwar regelmässig (jedes Mal wenn die Webcam ein Bild aufnimmt) die URL , die ich an MCS sende ist aber immer die selbe.

                    -> auch wenn sich der Bildinhalt der URL zwar immer ändert , die URL (und der Dateiname des hochgeladenen Bildes) gleich bleibt, erhäkt man als response immer die selbe Antwort.

                    ev. irgendwie ein cache-Problem , ich konnte es jedenfalls nicht lösen.

                    Was habe ich getan?

                    Ich ändere bei jeden Hochladen den Bildnamen (mittels eines Zählers im Dateinamen des Bildes) -> das funktioniert.

                    (ich hatte dann auch noch ein Problem mit dieser "synchron" und "nicht-synchron"-Sache von JS , darauf gehe ich jetzt aber nicht ein)

                    Fazit:

                    es funktioniert, bei mir zwar super-kompliziert, vielleicht hat jemand ja eine einfachere Lösung.

                    ` > ////////////////////////////////////////////

                    // Konfiguration und Variablen Definition //

                    ///////////////////////////////////////////

                    'use strict';

                    const request = require('request');

                    var fs = require('fs');

                    const subscriptionKey = 'mein_api_key';

                    const uriBase = 'https://westeurope.api.cognitive.micros … 1.0/detect';

                    var imageUrl =

                    'https://www.link_zu_einem_testbild.jpg'; //vermtlich nicht notwendig

                    const imageUrl2 =

                    'https://bloximages.chicago2.vip.townnew ... .image.jpg'; // ebenfalls nicht notwendig, habe ich nur zum debuggen benutzt

                    const imageUrl3 =

                    'https://upload.wikimedia.org/wikipedia/ ... stocka.JPG'; // ebenfalls nicht notwendig, habe ich nur zum debuggen benutzt

                    // Objekt-ID des Bewegungsmelders

                    const oidLichtBewmelderTuer = "javascript.0.Schalter_Webcam_Erkennung"/HM-Sen-DB-PCB NEQ0955114:1.PRESS_SHORT/;

                    // URL zur Kamera umn ein Image (jpg) zu erhalten

                    const cam_url = "http://meine_ip:1024/photo.jpg";

                    // Pfadangabe für die Speicherung der Bilder, der Pfad muss existieren

                    const dest_path = '/home/pi/webcam/';

                    // Anzahl der Bilder, die vorgehalten werden sollen

                    const imageCountMax = 9999;

                    // Prefix für die Bildnamen

                    const imageNamePre = "Indexbild";

                    var uploadpath // dies ist path plus filename *** ev nicht benötgit ****

                    ////////////////////////////////////////////////////

                    //// downloade Bild von Webcam Methode NEU ////

                    ///////////////////////////////////////////////////

                    var supload = (imageNamePre + ".jpg"); // Idee ev. hier bereits + sZaehler *******

                    console.log(supload);

                    uploadpath = 'http://meine_ip:7777/webcam/' + supload;

                    console.log(uploadpath);

                    console.log("**** download hier bild von webcam ****");

                    // Bild holen und speichern

                    request.get({url: cam_url, encoding: 'binary'}, function (err, response, body) {

                    fs.writeFile(dest_path + imageNamePre + ".jpg", body, 'binary', function(err) {

                    if (err) {

                    console.log('Fehler beim Bild speichern: ' + err, 'warn');

                    } else {

                    // dem Filesystem 2 Sek Zeit zum Speichern lassen

                    setTimeout(function() { }, 3000);

                    }

                    });

                    });

                    ///////////////////////////////////////////////////

                    ///////////////////////////////////////////////////

                    //// umbenenne hier das downgeloaded bild //////

                    //// und sende es mit neuen Namen an CS ////////

                    ////////////////////////////////////////////////

                    //////////////////////////////////////////////////

                    //////////////////////////////////////////////////

                    // uploade Bild zu CS und erhalte faceID //////////

                    //////////////////////////////////////////////////

                    const params = {

                    'returnFaceId': 'true',

                    'returnFaceLandmarks': 'false',

                    'returnFaceAttributes': 'age,gender,headPose,smile,facialHair,glasses,' +

                    'emotion,hair,makeup,occlusion,accessories,blur,exposure,noise'

                    };

                    const options = {

                    uri: uriBase,

                    qs: params,

                    body: '{"url": ' + '"' + 'http://meine_ip_:7777/webcam/' + imageNamePre + ".jpg" + '"}', // vorher: body: '{"url": ' + '"' + imageUrl + '"}',

                    headers: {

                    'Content-Type': 'application/json',

                    'Cache-Control': 'no-store, max-age=0, must-revalidate', // versuche hier cache auszuschalten, lösche falls nicht funktioniert

                    'Pragma' : 'no-cache',

                    'Ocp-Apim-Subscription-Key' : subscriptionKey

                    }

                    };

                    console.log("***starte hier request hochladen ********");

                    request.post(options, (error, response, body) => {

                    if (error) {

                    console.log('Error: ', error);

                    console.log("***Fehler Zeile 42 *******");

                    return;

                    }

                    let jsonResponse = JSON.stringify(JSON.parse(body), null, ' ');

                    console.log('JSON Response\n');

                    console.log(jsonResponse);

                    var faces = JSON.parse(body);

                    if (faces.length === 0) {

                    console.log("Antwort auf Bildhochladen ist null*");

                    console.log("Bild erfolgreich hochgeladen, aber kein Gesicht erkannt");

                    setState("javascript.0.erkannteperson","keine_Person_erkannt");

                    return;

                    }

                    var face = faces[0]; // 1. Objekt auf body ist face

                    var faceId = face.faceId; // Wert von property "faceId"

                    // console.log(face);

                    console.log(faceId);

                    // console.log(faces[0].faceRectangle.top); nicht benötigt , nur Lernzwecke

                    var smile = (faces[0].faceAttributes.smile); // Lächenl ja/nein?

                    console.log(smile);

                    var age = (faces[0].faceAttributes.age); // Alter der erkannten Person

                    console.log(age);

                    // **** Gesicht erkannt faceID ist in Variable faceID *****

                    //////////////////////////////////////////////////////

                    // starte jetzt identify ///

                    //////////////////////////////////////////////////////

                    console.log("***** STARTE IDENTIFY");

                    // Request parameters.

                    const uriBase2 = 'https://westeurope.api.cognitive.micros … 0/identify';

                    const params2 = {

                    };

                    const body2 = JSON.stringify({ // definiere hier den body für 2. abfrage

                    "personGroupId": 'klaus_persongroup',

                    "faceIds": [

                    faceId,

                    ],

                    "maxNumOfCandidatesReturned": 1,

                    "confidenceThreshold": 0.5

                    });

                    const options2 = {

                    uri: uriBase2,

                    qs: params2,

                    body: body2,

                    headers: {

                    'Content-Type': 'application/json',

                    'Cache-Control': 'no-store, max-age=0, must-revalidate', // versuche hier cache auszuschalten,

                    'Pragma' : 'no-cache',

                    'Ocp-Apim-Subscription-Key' : subscriptionKey

                    }

                    };

                    request.post(options2, (error, response, body) => {

                    if (error) {

                    console.log('Error: ', error);

                    console.log("**** Fehler Zeile 106 ******");

                    return;

                    }

                    let jsonResponse2 = JSON.stringify(JSON.parse(body), null, ' ');

                    console.log('JSON Response\n');

                    console.log(jsonResponse2);

                    var persons = JSON.parse(body);

                    if (persons.length === 0) {

                    return;

                    }

                    var person = persons[0]; // 1. Objekt auf body ist Person

                    var faceId2 = person.faceId; // faceId2 ist value von hochgeladenen gesicht

                    // console.log(face);

                    console.log(faceId2);

                    console.log(jsonResponse2.faceID);

                    console.log(person.faceId);

                    console.log(persons[0].faceId);

                    console.log(persons[0].personId);

                    var personstring = JSON.stringify(JSON.parse(body));

                    var PERSONID = personstring.substr(77, 36); // hole hier aus response erkannte Person

                    console.log("**** Ausweichweg - hole PERSONID mit STR");

                    console.log(PERSONID);

                    setState('javascript.0.personenIDobject',PERSONID);

                    /////////////////////////////////////////////////////////

                    // hier Afrage ob erkannte Person "Klaus" ist ///

                    ////////////////////////////////////////////////////////

                    if (PERSONID == "eine_personen_id") {

                    console.log("***** KLAUS ******");

                    setState("javascript.0.erkannteperson","Klaus");

                    } else {

                    console.log("******* Gesicht erkannt aber Person unbekannt :-(");

                    setState("javascript.0.erkannteperson","Unbekannter");

                    }

                    ////////////////////////////////////////////////////////

                    });

                    }); `

                    U 1 Reply Last reply Reply Quote 0
                    • S
                      Snatch last edited by

                      Super Sache und vor allem Respeckt, dass du dich da so reingefuchst hast.

                      Jetzt musst du für nichts Könner wie mich noch einen Adapter daraus bauen 😄

                      Grüße

                      1 Reply Last reply Reply Quote 0
                      • U
                        uwe72 last edited by

                        Super Sache, hat bei mir auch funktioniert.

                        Was ich noch suche ist eine Art Objekterkennung. Gibts auch sowas für Objekte.

                        Problem bei der Gesichtserkennung ist, wenn kein Gesicht erkannt wird, beispielsweise da nur der Rücken der Person auf dem Bild, funktioniert das Ganze nicht. Logisch 😉

                        Oder anders gefragt, gibt es auch eine "Personenerkennung", statt eine reine "Gesichtserkennung"?

                        U 1 Reply Last reply Reply Quote 0
                        • U
                          uwe72 @uwe72 last edited by

                          @uwe72

                          Ich antworte mir mal selber:

                          Bessere Variante wäre aber dies: https://developer.nvidia.com/embedded/learn/get-started-jetson-nano-devkit#write
                          Unterschied ist, dass man hier wirklich Personen erkennt. Beim dem Thema von oben, erkennt man "nur" Gesichter. Wenn die Person mit dem Rücken zur Kamera steht, bekommt man keine Erkennung.
                          Das Thema mit der Objekterkennung kann ich aber (noch) nicht und habe auch keinen jetson nano

                          U 1 Reply Last reply Reply Quote 0
                          • U
                            uwe72 @schroedinger last edited by

                            @schroedinger der erste Teil funktioniert super bei mir. D.h. ich erkenne Gesichter.

                            Du hattest im zweiten Teil noch was mit Identitätserkennung gemacht.

                            Die FaceID ist wohl nicht immer konstant gleich.

                            Wir kriegst Du es hin, dass Du in deinem Fall ermitteln kannst, dass es KLAUS ist?

                            Wäre so einfach, wenn die FaceId immer die gleiche wäre pro gleicher Person.

                            Kannst Du dazu noch 2-3 Sätze scheiben?

                            DANKE!

                            1 Reply Last reply Reply Quote 0
                            • U
                              uwe72 @uwe72 last edited by

                              @uwe72 Ok, muss mich selber korrigieren, auch bei Microsoft cognitive service gibts die Möglichkeit von Objekterkennung:

                              https://docs.microsoft.com/de-de/azure/cognitive-services/computer-vision/quickstarts/node-analyze

                              funktioniert sehr gut

                              1 Reply Last reply Reply Quote 0
                              • First post
                                Last post

                              Support us

                              ioBroker
                              Community Adapters
                              Donate
                              FAQ Cloud / IOT
                              HowTo: Node.js-Update
                              HowTo: Backup/Restore
                              Downloads
                              BLOG

                              989
                              Online

                              31.7k
                              Users

                              79.7k
                              Topics

                              1.3m
                              Posts

                              7
                              20
                              3269
                              Loading More Posts
                              • Oldest to Newest
                              • Newest to Oldest
                              • Most Votes
                              Reply
                              • Reply as topic
                              Log in to reply
                              Community
                              Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                              The ioBroker Community 2014-2023
                              logo