Skip to content
  • Home
  • Aktuell
  • Tags
  • 0 Ungelesen 0
  • Kategorien
  • Unreplied
  • Beliebt
  • GitHub
  • Docu
  • Hilfe
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Standard: (Kein Skin)
  • Kein Skin
Einklappen
ioBroker Logo

Community Forum

donate donate
  1. ioBroker Community Home
  2. Deutsch
  3. ioBroker Allgemein
  4. Wie spricht man mit ioBroker? iobroker Custom-Skill 2022

NEWS

  • UPDATE 31.10.: Amazon Alexa - ioBroker Skill läuft aus ?
    apollon77A
    apollon77
    48
    3
    8.8k

  • Monatsrückblick – September 2025
    BluefoxB
    Bluefox
    13
    1
    2.2k

  • Neues Video "KI im Smart Home" - ioBroker plus n8n
    BluefoxB
    Bluefox
    16
    1
    3.3k

Wie spricht man mit ioBroker? iobroker Custom-Skill 2022

Geplant Angeheftet Gesperrt Verschoben ioBroker Allgemein
59 Beiträge 12 Kommentatoren 8.3k Aufrufe 19 Watching
  • Älteste zuerst
  • Neuste zuerst
  • Meiste Stimmen
Antworten
  • In einem neuen Thema antworten
Anmelden zum Antworten
Dieses Thema wurde gelöscht. Nur Nutzer mit entsprechenden Rechten können es sehen.
  • apollon77A apollon77

    Naja, dann werden wir doch mal etwas kreativer :-))

    Es gibt inzwischen auch die Option bis zu 5 weotere "Skill Launch phrases" anzugeben. Vllt bekommen wir ja damit was gebastelt was natürlicher ist (denke es bleibt aber irgendwie limitiert)?

    Hat hier noch jemand ideen?

    Skill launch phrases requirements

    Skill launch Phrases are an optional new way to teach Alexa how an end-customer might invoke your skill as a modal launch, along with the standard invocation pattern of "Alexa, open ". For example, similar to invocation name pattern "Alexa, Open Tasty Recipes Skill", you might have something like "can you give me a tasty recipe" as skill launch phrase.
    Name-free interaction skill launch phrases must meet the following requirements:

    Variety: You should provide a good variety of skill launch phrases to offer unique interactions to customers. If your skill can handle specific use cases, make sure to include those in your skill launch phrases. For instance, customers would be interested to know if a weather forecast skill can answer "what is the fishing forecast for lake chelan" or "how should I dress tomorrow" or "give me today's allergy forecast".

    Skill Capabilities: Skill launch phrases should accurately reflect skill capabilities. Make sure to avoid generic launch phrases that conflict with other use cases. For example, a sound skill should avoid adding the phrase "turn on fireplace" because other customers may use that phrase to turn on the actual fireplace. A more accurate choice for a name-free interaction with a sleep sound skill is "turn on fireplace sound" or "turn on fireplace noise" since it is more relevant to the skill's capabilities.

    Brand: You should build skill launch phrases that capture your brand, which will not only reduce use case conflicts for bad CX but also increase skill awareness for customers. You can include part or full skill name or recognizable branding in the launch phrases. For example, ‘acme quiz’.

    Complete utterances: You should avoid one token and generic skill launch phrases that can be interpreted in multiple ways. Keep the following best practices in mind:

    Build your launch phrases to be specific to your skill's use cases. For instance, "cancer" can be interpreted as a disease or a star sign. If the skill is for horoscope, you should make sure to disambiguate by adding context. For example, use "cancer horoscope" and "horoscope for cancer" and "give me cancer horoscope".
    In order to foster a linguistically-natural interaction, build sample utterances that include both an object and a verb. For example, "horoscope" wouldn't be a good sample utterance because the full interaction would be similar to a user saying "Alexa, horoscope". A better alternative would be "give me today's horoscope".
    

    Und dazu noch Intent Launch Phrases:

    Intent launch phrases requirements
    For Name Free Interaction, you can identify which intents are natural ingress points (or invocation points) for your skill. Where end users might currently need to say "Alexa, open Tasty Recipes Skill and give me a recipe for meatballs", you can indicate to Alexa that your getRecipe intent is a natural ingress point, and provide common natural phrases that would be used to deep-link into this intent such as simply, "give me a tasty recipe for meatballs".

    Name-free interaction intents and intent launch phrases must meet the following requirements:

    DON’T Include slots in the intent launch sample phrases.

    DO: Be sure that the sample utterances for your NFI intents support the Name-free Interaction outside of the Skill. Some skills will require some optimization to utterances in order to better train the new system. Until now, your VUI may be trained with utterances that perform in the context of being “in the skill”, as such one word utterances and some phrases are not ideal for helping Alexa match requests from users outside of your skill to your NFI intents.

    Highlight important use cases:The phrases provided in the nfi container give you the mechanism to indicate which sample utterances/use cases are of the highest importance so that we can weight these utterances among the rest.

    Variety: You should provide a good variety of intent launch phrases to offer unique interactions to customers. If your skill can handle specific use cases, make sure to include those in your intent launch phrases. For instance, customers would be interested to know if a weather forecast skill can answer "what is the fishing forecast for lake chelan" or "how should I dress tomorrow" or "give me today's allergy forecast".

    Skill Capabilities: Intent launch phrases should accurately reflect skill capabilities. Make sure to avoid generic launch phrases that conflict with other use cases. For example, a sound skill should avoid adding the phrase "turn on fireplace" because other customers may use that phrase to turn on the actual fireplace. A more accurate choice for a name-free interaction with a sleep sound skill is "turn on fireplace sound" or "turn on fireplace noise" since it is more relevant to the skill's capabilities.

    Complete utterance: You should avoid one token and generic sample utterances that can be interpreted in multiple ways. Keep the following best practices in mind:

    Build your intent launch phrases to be specific to your intent's use cases. For instance, ‘cancer’ can be interpreted as a disease or a star sign. If the skill is for horoscope, you should make sure to disambiguate by adding context. For example, use ‘cancer horoscope’ and ‘horoscope for cancer’ and 'give me cancer horoscope'.
    In order to foster a linguistically-natural interaction, add intent launch phrases that include both an object and a verb. For example, "horoscope" wouldn't be a good sample utterance because the full interaction would be similar to a user saying "Alexa, horoscope". A better alternative would be "give me today's horoscope".
    You should provide accurate slot entries with regard to intent response. For example, the developer of an animal sounds skill should add all supported animal types for the slot value '{animal}' instead of only listing cat and dog.
    

    Number of utterances: If your intent has only one to a few sample utterances this is not enough to train Alexa on how to map name-free utterances to your intents. We recommend you try to have 10 sample utterances per ingress point in your interaction model including your 5 intent launch phrases.

    D Offline
    D Offline
    derrapf
    schrieb am zuletzt editiert von derrapf
    #19

    @apollon77
    Aha!!!
    Das klingt vielversprechend,
    Nehmen wir mal an wir hätten zwei Butler im Haus. Alexa und Jarvis.
    Dann könnte man doch vielleicht die Alexa immer Bitten dem Jarvis was zu sagen.
    Also "Alexa, sag Jarvis dass er das Licht ausmachen soll"
    Das wäre auch jeden Fall nicht perfekt aber intuitiver. Und das schnallt auch ein Gast.
    Coll wäre ja dann auch wenn Jarvis mit anderer Stimme den Befehl bestätigt.
    Gruss Ralf

    apollon77A 1 Antwort Letzte Antwort
    1
    • D derrapf

      @apollon77
      Aha!!!
      Das klingt vielversprechend,
      Nehmen wir mal an wir hätten zwei Butler im Haus. Alexa und Jarvis.
      Dann könnte man doch vielleicht die Alexa immer Bitten dem Jarvis was zu sagen.
      Also "Alexa, sag Jarvis dass er das Licht ausmachen soll"
      Das wäre auch jeden Fall nicht perfekt aber intuitiver. Und das schnallt auch ein Gast.
      Coll wäre ja dann auch wenn Jarvis mit anderer Stimme den Befehl bestätigt.
      Gruss Ralf

      apollon77A Offline
      apollon77A Offline
      apollon77
      schrieb am zuletzt editiert von
      #20

      @derrapf Theme ist nur was nehmen .. die Jarvis, Sam, "dem Haus" (oder was auch immer besser ist) Diskussion hatten wir auch schonmal :-) Auch wieder schwierig da alle vorstellungen unter einen Hut zu bringen

      Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

      • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
      • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
      D 1 Antwort Letzte Antwort
      0
      • apollon77A apollon77

        @derrapf Theme ist nur was nehmen .. die Jarvis, Sam, "dem Haus" (oder was auch immer besser ist) Diskussion hatten wir auch schonmal :-) Auch wieder schwierig da alle vorstellungen unter einen Hut zu bringen

        D Offline
        D Offline
        derrapf
        schrieb am zuletzt editiert von
        #21

        @derrapf
        Und individuell einstellen lässt sich das nicht? Quasi als Option für den User?

        apollon77A 1 Antwort Letzte Antwort
        0
        • D derrapf

          @derrapf
          Und individuell einstellen lässt sich das nicht? Quasi als Option für den User?

          apollon77A Offline
          apollon77A Offline
          apollon77
          schrieb am zuletzt editiert von apollon77
          #22

          @derrapf Nope, da ist pro Skill limitiert in der Basis-Konfig. ABer vllt ist Jarvis und Sam und dem Haus" (oder findetn wir was allgemeingültoges dafür?) ja genug? ;-)

          Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

          • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
          • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
          D Dr. BakteriusD 2 Antworten Letzte Antwort
          0
          • apollon77A apollon77

            @derrapf Nope, da ist pro Skill limitiert in der Basis-Konfig. ABer vllt ist Jarvis und Sam und dem Haus" (oder findetn wir was allgemeingültoges dafür?) ja genug? ;-)

            D Offline
            D Offline
            derrapf
            schrieb am zuletzt editiert von
            #23

            @apollon77 Yep
            Für mich wäre sowohl "Haus" als auch "Jarvis" als auch "Sam" Ok.
            Wobei bei "Sam" musst Du aufpassen. Könnte Mitbürger geben, die das in den falschen Hals bekommen könnten und uns Rassimus vorwerfen...wer weiss. Womöglich brauchen wir dann auch noch einen Frauennamen als Option...oder was neutrales - was wieder für Haus spricht... duck und weg...

            Gruss Ralf

            apollon77A 1 Antwort Letzte Antwort
            0
            • D derrapf

              Hier mal mein Feedback.
              Auf der einen Seite finde ich es toll, dass man sich die Mühe mit dem Custom Skill macht.
              Meine Prämisse aber ist, dass Jeder bei mir im Haus die Geräte steuern können muss, ohne wissen zu müssen welche "magic Words" ausser " Alexa" er sagen muss.

              Und solange Amazon immer noch von den Usern erwartet, dass man sagen muss "sage XYZ dass.." brauche ich das leider nicht.
              Unintuitiver gehts kaum. Ich kann doch nicht irgendwelchen Gästen sagen, dass sie sich bitte "Sage Iobroker, dass" merken sollen wenn sie im Gästezimmer etwas steuern wollen.

              Ich persönlich finde das Konzept von Amazon schlecht, dass zuerst mal die gesagten Befehle von Amazon selbst interpretiert werden und dann erst zu den Skills weitergegeben werden , bzw. man den Skill mit "sage Blubb dass" ansprechen muss.
              Das kling a) bescheuert und b) kann sich das Keiner merken. Schon vor allem dann wenn die Skills so dämlich heißen, dass der Satz mal gar keinen Sinn gibt.
              Viel einfacher für den User wäre doch, dass man das Gesagte erstmal an die Skills gibt und dann wenn keiner der Skills was damit anfangen kann Amazon irgendwas mit dem Befehl macht. Am besten wäre noch wen man die Skills in der Reihenfolge wie der Befehl durchgeschleust wird sortieren könnte. Dann würde der Iobroker Custom Skill ganz oben stehen, dann kämen zwei drei Andere vielleicht für Musik usw, und am Ende soll sich Amazon selbst um den Befehl kümmern wenn sich keiner der Skills angesprochen gefühlt hat.

              Dann könnte man sich ev. auch das "sage ..." sparen.

              Aber das ist nur meine bescheidene Meinung.
              Anonsten: Wenn jemand bereit ist ständig "Alexa, sage Iobroker" zu sagen, finde ich das toll, dass ihr das realisiert.
              Sobald man "richtig" mit Alexa reden kann, springe ich sofort auf diesen Zug auf.

              Gruss Ralf

              R Offline
              R Offline
              RkcCorian
              schrieb am zuletzt editiert von
              #24

              @derrapf Auch meine Ansicht. Aber solange Alexa derart limitiert ist werde ich halt "sage ioBroker" mit "einbauen" (müssen). Finde es aber schonmal super, dass man mit diesem Skill selber sehr kreativ werden kann. Freu mich schon, wenn meine Use Cases noch besser gehen 😀 Aktuell klappt es meistens, aber nicht immer zuverlässig, da meine Schlüsselworte noch nicht drin sind.

              1 Antwort Letzte Antwort
              0
              • D derrapf

                @apollon77 Yep
                Für mich wäre sowohl "Haus" als auch "Jarvis" als auch "Sam" Ok.
                Wobei bei "Sam" musst Du aufpassen. Könnte Mitbürger geben, die das in den falschen Hals bekommen könnten und uns Rassimus vorwerfen...wer weiss. Womöglich brauchen wir dann auch noch einen Frauennamen als Option...oder was neutrales - was wieder für Haus spricht... duck und weg...

                Gruss Ralf

                apollon77A Offline
                apollon77A Offline
                apollon77
                schrieb am zuletzt editiert von
                #25

                @derrapf "Sam" war auch nicht ganz ernst gemeint. Ich denkje Jarvis (für alle Marvel Fans) ist ok ... Haus auch ... müssen wir mal testen was geht

                Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                D 1 Antwort Letzte Antwort
                0
                • apollon77A apollon77

                  @derrapf "Sam" war auch nicht ganz ernst gemeint. Ich denkje Jarvis (für alle Marvel Fans) ist ok ... Haus auch ... müssen wir mal testen was geht

                  D Offline
                  D Offline
                  derrapf
                  schrieb am zuletzt editiert von
                  #26

                  @apollon77
                  Wenn wir bei Marvel bleiben gäbe es noch

                  • "Edith" (für die Frauen-Quote) und
                  • "Friday" als Name..
                    Aus anderen Filmen fällt mit ein
                  • "Mother" (Alien)
                  • "HAL" (2001: Odyssee im Weltraum)
                  • KITT (Knight Rider)
                  • Data (Star Trek)

                  Gab sicher noch mehr...
                  Gruss Ralf

                  1 Antwort Letzte Antwort
                  3
                  • apollon77A apollon77

                    @derrapf Nope, da ist pro Skill limitiert in der Basis-Konfig. ABer vllt ist Jarvis und Sam und dem Haus" (oder findetn wir was allgemeingültoges dafür?) ja genug? ;-)

                    Dr. BakteriusD Offline
                    Dr. BakteriusD Offline
                    Dr. Bakterius
                    Most Active
                    schrieb am zuletzt editiert von
                    #27

                    @apollon77 sagte in Wie spricht man mit ioBroker? iobroker Custom-Skill 2022:

                    findetn wir was allgemeingültoges dafür?

                    Ginge auch 'ich möchte' als skill launch phrase? Also "Alexa, ich möchte das Licht einschalten" oder "Alexa, ich möchte das du das Licht einschaltest" oder "Alexa, ich möchte das Licht ein [haben]".

                    apollon77A 1 Antwort Letzte Antwort
                    1
                    • Dr. BakteriusD Dr. Bakterius

                      @apollon77 sagte in Wie spricht man mit ioBroker? iobroker Custom-Skill 2022:

                      findetn wir was allgemeingültoges dafür?

                      Ginge auch 'ich möchte' als skill launch phrase? Also "Alexa, ich möchte das Licht einschalten" oder "Alexa, ich möchte das du das Licht einschaltest" oder "Alexa, ich möchte das Licht ein [haben]".

                      apollon77A Offline
                      apollon77A Offline
                      apollon77
                      schrieb am zuletzt editiert von
                      #28

                      @dr-bakterius Gute Frage ... muss man dann mal testen, fürchte aber das das zu allgemein ist

                      Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                      • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                      • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                      1 Antwort Letzte Antwort
                      0
                      • apollon77A Offline
                        apollon77A Offline
                        apollon77
                        schrieb am zuletzt editiert von
                        #29

                        Also gestern Abend hab ich noch ein was hinbekommen ... das wirkliche "allen text erfassen" ... ABER ... es ist natürlich immer noch nicht so einfach ... also das obige Brauchen wir weiterhin.

                        • mit einem "öffne/starte iobroker" (oder welcher name auch immer) kann ich jetzt einen Modus erreichen indem ich alles danach gesprochene abgreifen kann und smit könnte man auch Dialoge bauen und sowas. Für müssen auch das "Stop" und damit Session-Ende selbst manage, aber denke das ist überschaubar was eine Anzahl an Stopworten angeht
                        • bei einem "frage iobroker ..." oder "sage iobroker ..." muss EINMAL das obige greifen damit wir auch in den "ab jetzt kriegen wir alles" Modus kommen.

                        Mit dem obigen sollten wir denke ich inzwischen echt das meiste "natürlich gesprochenene" abgedeckt haben. Also "sage iobroker schalte das Licht an" geht ... bei "sage iobroker licht an" muss man halt noch "licht" haben :-(

                        Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                        • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                        • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                        D 1 Antwort Letzte Antwort
                        0
                        • apollon77A apollon77

                          Also gestern Abend hab ich noch ein was hinbekommen ... das wirkliche "allen text erfassen" ... ABER ... es ist natürlich immer noch nicht so einfach ... also das obige Brauchen wir weiterhin.

                          • mit einem "öffne/starte iobroker" (oder welcher name auch immer) kann ich jetzt einen Modus erreichen indem ich alles danach gesprochene abgreifen kann und smit könnte man auch Dialoge bauen und sowas. Für müssen auch das "Stop" und damit Session-Ende selbst manage, aber denke das ist überschaubar was eine Anzahl an Stopworten angeht
                          • bei einem "frage iobroker ..." oder "sage iobroker ..." muss EINMAL das obige greifen damit wir auch in den "ab jetzt kriegen wir alles" Modus kommen.

                          Mit dem obigen sollten wir denke ich inzwischen echt das meiste "natürlich gesprochenene" abgedeckt haben. Also "sage iobroker schalte das Licht an" geht ... bei "sage iobroker licht an" muss man halt noch "licht" haben :-(

                          D Offline
                          D Offline
                          dirkhe
                          Developer
                          schrieb am zuletzt editiert von dirkhe
                          #30

                          @apollon77 das hört sich doch schon mal vielversprechend an :)
                          Ich habe das bisher auch noch nie wirklich benötigt, weil ich auch "iobroker" ziemlich suboptimal finde, ach wegen der aussprache.
                          Alles was mit schalte an/aus geht, ist ja jetzt schon möglich, klar man muß ein "an" hinterschicken, aber "alexa, sauge wohnzimmer an" geht zumindest uns gut über die lippen, das gleiche mit "rolladen bad an"..
                          Aber für dialoge oder bei fragen wäre das natürlich ein fortschritt

                          apollon77A 1 Antwort Letzte Antwort
                          0
                          • D dirkhe

                            @apollon77 das hört sich doch schon mal vielversprechend an :)
                            Ich habe das bisher auch noch nie wirklich benötigt, weil ich auch "iobroker" ziemlich suboptimal finde, ach wegen der aussprache.
                            Alles was mit schalte an/aus geht, ist ja jetzt schon möglich, klar man muß ein "an" hinterschicken, aber "alexa, sauge wohnzimmer an" geht zumindest uns gut über die lippen, das gleiche mit "rolladen bad an"..
                            Aber für dialoge oder bei fragen wäre das natürlich ein fortschritt

                            apollon77A Offline
                            apollon77A Offline
                            apollon77
                            schrieb am zuletzt editiert von
                            #31

                            @dirkhe also ja "sage iobroker rolladen hoch" geht genauso wie "sage iobroker fahre rolladen hoch". Es ist nur weiterhin so das ggf im Textprocessing dann "hoch rolladen" ankommen könnte beim ersten Fall. Aber der zweite geht weil das Kommando wieder korrekt an erster Stelle steht

                            Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                            • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                            • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                            D 1 Antwort Letzte Antwort
                            0
                            • apollon77A apollon77

                              @dirkhe also ja "sage iobroker rolladen hoch" geht genauso wie "sage iobroker fahre rolladen hoch". Es ist nur weiterhin so das ggf im Textprocessing dann "hoch rolladen" ankommen könnte beim ersten Fall. Aber der zweite geht weil das Kommando wieder korrekt an erster Stelle steht

                              D Offline
                              D Offline
                              dirkhe
                              Developer
                              schrieb am zuletzt editiert von
                              #32

                              @apollon77 naja, wenn das so ankommt, ist das doch ok, die reihenfolge ist ja fürs auswerten unerheblich.
                              Wenn rollade/jalousinen gefunden, suche nach auf/zu/runter/hoch oder prozent oder beschattung/luft usw.
                              Aber ich denke ein generischer ansatz Ist da schwer, denn das was ich da gerade mal für rolladen zusammengeschrieben hsbe, passt nirgendswo anders. Und selbsf bei den rolladen muß dann noch die dp zugewiesen werden, die auch wieder unterschiedlich sind (100 = zu oder auf?)

                              1 Antwort Letzte Antwort
                              0
                              • apollon77A apollon77

                                Hi All,

                                neben dem "iot Smart Home Skill" um via Alexa seine Geräte zu steuern hat ioBroker auch einen sogenannten "Custom Skill". Die Idee von diesem ist, dass man etwas natürlicher mit seinem ioBroker "reden" kann um Befehle auszuführen die nicht von Amazon anhand des Gerätetyps sehr strikt vorgegeben sind. Der Custom Skill beginnt dabei immer mit "Sage/Frage ioBroker ..." oder mit etwas wie "Starte/Öffne ioBroker".

                                Wer den Custom Skill noch nicht kennt sei zum Release-Post verwiesen unter https://forum.iobroker.net/topic/15629/neu-iobroker-alexa-custom-skill-verfügbar

                                Etwas Background (einfach überspringen und unten weiterlesen wen es nicht interessiert)

                                Jetzt mag man denken "Hey ist doch simpel man bekommt einfach den gesprochenen Text (der Alexa2 Adapter holt den doch auch aus der Sprachhistory)" - tja da hat man leider die Rechnung ohne Amazon gemacht ;-) Das Ziel von Amazon für alle Skills ist das man klare Dialoge definiert, die das System dann auch erkennen kann. Das war schon so als wir den Custom-Skill erstellt haben und hat sich nicht wirklich geändert. Es gibt keinen wirklichen Weg einen Frei gesagten Text einfach direkt durchzureichen (Ausser einer Deprecated Option die es nur für Amerika gibt, aber Amazon auch versucht loszuwerden).

                                Der bisherige Custom-Skill hat daher auf seeehr komplexe Art versucht erwartete Sätze nachzugestalten und für die einzelnen Komponenten mit Wortlisten gearbeitet. Der Vorteil davon ist, das Amazon im Zweifel mit ein bissl "Fuzzy" nachhilft und so auch Worte gematcht werden die nicht in der Liste stehen. Der große Nachteil ist aber, dass am Ende der "gesprochenen Text" auf der Strecke bleibt und nur "eine wild durcheinander gewürfelte Liste an Wörtern" rauskommt je nachdem was Amazon denkt in den einzelnen Erkennungskomponenten gefunden wurde.
                                Wenn aber Wörter in den Listen fehlen, kann es auch passieren das diese ganz fehlen.
                                So wurde zB bisher aus "er soll Flur Küche und Kinderzimmer reinigen" im Zuge der Erkennung "controlDevice wohnzimmer flur er soll"

                                Im Zuge der Prüfung des eben genannten Issues habe ich mir mal wieder die Zeit genommen und geschaut ob es inzwischen vllt bessere Optionen gibt.

                                Custom Skill Plan 2022 (der Teil wo wir Eure Hilfe brauchen kommt als nächstes)

                                Das Ergebnis meiner Prüfung und Experimente waren am Ende recht ernüchternd, aber dennoch erfolgreich in gewisser Weise.
                                Vorn weg: Einen einfachen Weg an den gesamten gesprochenen Text zu kommen gibt es immer noch nicht - ausser in einem Ausnahmefall indem man einen Dialog vordefiniert ... aber genau das ist bei uns nicht wirklich sinnvoll möglich. Alle Varianten die ich versucht habe das zu kombinieren sind im leeren verlaufen.

                                Am Ende gibt es aber inzwischen eine Option die uns der Sache etwas näher bringt und was ich gern als Basis für eine 2022er Version des Custom-Skills nehmen würde.
                                Es funktioniert das man einzelne Phrasen definiert die aus einem (oder mehreren) Triggerworten bestehen und dann kann man den Rest des danach gesprochenen Textes rausbekommen. ABER das Trigger-Wort selbst bekommt man nicht :-)

                                Der Workaround dazu ist, dass man pro Triggerwort eine eigene Definition anlegt die einen eigenen Namen hat und man so indirekt über den Namen der Aktion (Intent) das "fehlende" Wort mit transportieren und wieder anfügen kann.
                                Also praktisches Beispiel mit "schalte {query}" kann man allen Text abgreifen der mit "schalte" beginnt und wenn man das "QueryIntentSchalte" nennt kann man das Wort rekonstruieren :-)

                                Also dann suchen wir mal alle Wörter mit dem eine solche Sprachaktion beginnen kann ... fast ... wir dürfen maximal 240 solche Intents frei definieren (10 brauchen wir für generelle Dinge). Daraus entsteht folgender angepasster Plan für den Custom Skill 2022:

                                • Alles was in einem natürlichen Redefluss mit "Alexa, sage ioBroker ...." oder "Alexa, frage ioBroker ..." oder "Alexa, öffne/starte ioBroker -> Hallo, was möchtest Du wissen oder Steuern?" als erstes Wort danach Sinn macht versuchen wir als "Einzel-Triggerwort" umzusetzen
                                • Wenn es dabei Wortvariationen gibt, wo es für eine Textverarbeitung nicht so schlimm ist das "ein passendes ähnliches Wort" erfasst wird, dann nehmen wir das als variation zu einem Hauptwort und sparen damit einen Intent-Slot
                                • Dann ist die Frage was sollten wir noch aufnehmen an Einzelwörtern die wichtig sind (vllt Raumnamen bzw wichtige Gerätebezeichnungen?
                                • Zu guter letzt lassen wir noch einen Slot übrig der eine "Fuzzy Erfassung" wie früher für andere mögliche Konstellationen erlaubt quasi als Fallback - mit dem Wissen das dann halt nicht der echte Wortfluss da ist.
                                  ... und da kommt Ihr ins Spiel ...

                                TL;DR (für die die überspungen haben)

                                Um den ioBroker Custom-Skill zu aktualisieren wollen wir das Konzept etwas ändern und versuchen nun mit Eurer Hilfe Wortlisten zu finden die wir dazu benötigen damit Alexa das gesprochene erkennt. Wer wissen will warum man nicht einfach den gesprochenen Text nehmen kann, lese bitte doch oben :-)

                                Wobei brauchen wir Eure Hilfe?

                                Nach den Infos oben gehts nun ans eingemachte und zum "Brainstorming" Teil:

                                1.) Welche Wörter brauchen wir um im normalen Redefluss mit

                                • "Alexa, frage ioBroker ..."
                                • "Alexa, sage ioBroker ..."
                                • "Alexa, öffne/starte iobroker. -> Hallo, was möchtest Du wissen oder steuern?
                                  die Sätze weiterzuführen?
                                  Relevant hier ist jeweils quasi das Erste Wort danach. Damit wir nicht bei 0 Anfangen habe ich basierend auf meinen Gedanken und mit dem bisherigen Custom-Skill schonmal das gesammelt was bestimmt 80-90% der Dinge schon abdecken sollte. Die Liste findet Ihr unter https://docs.google.com/spreadsheets/d/17h7KKuYwp0atJ6_QFho1FBDulDZh7GNRDnZirP7atSg/edit?usp=sharing

                                Die Liste definiert ein Hauptwort und "Alternativworte" - letztere würden dann im zum Server gesendeten Text als das Hauptwort enthalten sein!

                                Ebenfalls enthalten ist eine Liste von "Füllworten" die in meinen Augen keine verändernde Bedeutung als erstes Wort haben. Diese würden wir dann einfach weglassen. Gibt es da noch mehr?

                                Bitte überlegt mal in Gedanken was fehlt und postet es hier im Forum. Ich hoffe auf rege Beteiligung

                                2.) Welche sonstigen Worte (auch wenn es eigentlich keine natürliches Sprechen wäre) brauchen wir noch? Also wenn wir sagen wollen "Alexa, sage ioBroker, Küchenlicht an" und das erfassen wollen bräuchten wir "Küchenlicht" als Triggerwort - oder es ist ok das das im "Fallback" erfasst wird.
                                Sagt mal was dazu.

                                Ja ich weiss nicht ganz so simpel ... aber genau deswegen würde ich mich über Eure Unterstützung freuen ...

                                Ingo

                                Ben1983B Offline
                                Ben1983B Offline
                                Ben1983
                                schrieb am zuletzt editiert von
                                #33

                                @apollon77
                                Hier habe ich paar Fragen dazu:

                                1. Das ganze wird dann via iot Adapterausgegeben, oder via alexa2 Adapter?
                                2. Unterschied um normalen ioBroker skill ist, dass man freier sprechen kann?
                                3. Wird dazu dann irgend eine Pro Version benötigt?
                                apollon77A 1 Antwort Letzte Antwort
                                0
                                • Ben1983B Ben1983

                                  @apollon77
                                  Hier habe ich paar Fragen dazu:

                                  1. Das ganze wird dann via iot Adapterausgegeben, oder via alexa2 Adapter?
                                  2. Unterschied um normalen ioBroker skill ist, dass man freier sprechen kann?
                                  3. Wird dazu dann irgend eine Pro Version benötigt?
                                  apollon77A Offline
                                  apollon77A Offline
                                  apollon77
                                  schrieb am zuletzt editiert von
                                  #34

                                  @ben1983 1.) die Daten kommen im iot Adapzter an und können automatisch an eine text2command Instanz weitergegeben werden (EInstellung in iot) oder kommen in states an wo Skripte drauf subscriben können

                                  2.) Der normale Smart Home Skill bindet "Geräte" an und die Möglichkeiten der Steuerung und wie man damit interagiert ist zu 100% von Amazon vorgegeben. Der "Custom Skill" ist nicht an Geräte o.ä. gebunden und am Ende geht es da um die "freiere Kommunikation" bzw dem das du mit zb text2command den text selbst auseinandernimmst und kommandos o.ä. ableitest

                                  3.) Es läuft über den iot Adapter und eine Interaktion ist damit ein Request über iot ... Bei iot gibts das "20 Requests pro Tag" Freilimit (oder so), was damit auch gilt ... also eine Pro Cloud Assistentenlizenz sollte sinnvoll sein

                                  Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                  • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                  • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                  Ben1983B 1 Antwort Letzte Antwort
                                  0
                                  • apollon77A apollon77

                                    @ben1983 1.) die Daten kommen im iot Adapzter an und können automatisch an eine text2command Instanz weitergegeben werden (EInstellung in iot) oder kommen in states an wo Skripte drauf subscriben können

                                    2.) Der normale Smart Home Skill bindet "Geräte" an und die Möglichkeiten der Steuerung und wie man damit interagiert ist zu 100% von Amazon vorgegeben. Der "Custom Skill" ist nicht an Geräte o.ä. gebunden und am Ende geht es da um die "freiere Kommunikation" bzw dem das du mit zb text2command den text selbst auseinandernimmst und kommandos o.ä. ableitest

                                    3.) Es läuft über den iot Adapter und eine Interaktion ist damit ein Request über iot ... Bei iot gibts das "20 Requests pro Tag" Freilimit (oder so), was damit auch gilt ... also eine Pro Cloud Assistentenlizenz sollte sinnvoll sein

                                    Ben1983B Offline
                                    Ben1983B Offline
                                    Ben1983
                                    schrieb am zuletzt editiert von Ben1983
                                    #35

                                    @apollon77 @apollon77
                                    Also die normale lizenz hier:
                                    https://iobroker.pro/

                                    Aktuell frage ich halt über die history des alexa2 Adapters alles ab.
                                    Gibts nicht auch die Möglicheit aus dem Adapter eine entsprechende ID zurück zu senden, dass man weiter einen dialog aufbauen kann?

                                    Sorry war zwar im Dev meeting, aber mein mikro hat es heute gefetzt. :-(

                                    apollon77A 1 Antwort Letzte Antwort
                                    0
                                    • Ben1983B Ben1983

                                      @apollon77 @apollon77
                                      Also die normale lizenz hier:
                                      https://iobroker.pro/

                                      Aktuell frage ich halt über die history des alexa2 Adapters alles ab.
                                      Gibts nicht auch die Möglicheit aus dem Adapter eine entsprechende ID zurück zu senden, dass man weiter einen dialog aufbauen kann?

                                      Sorry war zwar im Dev meeting, aber mein mikro hat es heute gefetzt. :-(

                                      apollon77A Offline
                                      apollon77A Offline
                                      apollon77
                                      schrieb am zuletzt editiert von
                                      #36

                                      @ben1983 sagte in Wie spricht man mit ioBroker? iobroker Custom-Skill 2022:

                                      Gibts nicht auch die Möglicheit aus dem Adapter eine entsprechende ID zurück zu senden, dass man weiter einen dialog aufbauen kann?

                                      Nein weil du nur Dialoge führen kannst die du auch unter kontrolle hast

                                      Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                      • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                      • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                      Ben1983B 1 Antwort Letzte Antwort
                                      0
                                      • apollon77A apollon77

                                        @ben1983 sagte in Wie spricht man mit ioBroker? iobroker Custom-Skill 2022:

                                        Gibts nicht auch die Möglicheit aus dem Adapter eine entsprechende ID zurück zu senden, dass man weiter einen dialog aufbauen kann?

                                        Nein weil du nur Dialoge führen kannst die du auch unter kontrolle hast

                                        Ben1983B Offline
                                        Ben1983B Offline
                                        Ben1983
                                        schrieb am zuletzt editiert von
                                        #37

                                        @apollon77 Das war ja die Frage, also kann nur ein eigener skill das tun?

                                        apollon77A liv-in-skyL 2 Antworten Letzte Antwort
                                        0
                                        • Ben1983B Ben1983

                                          @apollon77 Das war ja die Frage, also kann nur ein eigener skill das tun?

                                          apollon77A Offline
                                          apollon77A Offline
                                          apollon77
                                          schrieb am zuletzt editiert von
                                          #38

                                          @ben1983 ja

                                          Beitrag hat geholfen? Votet rechts unten im Beitrag :-) https://paypal.me/Apollon77 / https://github.com/sponsors/Apollon77

                                          • Debug-Log für Instanz einschalten? Admin -> Instanzen -> Expertenmodus -> Instanz aufklappen - Loglevel ändern
                                          • Logfiles auf Platte /opt/iobroker/log/… nutzen, Admin schneidet Zeilen ab
                                          Ben1983B 1 Antwort Letzte Antwort
                                          0
                                          Antworten
                                          • In einem neuen Thema antworten
                                          Anmelden zum Antworten
                                          • Älteste zuerst
                                          • Neuste zuerst
                                          • Meiste Stimmen


                                          Support us

                                          ioBroker
                                          Community Adapters
                                          Donate
                                          FAQ Cloud / IOT
                                          HowTo: Node.js-Update
                                          HowTo: Backup/Restore
                                          Downloads
                                          BLOG

                                          855

                                          Online

                                          32.4k

                                          Benutzer

                                          81.5k

                                          Themen

                                          1.3m

                                          Beiträge
                                          Community
                                          Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen | Einwilligungseinstellungen
                                          ioBroker Community 2014-2025
                                          logo
                                          • Anmelden

                                          • Du hast noch kein Konto? Registrieren

                                          • Anmelden oder registrieren, um zu suchen
                                          • Erster Beitrag
                                            Letzter Beitrag
                                          0
                                          • Home
                                          • Aktuell
                                          • Tags
                                          • Ungelesen 0
                                          • Kategorien
                                          • Unreplied
                                          • Beliebt
                                          • GitHub
                                          • Docu
                                          • Hilfe