NEWS
NEU ioBroker Alexa Custom Skill verfügbar!
-
Hochgradig verwirrend empfinde ich allerdings:
-
der Adapter heisst "Cloud MQTT connection"
-
wie soll en Normalsterblicher darauf kommen, dass sich dahinter der "ioBroker.iot" Adapter verbergen könnte?? :?
-
bei Amazon heisst das ganze "Custom ioBroker"
-
die Instanz in ioBroker dann wieder einfach "iot.0"
… das Verwirrspiel ist für einfache Anwender sicher nicht hilfreich `
Jupp, der Name "Cloud MQTT connection" muss in "iot Cloud connection" oder so geändert werden. Der iot-Adapter ist aber nicht nur hinter dem Custom-Skill sondern auch demnächst hinter dem Pro-Smarthome-Skill.
Mehr dazu: viewtopic.php?f=37&t=16882&start=40#p180135
Ich habe gesehen, dass in den Einstellungen des iot-Adapters auch die Smart-Geräte, die ich bisher im Cloud-Adapter gefunden/konfiguriert habe, aufgeführt sind.
Kann ich entsprechend den Cloud-Adapter nun entfernen und alles unter dem neuen Adapter konfigurieren? `
Wenn Du Deinen Pro-Skill auch auf dem Beta wechselst (siehe oben) dann ja.
Hier ist der künftige Plan (und ja befinden uns hier "mitten im Umbau":
-
iot-Adapter regelt Alexa, IFTTT, Services, Google Home, Alexa-Custom
-
cloud-Adapter regelt Cloud-Zugriff auf Deine Visualisierungen und Editoren
Wir trennen also hier Funktionen. Ist aktuell etwas verwirrend weil Wir mit den Usern Ustellen müssen, der neue Pro-Smart-HOme-Skill aber noch Beta ist und so weiter …
Und nun das wichtigste
Habt ihr ggf. ein paar Beispiele von text2command Eiinstellungen um den Einstieg hier einfacher zu gestalten?! `
Jetzt aus der hohlen Hand nicht vielmehr als das im letzten Post geschriebene
https://github.com/ioBroker/ioBroker.text2command
… hilft auch und hier muss ich sagen zähle ich gerade auf Euch.
Grundsätzlich gibst Du im text2command Adapter an was Du grob tun willst und auf welchen text er reagieren soll. Die Logik sucht am Ende ob alle geforderten Wörter oder im Falle von Wort1/Wort2/Wort3 Optionen an Texten getroffen wurden im Eingangstext und dann wird die Aktion ausgeführt und die definierte Antwort zurückgegeben.
Beispiele:
"Kabelreceiver ein" als Erkennungstext reagiert exakt auf diese zwei Worte. Wenn irgendwas fehlt wird es nicht erkannt. In dem Fall reisst Alexa gern mal Kabelreceiver in zwei Worte auseinander was dann nicht gematcht werden würde. Daher geht sowas wie:
"Kabelreceiver/Kabel/Receiver ein/um/an" als Erkennungstext und schon reagiert er auf alle hier definierten möglichen Kombinationen. Wenn noch mehr worte drin sind werden die ignoriert.
Der Anfragetyp steht auch zur Verfügung, also könnte man "controlDevice" nutzen wenn der Skill eine eher steuernde Anfrage erkannt hat oder "askDevice" bei einer eher fragenden. SO könnten damit die gleichen weiteren Triggerworte zei Dinge tun und so zwischen "frage ioBroker ob Kabel an ist" und "sage ioBroker schalte kabel an" unterschieden werden.
Hier muss man sehr viel "rumspielen" um das für einen Selbst und die Erkennungsgenauigkeit von Alexa sinnvolle zu finden.
Die Reihenfolge der Einträge in der Text2Command-Konfig ist wichtig weil von oben nach unten abgearbeitet wird.
Hier im Anhang mal meine Teststeuerung die noch nicht fertig ist was so ein bissl was zeigt.
Ihr seid gern eingeladen hier oder in einem neuen Thread Erfahrungen und Beispiele zu text2command auszutauschen Hat ja bei Alexa2 super geklappt.
-
-
Danke dir
-
Hab noch einen Absatz ergänzt
-
Vielen Dank dafür. Echt genial. Funktioniert auch gleich auf Anhieb (die ersten Tests zumindest).
Ich glaube ja soweit verstanden zu haben wo die Reise hingeht mit IoT bzw. Cloud Adaptern/Skills.
Was bedeuten aber die aktuellen Umbauarbeiten?
Kann man jetzt im Grunde mal munter drauf los testen und die Möglichkeiten von text2command in Kombination mit Adapter/Skill erkunden, oder ist auch in text2command mit gröberen Änderungen zu rechnen?
Nur zur Orientierung damit ich weiss ob ich die (text2command) Liste schon füllen soll oder es mal bei ein paar Testeinträgen belassen :-).
Gruß
Roland
-
Die "Umbauarbeiten" beziehen sich nur auf die Trennung von Cloud und iot und sowas … text2command und die Funktionen bleiben wie Sie sind
-
Habe inzwischen auch den Custom iobroker skill und den iot Adapter laufen.
Soweit so gut, text2command tut auch was es soll, und eine Antwort lasse ich aktuell per script generieren und gebe diese über Alexa2 >> speak wieder aus.
Wirklich klasse wäre es jedoch, wenn Text2 command auch wüsste/mitteilen könnte, von welchem meiner Echo dots die Anfrage kam, damit die Antwort am selben Gerät ausgegeben werden kann.
-
Bei text2Command kannst Du die Antwort direkt definieren die zurückgegeben wird bzw nutze die text2command Möglichkeiten, dann kommt die Antwort genau da raus wo Du reingesprochen hast.
Nur wenn Du sowas wie an der Stelle mit Alexa2-Speak machst dann ist das so.
-
Das war mir im Prinzip klar, jedoch wird meine Antwort von einem script erstellt.
Wie bekomme ich die Ausgabe vom Script in die Ausgabe vom text2command?
Die Info, von welchem Gerät der Befehl kommt, wäre aber auch in vielen anderen Anwendungen sinnvoll und hilfreich!
Zum Adapter selbst: Klasse Sache, da habe ch jede Menge Ideen!
Den 8ten Ansprache-Typ könnte ich übrigens ganz gut brauchen…
Da "Sage iobroker gute Nacht " nicht funktioniert und "schalte gute nacht ein" nicht gut klingt, wäre "sage iobroker, ich gehe schlafen" eine gute Möglichkeit.
Ich verlasse das Haus, ich bin bis 15 Uhr außer Haus, ich .....
wären andere Beispiele... "Du" wäre sicher auch manchmal nützlich..
"Er", "Sie" etc halte ich auch nicht für sehr hilfreich...
-
Bei mir läuft der Skill nach dem heutigen Upgrade auf den Pro Account auch. Aber ein Problem habe ich aktuell, ich möchte den Status der Fenster abfragen (dafür habe ich ein ZWave Sensor vor mir liegen und einen an der Haustür bereits installiert den ich als Fenster missbrauche) ich habe in Text2Command alles korrekt eingetragen und er sagt mir auch Fenster ist geöffnet/geschlossen aber er arbeitet nur den ersten Eintrag im T2C ab und stoppt dann. Ich möchte aber das er mir alle "Fenster" Stati ansagt. Wo ist mein Ansatz im T2C falsch?
-
Dann musst Du den Haken in der einen Spalte rausnehmen der sagt "Wenn gematcht hat höre hier auf"
-
Guter Hinweis und ein Zwischenziel ist erreicht.
Aber jetzt liesst er mir alle drei aufgeführten Stati vor. Sprich Suris Fenster geöffnet und danach gleich Fenster geschlossen obwohl der Sensor im geschlossenen Zustand ist.
-
Das macht auch keinen Sinn was Du da konfiguriert hast. Du hast gewählt das beimatching ein state-wert geschrieben werden soll und das wird getan. Das ist keine "if else" logik.
-
Okayyy jetzt habe ich es gerafft. Er liesst mir alle Stati, vor unabhängig vom Status.
Sprich, er sagt mir welches "Fenster" sich in welchen Zustand befindet.
Ich dachte aufgrund der Doku,
…..
1.) Statusabfragen (Typ-Text für Text2Command: askDevice) - Implementiert
- ... welche (Fenster offen sind)
.....
habe ich die Möglichkeit, nur die offenen Fenster abzufragen. Aber Echo sagt mir eigentlich nur in welchen Zustand, sich die jeweiligen Fenster befinden (Auf oder Zu) und das arbeitet er für jeden eingetragenen T2C bzw. Aktor ab.
Also nur die offenen Fenster aufzuzählen ist an der Stelle nicht möglich.
Sry für mein Denkfehler
-
Das geht über Helfer-States. Also ich habe mehrere "Zähl-Skripte" die Dinge prüfen und Anzahlen und Listen in States schreiben weil ich die an mehreren Stellen verwende. Die nutze ich dann hier für die Ausgabe und auch für Telegram und all sowas.
-
Das war mir im Prinzip klar, jedoch wird meine Antwort von einem script erstellt.
Wie bekomme ich die Ausgabe vom Script in die Ausgabe vom text2command?
Die Info, von welchem Gerät der Befehl kommt, wäre aber auch in vielen anderen Anwendungen sinnvoll und hilfreich!
Zum Adapter selbst: Klasse Sache, da habe ch jede Menge Ideen!
Den 8ten Ansprache-Typ könnte ich übrigens ganz gut brauchen…
Da "Sage iobroker gute Nacht " nicht funktioniert und "schalte gute nacht ein" nicht gut klingt, wäre "sage iobroker, ich gehe schlafen" eine gute Möglichkeit.
Ich verlasse das Haus, ich bin bis 15 Uhr außer Haus, ich .....
wären andere Beispiele... "Du" wäre sicher auch manchmal nützlich..
"Er", "Sie" etc halte ich auch nicht für sehr hilfreich... `
Also die Worte kommen schon durch, aber ggf als "komischer Anfragetyp".
"… Guten Tag", "ich gehe schlafen" kommt bei mir mit askDevice problemlos an
"... ich bin bis um 3 unterwegs" kommt als "controlDevice ich bin um drei unterwegs bis" an
Also von daher ist es so das das alles schon ankommt, nur der Anfragetyp ist ggf unpassend. Der Aufwand diese Optionen alle zu erkennen und mit einem eigenen Anfragetyp durchzureichen ohne das wieder bestimmte "trigger-Worte" verschwinden ist recht hoch.
Faktisch kannst Du unter "ignoranz" des Anfragetyps (der in dem Fall eh nicht "mehrfach verwendet" sinn macht) alles schon genau so umsetzen.
-
Danke, ich werde das ausprobieren! 8-)
Was mir noch aufgefallen ist:
Wenn man eine Anfrage stellt, wird ab und an eine Alexa Standard-Ansage gestartet, irgendwas von wegen " ich kann kein…", welche dann aber sofort von der gewünschten Ansage unterbrochen wird.
MfG Mike
-
Den effekt hatte ich noch nie … komisch
-
Kurze Frage. Ich nutze aktuell noch den ioBroker.pro Skill auf meinem Echo Spot. Den brauche ich dann ja nicht mehr und kann ihn entfernen, oder?
Den text2command-Adapter hatte ich in der Vergangenheit für den direkten Zugriff per Telegram konfiguriert. Kann ich diese Text-Kommandos 1:1 für den Alexa Custom Skill verwenden?
Gruß,
Thorsten
-
@dtp:Kurze Frage. Ich nutze aktuell noch den ioBroker.pro Skill auf meinem Echo Spot. Den brauche ich dann ja nicht mehr und kann ihn entfernen, oder? `
Depends. Custom-Skill macht nur text2command. Der pro-Skill erlaubt Smart-Home devices direkt über Alex aohne das du "sage iobroker" sagen musst. ALso As you like
@dtp:Den text2command-Adapter hatte ich in der Vergangenheit für den direkten Zugriff per Telegram konfiguriert. Kann ich diese Text-Kommandos 1:1 für den Alexa Custom Skill verwenden? `
Wenn Du das willst und je nachdem wie deine text-Matches dort gestrickt sind: ja, sonst geht auch eine eigene text2command Instanz.
-
Danke für die schnelle Antwort. Eine Frage noch.
Ist es nicht etwas umständlich, jedes mal "Alexa, frage/sage i o broker…" sagen zu müssen? Schön wäre doch, wenn man hier ein individuelles Schlüsselwort wie z.B. "Haus" oder dergleichen vergeben könnte. "Alexa, frage/sage haus..." gefällt mir irgendwie besser.