NEWS
NEU ioBroker Alexa Custom Skill verfügbar!
-
Habe nun auch den Custom Skill testweise im Einsatz und technisch funktioniert alles einwandfrei.
Allerdings habe auch ich das Gefühl, dass Alexa mich wesentlich schlechter als normal versteht. Ich habe ansonsten nur selten Verständnisprobleme mit ihr - ich spreche auch nicht Dialekt und nuschel nicht. Die Aufzeichnungen in der Alex-App klingen klar und verständlich.
Dennoch:
"frage ioBroker, wer anwesend ist" --> processText: "askWho wer ist wand des alle" "frage ioBroker, wer anwesend ist" --> processText: "askWho Sind wer ist PC IM" "frage ioBroker, wer online ist" --> processText: "askWho wer ist rollladen"
Wenn ich mir das so ansehe, habe ich fast die Vermutung, dass Alexa zwanghaft versucht irgendwelche Begriffe aus dem Themengebiet "Haus"/"Geräte"/"SmartHome" zu verstehen, wie z.B. "Rolladen","PC" oder "Wand".
Sind in dem Skill denn irgendwelche hints hinterlegt, die das begünstigen? Oder versucht Amazon vielleicht sogar automatisch "wahrscheinliche" Begriffe für diesen Skill zu bestimmen?
-
Hi,
ja im Skill sind an ein paar Stellen "Hints" hinterlegt und ja auch dort sind solche Begriffe teilweise drin. Wir haben zuerst mitz komplett freier Erkennung experimentiert aber da ewaren die Ergebnisse noch grauenvoller.
Probiert es mal ein bissl. Meine Erfahrung ist das Sie nach etwas Zeit viel besser versteht
-
ja im Skill sind an ein paar Stellen "Hints" hinterlegt und ja auch dort sind solche Begriffe teilweise drin. Wir haben zuerst mitz komplett freier Erkennung experimentiert aber da ewaren die Ergebnisse noch grauenvoller.
Probiert es mal ein bissl. Meine Erfahrung ist das Sie nach etwas Zeit viel besser versteht `
Dann teste ich noch etwas weiter.
Ich vermute die hinterlegten Hints sind global, oder? Luxoriös wäre natürlich, wenn die text2command Triggerwörter benutzerspezifisch als Hint extrahiert werden könnten.
-
Geht leider nicht dynamisch, die sind in der Skill-Konfig für die Spracherkennung drin.
-
Es gibt ja mittlerweile auch den https://blueprints.amazon.de/ mit dem man einfache eigene Skills bauen kann.
Vielleicht wäre es zukünftig möglich nutzerspezifische Anpassungen implementieren zu können.
-
Der iot Adapter ist in v0.4.0 auf GitHub und bringt Erweiterungen für die Custom-Skill-Nutzung mit.
Ein neuer Datenpunkt enthält mehr Infos als nur den Text bei Anfragen und bei der ANtwort kann angegeben werde ob die Session offen bleibt oder nicht. So könnten in eigenen JavaScripts unter merken der Session-ID auch "unterhaltungen" geführt werden.
-
Ich versuche gerade frei Werte über den custom Skill in einen Datenpunkt zu bekommen. Bekomme aber alles mögliche aber nie das was ich sage.
So sieht mein text2command aus:
Ich sage "Alexa, sage i o Broker schalte Sender eins".
Das passiert dann:
text2command.0 processText: "controlDevice eins sender schalte" text2command.0 Say ID javascript.0.Objects.Alexa.Samsung.Test: schalte text2command.0 Response: schalte
Auch mit "setze Sender zwei" o.ä. bekomme ich alles mögliche in den Datenpunkt aber niemals die Zahl.
Warum bekomme ich das Befehlswort statt dem übergebenen Wert?.
Wie muss das text2command aussehen vom Trigger damit ich eine Zahl als Wort oder Ziffer in einem Datenpunkt bekomme?
-
Der iot Adapter ist in v0.4.0 auf GitHub und bringt Erweiterungen für die Custom-Skill-Nutzung mit.
Ein neuer Datenpunkt enthält mehr Infos als nur den Text bei Anfragen und bei der ANtwort kann angegeben werde ob die Session offen bleibt oder nicht. So könnten in eigenen JavaScripts unter merken der Session-ID auch "unterhaltungen" geführt werden.
Siehe https://github.com/ioBroker/ioBroker.iot#custom-skill `
Bin ich blind, sehe nur V 0.3.1
-
Musst du direkt von Git installieren.
-
Der iot Adapter ist in v0.4.0 auf GitHub und bringt Erweiterungen für die Custom-Skill-Nutzung mit.
Ein neuer Datenpunkt enthält mehr Infos als nur den Text bei Anfragen und bei der ANtwort kann angegeben werde ob die Session offen bleibt oder nicht. So könnten in eigenen JavaScripts unter merken der Session-ID auch "unterhaltungen" geführt werden.
Siehe https://github.com/ioBroker/ioBroker.iot#custom-skill `
Bin ich blind, sehe nur V 0.3.1 `
Auf GitHub!! Nicht NPM
-
Der iot Adapter ist in v0.4.0 auf GitHub und bringt Erweiterungen für die Custom-Skill-Nutzung mit.
Ein neuer Datenpunkt enthält mehr Infos als nur den Text bei Anfragen und bei der ANtwort kann angegeben werde ob die Session offen bleibt oder nicht. So könnten in eigenen JavaScripts unter merken der Session-ID auch "unterhaltungen" geführt werden.
Siehe https://github.com/ioBroker/ioBroker.iot#custom-skill `
Bin ich blind, sehe nur V 0.3.1 `
Auf GitHub!! Nicht NPM `
Ich gehe dann ins Bett….......... :?
-
Gute Nacht
-
Doof dass solche Fehler 40 Posts die eigentlichen Fragen aus den Fokus rücken.
Aber ich habe bei Git schon gesehen dass ein issue offen ist das "schreibe Text in den Zustand" aktuell nur Murks macht.
-
Ich bin bei meinen ersten Gehversuchen, was Custom Skills angeht.
Ich möchte die Rasenkanten mit meinem Worx schneiden. Wenn ich sage ->
sage i. o. broker starte kanten schnitt
Wird die Funktion nicht ausgeführt. So sieht es im text2command Adapter aus.
Was mache ich falsch?
-
Ich habe die Pro Version gekauft.
Wenn ich über Alexa Custom Skill eine Abfrage mache, wir die durchgeführt (kann ich im Log sehen) aber es erfolgt keine Sprach Ausgabe am Sonos1. Wenn ich das über ein Echo Gerät mache, funktioniert es. -
Weiß nicht, ob ich hier an der richtigen Stelle bin...
Aber leider will der CS nicht so recht mit Alexas Routinen, bzw. textCommand.
Das Problem scheint wohl das Verständnis seites Alexas.
Wenn ich z.B. ioB frage wie spät es ist, denn steht in Summary des Alexa2 Adapters:frag i. o. broker wie spät es ist
Kopiere ich das in textCommand kommt im Summary
frag i o broker wie spät es ist
(also ohne Punkte) und der CS wird nicht getriggert.
Nun frag' ich mich, da wir Amazon vermutlich eher nicht dazu bringen, die Punkte nicht zu filtern, ob es evtl. möglich wäre, dass der Skill auch auf "i o broker" reagiert, oder kann ein Skill immer nur einen Aufruf haben? -
@apollon77
Gibt es denn irgendwo einen Bugtracker für den Custom Skill, irgendwie bin ich da blind... -
@padrino Bitte beim iot Adapter einkippen im GitHub. Bzw was hast du denn?
-
@apollon77 sagte in NEU ioBroker Alexa Custom Skill verfügbar!:
@padrino Bzw was hast du denn?
Naja, z.B. das eins oben drüber beschriebene Verhalten.
Aber wo du gerade da bist ;)...
Habe zu Alexa gesagt"Das Garagentor ist geschlossen", darauf hin springt iobroker custom an, ganz ohne "ioBroker" Trigger Wort?
Wie kann das sein? -
@padrino keine Ahnung. Ich glaube aber das Amazon immer mehr experimentiert skills auch ohne triggerwort zu erkennen und zu starten. Ich wüsste aber nicht wie man das steuert.