everHome Community
Willkommen in der everHome Community!
Die Community besteht aus verschiedenen Bereichen in denen sich everHome-Benutzer untereinander austauschen können. Hier findest du sicher den ein oder anderen nützlichen Hinweis. Auch das everHome-Team schaut hier gerne vorbei, klärt Fragen und nimmt eure Anregungen auf.
Spracheingabe in der everHome App (Beta-Test)
Mathias
Mitglied
Beiträge: 211
Registriert: 02.10.2014 um 20:48
Hallo in die Runde.
Möchte meine Erfahrungen zu meinem Vorhaben mit euch teilen.
Durch experimentieren ist es mir gelungen, nun meine Geräte, Gruppen und Szenen mittels Google now zu steuern.
Somit kann ich abends mit den Befehlen \"Ok, Google\" gefolgt von z. B. \"schlafen gehen\" die Szene \"Schlafen\" ansteuern, in der beispielsweise alle Lichter mit Zeitverzögerung in Wohnzimmer etc. ausgeschaltet werden und die Nachtleuchte im Schlafzimmer eingeschaltet wird etc.
Prinzipiell lassen sich alle Funktionen ansteuern, die momentan mittels Widgets abgebildet sind.
Die Bedingungen:
- Tasker installiert (3,00€)
- Tasker Plugin AutoVoice installiert (1,40€)
- Dem Plugin AutoVoice die Berechtigung geben, dass es Google now Eingaben analysieren kann (siehe Einstellungen AutoVoice)
- Tasker Plugin AutoInput installiert (1,80€)
- Widgets für jedes Gerät / Gruppe / Szene auf dem Homescreen anlegen, welches man über die Stimme steuern möchte
Die Funktionsweise:
- Google now mit dem Sprachbefehl \"Ok, Google\" öffnen
- Schaltbefehl aussprechen
- AutoVoice erkennt einen Befehl
- Tasker verbindet den Befehl von AutoVoice mit der Ausführung der Schaltung über AutoInput
- AutoInput \"clickt\" das entsprechende Widget auf dem Homescreen an
- die everHome-App führt die Schaltung durch
Die Umsetzung:
1) AutoInput
Im Plugin AutoInput können über \"Manage Input Actions\" und die \"+\"-Schaltfläche Schaltvorgänge aufgenommen werden.
Hierbei findet man (nach Betätigung des \"+\" Buttons) in der Benachrichtigungsleiste die Anweisung zum aufnehmen einer Aktion, d. h. man wird aufgefordert die zu schaltende App zu öffnen (in unserem Fall der Homescreen), an die Position zu navigieren, wo die Interaktion stattfinden soll, in der Benachrichtigungmeldung den Button \"ADD\" zu drücken und zu guter Letzt in unserem Beispiel das everHome-Widgets zu drücken.
Die Vorgehensweise ist sehr gut im Plugin beschrieben.
Nach dem Aufnehmen will das Plugin noch zwei Dinge wissen.
Zum einen welches Element gemeint war (hier am besten Text auswählen, mit der Beschriftung des Widgets). Zum anderen welche Aktion ausgeführt werden soll (in unserem Fall \"Click\")
Anschließend ist die Aktion im Plugin hinterlegt.
2) Tasker: Task erstellen mit AutoInput
Anschließend muss in Tasker ein Task erstellt werden.
Hier benötigen wir zwei Elemente. \"+\" Button drücken und \"App\" auswählen, gefolgt von \"Go Home\", was das Aufrufen des Homescreens entspricht. Bei Page muss man noch angeben auf welcher Homescreen-Seite sich das Widget befindet (z.B. \"2\" für Homescreen-Seite 2).
Das zweite Element ist die Schaltung mittels AutoInput. Auswahl über \"+\" -> \"Plugin\" -> \"AutoInput\" -> \"Action\", Bleistiftsymbol bei \"Configuration\" -> \"Stored Actions\" und Auswahl der in AutoInput bereits erstellten Aktion.
Der Task ist somit fertig konfiguriert.
3) Tasker: Profil erstellen mit AutoVoice
Danach muss unter \"Profile\" in Tasker ein neues Profil erstellt werden.
Dies kann man sich wie eine \"wenn, dann\" - Verknüpfung vorstellen.
Neues Profil mit \"+\" erstellen, einen Namen definieren, \"Event\" auswählen -> \"Plugin\" -> \"AutoVoice\" -> \"Recognized\" - Bleistiftsymbol bei \"Configuration\".
Unter \"Command Filter\" lässt sich der zu erkennende/ausgesprochene \"Schaltbefehl\" hinterlegen (z. B. Wohnzimmerlampe). Über die Anwahl der Checkbox \"Exact Command\" kann definiert werden, ob der eingegebene Befehl genau so auch gesprochen werden muss (in AutoVoice kann man aber auch mit den Einstellungen ein bisschen spielen). Nach Bestätigung des Hakens und dem \"Zurück-Pfeil\" will Tasker anschließend wissen welcher Task ausgeführt werden soll. Hier wählen wir den Task, den wir unter 2) erstellt haben aus.
Die Konfiguration wäre abgeschlossen für ein Gerät / Gruppe / Szene.
Für jedes Weitere müssen die Schritte 1) - 3) wiederholt werden.
Der Test:
Google now öffnen und den Schaltbefehl, wie in \"Command Filter\" eingegeben aussprechen.
Die Anzeige müsste im Anschluss auf den Homescreen mit der unter Punkt 2) hinterlegten Seite wechseln und die Schaltung durchführen.
Zusammenfassung:
Es müssen ziemlich viele Konfigurationen mit mehreren Apps durchgeführt werden, damit das Ergebnis zustande kommt.
Jede zusätzliche Instanz birgt natürlich ein gewisses \"Fehlerpotential\".
Außerdem ist das Ausführen über AutoInput nur eine \"Notlösung\" und benötigt relativ lange (da erst alle Schritte abgearbeitet werden müssen).
Es können nur Widgets angesprochen werden (Versuche in der everHome App zu navigieren, brachten bei mir keinen Erfolg).
Der Zustand kann nicht direkt gesteuert werden, d. h. \"Wohnzimmerlicht an\" funktioniert nicht, da die Widgets nur als \"Toggle\" ausgeführt sind.
Verbesserungsvorschläge:
Bitte setzt die API zum direkten ansteuern um! =)
Sehr wünschenswert wäre es, wenn Geräte / Gruppen und z. B. Heizkörperthermostate (und alles was so noch kommt ;-) ) direkt mit \"Werten\" angesteuert werden können (z. B. Ein, Aus, Solltemp. xx °C für X Minuten / Stunden).
Szenen können ja nur insziniert werden, das passt.
Interessant wäre es auch Zeitprofile von Geräten / Gruppen / Szenen über die API aktivieren / deaktivieren zu können (z. B. \"Zeitplanung Rolladen Wohnzimmer aus\").
Eine \"Bidirektionalität\" wäre ebenfalls super. Damit könnte man einfach nach den Dingen fragen, die man wissen will (z. B. Wie warm ist es im Wohnzimmer? Wie hoch ist die Solltemperatur im Wohnzimmer? Ist die Garage geschlossen? etc.).
Eine Tasker-Integration wäre hierbei natürlich das Non-Plus-Ultra ;-) aber solange die Funktionen zumindest in einer API zur Verfügung stehen, kann man damit arbeiten ;-)
Den wirklich großen Vorteil, den ich dabei sehe ist, dass durch genau so ein Experimentieren neue Ideen und Anregungen wieder im Forum landen können!
Und genau davon lebt das System (da die Entwicklung immer vorwärts geht bzw. gehen sollte, um erfolgreich zu sein).
Den großen Vorteil der API bzw. der Tasker-Integration den ich bei der Sprachensteuerung sehe ist, dass man mit immer mehr Geräten und der steigenden Komplexität, die man ins System integriert den \"Überblick\" nicht verliert.
Normalerweise weiß man genau was man machen / wissen will (z. B. dass das Rollo im Wohnzimmer nicht runter gehen soll, die Temperatur zu niedrig ist oder es zu dunkel ist oder die Garage geschlossen ist), aber oftmals nach den Geräten in den Listen suchen muss.
Hiermit wäre eine intuitive Steuerung möglich.
Mittel- bzw. langfristig kann man dann ggf. versuchen diese Funktionalitäten direkt in everHome zu integrieren.
Ich hoffe sehr auf euren Zuspruch und bin gespannt, wie Ihr zu den genannten Aspekten steht.
Btw. falls sich jemand den Spass macht und die \"Sprachsteuerung\" ausprobiert, bitte Erfahrungen hier mitteilen ;-)
Möchte meine Erfahrungen zu meinem Vorhaben mit euch teilen.
Durch experimentieren ist es mir gelungen, nun meine Geräte, Gruppen und Szenen mittels Google now zu steuern.
Somit kann ich abends mit den Befehlen \"Ok, Google\" gefolgt von z. B. \"schlafen gehen\" die Szene \"Schlafen\" ansteuern, in der beispielsweise alle Lichter mit Zeitverzögerung in Wohnzimmer etc. ausgeschaltet werden und die Nachtleuchte im Schlafzimmer eingeschaltet wird etc.
Prinzipiell lassen sich alle Funktionen ansteuern, die momentan mittels Widgets abgebildet sind.
Die Bedingungen:
- Tasker installiert (3,00€)
- Tasker Plugin AutoVoice installiert (1,40€)
- Dem Plugin AutoVoice die Berechtigung geben, dass es Google now Eingaben analysieren kann (siehe Einstellungen AutoVoice)
- Tasker Plugin AutoInput installiert (1,80€)
- Widgets für jedes Gerät / Gruppe / Szene auf dem Homescreen anlegen, welches man über die Stimme steuern möchte
Die Funktionsweise:
- Google now mit dem Sprachbefehl \"Ok, Google\" öffnen
- Schaltbefehl aussprechen
- AutoVoice erkennt einen Befehl
- Tasker verbindet den Befehl von AutoVoice mit der Ausführung der Schaltung über AutoInput
- AutoInput \"clickt\" das entsprechende Widget auf dem Homescreen an
- die everHome-App führt die Schaltung durch
Die Umsetzung:
1) AutoInput
Im Plugin AutoInput können über \"Manage Input Actions\" und die \"+\"-Schaltfläche Schaltvorgänge aufgenommen werden.
Hierbei findet man (nach Betätigung des \"+\" Buttons) in der Benachrichtigungsleiste die Anweisung zum aufnehmen einer Aktion, d. h. man wird aufgefordert die zu schaltende App zu öffnen (in unserem Fall der Homescreen), an die Position zu navigieren, wo die Interaktion stattfinden soll, in der Benachrichtigungmeldung den Button \"ADD\" zu drücken und zu guter Letzt in unserem Beispiel das everHome-Widgets zu drücken.
Die Vorgehensweise ist sehr gut im Plugin beschrieben.
Nach dem Aufnehmen will das Plugin noch zwei Dinge wissen.
Zum einen welches Element gemeint war (hier am besten Text auswählen, mit der Beschriftung des Widgets). Zum anderen welche Aktion ausgeführt werden soll (in unserem Fall \"Click\")
Anschließend ist die Aktion im Plugin hinterlegt.
2) Tasker: Task erstellen mit AutoInput
Anschließend muss in Tasker ein Task erstellt werden.
Hier benötigen wir zwei Elemente. \"+\" Button drücken und \"App\" auswählen, gefolgt von \"Go Home\", was das Aufrufen des Homescreens entspricht. Bei Page muss man noch angeben auf welcher Homescreen-Seite sich das Widget befindet (z.B. \"2\" für Homescreen-Seite 2).
Das zweite Element ist die Schaltung mittels AutoInput. Auswahl über \"+\" -> \"Plugin\" -> \"AutoInput\" -> \"Action\", Bleistiftsymbol bei \"Configuration\" -> \"Stored Actions\" und Auswahl der in AutoInput bereits erstellten Aktion.
Der Task ist somit fertig konfiguriert.
3) Tasker: Profil erstellen mit AutoVoice
Danach muss unter \"Profile\" in Tasker ein neues Profil erstellt werden.
Dies kann man sich wie eine \"wenn, dann\" - Verknüpfung vorstellen.
Neues Profil mit \"+\" erstellen, einen Namen definieren, \"Event\" auswählen -> \"Plugin\" -> \"AutoVoice\" -> \"Recognized\" - Bleistiftsymbol bei \"Configuration\".
Unter \"Command Filter\" lässt sich der zu erkennende/ausgesprochene \"Schaltbefehl\" hinterlegen (z. B. Wohnzimmerlampe). Über die Anwahl der Checkbox \"Exact Command\" kann definiert werden, ob der eingegebene Befehl genau so auch gesprochen werden muss (in AutoVoice kann man aber auch mit den Einstellungen ein bisschen spielen). Nach Bestätigung des Hakens und dem \"Zurück-Pfeil\" will Tasker anschließend wissen welcher Task ausgeführt werden soll. Hier wählen wir den Task, den wir unter 2) erstellt haben aus.
Die Konfiguration wäre abgeschlossen für ein Gerät / Gruppe / Szene.
Für jedes Weitere müssen die Schritte 1) - 3) wiederholt werden.
Der Test:
Google now öffnen und den Schaltbefehl, wie in \"Command Filter\" eingegeben aussprechen.
Die Anzeige müsste im Anschluss auf den Homescreen mit der unter Punkt 2) hinterlegten Seite wechseln und die Schaltung durchführen.
Zusammenfassung:
Es müssen ziemlich viele Konfigurationen mit mehreren Apps durchgeführt werden, damit das Ergebnis zustande kommt.
Jede zusätzliche Instanz birgt natürlich ein gewisses \"Fehlerpotential\".
Außerdem ist das Ausführen über AutoInput nur eine \"Notlösung\" und benötigt relativ lange (da erst alle Schritte abgearbeitet werden müssen).
Es können nur Widgets angesprochen werden (Versuche in der everHome App zu navigieren, brachten bei mir keinen Erfolg).
Der Zustand kann nicht direkt gesteuert werden, d. h. \"Wohnzimmerlicht an\" funktioniert nicht, da die Widgets nur als \"Toggle\" ausgeführt sind.
Verbesserungsvorschläge:
Bitte setzt die API zum direkten ansteuern um! =)
Sehr wünschenswert wäre es, wenn Geräte / Gruppen und z. B. Heizkörperthermostate (und alles was so noch kommt ;-) ) direkt mit \"Werten\" angesteuert werden können (z. B. Ein, Aus, Solltemp. xx °C für X Minuten / Stunden).
Szenen können ja nur insziniert werden, das passt.
Interessant wäre es auch Zeitprofile von Geräten / Gruppen / Szenen über die API aktivieren / deaktivieren zu können (z. B. \"Zeitplanung Rolladen Wohnzimmer aus\").
Eine \"Bidirektionalität\" wäre ebenfalls super. Damit könnte man einfach nach den Dingen fragen, die man wissen will (z. B. Wie warm ist es im Wohnzimmer? Wie hoch ist die Solltemperatur im Wohnzimmer? Ist die Garage geschlossen? etc.).
Eine Tasker-Integration wäre hierbei natürlich das Non-Plus-Ultra ;-) aber solange die Funktionen zumindest in einer API zur Verfügung stehen, kann man damit arbeiten ;-)
Den wirklich großen Vorteil, den ich dabei sehe ist, dass durch genau so ein Experimentieren neue Ideen und Anregungen wieder im Forum landen können!
Und genau davon lebt das System (da die Entwicklung immer vorwärts geht bzw. gehen sollte, um erfolgreich zu sein).
Den großen Vorteil der API bzw. der Tasker-Integration den ich bei der Sprachensteuerung sehe ist, dass man mit immer mehr Geräten und der steigenden Komplexität, die man ins System integriert den \"Überblick\" nicht verliert.
Normalerweise weiß man genau was man machen / wissen will (z. B. dass das Rollo im Wohnzimmer nicht runter gehen soll, die Temperatur zu niedrig ist oder es zu dunkel ist oder die Garage geschlossen ist), aber oftmals nach den Geräten in den Listen suchen muss.
Hiermit wäre eine intuitive Steuerung möglich.
Mittel- bzw. langfristig kann man dann ggf. versuchen diese Funktionalitäten direkt in everHome zu integrieren.
Ich hoffe sehr auf euren Zuspruch und bin gespannt, wie Ihr zu den genannten Aspekten steht.
Btw. falls sich jemand den Spass macht und die \"Sprachsteuerung\" ausprobiert, bitte Erfahrungen hier mitteilen ;-)
Gruß
Mathias
Mathias
everHome Team
Sebastian
everHome Team
Hallo Mathias,
abgefahrener Beitrag. Es tut mir leid, dass meine Antwort im Vergleich sehr kurz wird^^
Sprachsteuerung ist für uns ein sehr interessantes Feld, allerdings können wir sowas nicht selber bauen und sind auf externe Anbieter von Hardware und Software angewiesen. Zum einen wäre da Amazon Echo, auf den hier einige warten. Die API von Amazon dazu sieht wirklich brauchbar aus, leider gibt es noch keine Informationen zur Verfügbarkeit in Deutschland.
Zum anderen ist da Google Now, in Deutschland verfügbar und wie du auch beschrieben hast mit Hacks schon für sowas benutzbar. Damit das aber nicht nur die Nerds bedienen können muss das über eine offizielle API nutzbar sein, soweit ich weiß gibt es die aber noch nicht.
Dann gibt es da noch ein paar Kickstarter-Projekte etc., bis eins davon für alle erhältlich ist lassen wir die mal außer Acht.
Zum Thema: Einige interessante Ideen für die API, danke dafür. Was haltet ihr von Apiary zur Dokumentation?
abgefahrener Beitrag. Es tut mir leid, dass meine Antwort im Vergleich sehr kurz wird^^
Sprachsteuerung ist für uns ein sehr interessantes Feld, allerdings können wir sowas nicht selber bauen und sind auf externe Anbieter von Hardware und Software angewiesen. Zum einen wäre da Amazon Echo, auf den hier einige warten. Die API von Amazon dazu sieht wirklich brauchbar aus, leider gibt es noch keine Informationen zur Verfügbarkeit in Deutschland.
Zum anderen ist da Google Now, in Deutschland verfügbar und wie du auch beschrieben hast mit Hacks schon für sowas benutzbar. Damit das aber nicht nur die Nerds bedienen können muss das über eine offizielle API nutzbar sein, soweit ich weiß gibt es die aber noch nicht.
Dann gibt es da noch ein paar Kickstarter-Projekte etc., bis eins davon für alle erhältlich ist lassen wir die mal außer Acht.
Zum Thema: Einige interessante Ideen für die API, danke dafür. Was haltet ihr von Apiary zur Dokumentation?
Beste Grüße
Mathias
Mitglied
Beiträge: 211
Registriert: 02.10.2014 um 20:48
Hallo Sebastian,
Sprachsteuerung ist toll, nicht? ;-)
Wobei ich da den Focus mit bedacht legen würde.
Zusätzliche Gadgets sind zwar schön und gut, nur denke ich, dass die Hemmschwelle für die Anschaffung relativ hoch sein wird.
Das wäre meiner Ansicht nach dann die Kür ^^
Das Smartphone hingegen hat wohl jeder everHome Nutzer zur Hand, weswegen der Focus hierin begründet sein sollte.
Zum Glück bieten Google mit Google now und Apple mit Siri bereits Sprachsoftware zur Erkennung an.
Ich denke ebenfalls, dass die zwei großen Firmen weiterhin an den Schnittstellen arbeiten werden, so dass es möglich sein wird auf diese Technologien aufzusetzen.
Währenddessen bzw. besser gesagt trotzdem (!) würde ich an eurer Stelle an einer offenen API arbeiten, die die Interaktion mit der Cloud (Informationen senden und empfangen) anbietet. Die Entwicklung ist rasant und täglich kommen neue sinnvolle Apps, Web-Dienste, etc. hinzu.
Ich denke, dass Ihr realistisch gesehen (leider :P) auch nicht zeitlich dazu kommen werdet all dies umzusetzen bzw. zu implementieren, was Ihr vllt. auch wollen würdet.
Somit gebt den Leuten eine Schnittsstelle an die Hand mit der man auch selbst Verknüpfungen realisieren kann.
Eine gute API macht den Weg ja nicht nur für die Sprachsteuerung auf, sondern bietet deutlich mehr Verknüpfungsmöglichkeiten (siehe IFTTT)!
Meiner Ansicht nach wäre es ein weiterer Antrieb neue Anwendungsfälle zu finden und, wie gesagt, ggf. nach und nach "zu vereinfachen" und als weitere Funktion in everHome zu integrieren.
Zusammengefasst wären folgende Punkte zum Start der API sinnvoll:
- Schalten von Aktoren mit deren Eigenschaften (Ein / Aus / Hoch / Runter / Stop / Temp.-Wert für x Min/h / ....) von Geräten / Gruppen / Szenen
- Abfragen von Informationen (Geräte sind Ein, Aus,..... / Gruppen sind Ein, Aus,.... / Sensoren haben IST-Wert Temp, Luftfeuchtigkeit, Offen, Geschlossen,...)
- Setzen bzw. Aktivierung von Automatismen (Wecker x Weckzeit y für Werktage, Montag, Dienstag,... / Automatisierung nach Sonnenstand, Zeitplanung, etc. ein oder aus, .....)
Eine gute Dokumentation ist natürlich sehr wichtig, um mit der API schnell und erfolgreich arbeiten zu können.
Ich bin kein Programmierer (nur jemand der mit dem Wort Logik vllt etwas anfangen kann ;-)), kenne daher Apiary nicht.
Auf den ersten Blick macht es aber einen guten Eindruck!
Könnt Ihr euch schon zu einem Statement hinreißen, ob sowas kommen wird, wenn ja, in welchem Umfang und wie da die grobe Zeitschiene aussehen könnte?
Sprachsteuerung ist toll, nicht? ;-)
Wobei ich da den Focus mit bedacht legen würde.
Zusätzliche Gadgets sind zwar schön und gut, nur denke ich, dass die Hemmschwelle für die Anschaffung relativ hoch sein wird.
Das wäre meiner Ansicht nach dann die Kür ^^
Das Smartphone hingegen hat wohl jeder everHome Nutzer zur Hand, weswegen der Focus hierin begründet sein sollte.
Zum Glück bieten Google mit Google now und Apple mit Siri bereits Sprachsoftware zur Erkennung an.
Ich denke ebenfalls, dass die zwei großen Firmen weiterhin an den Schnittstellen arbeiten werden, so dass es möglich sein wird auf diese Technologien aufzusetzen.
Währenddessen bzw. besser gesagt trotzdem (!) würde ich an eurer Stelle an einer offenen API arbeiten, die die Interaktion mit der Cloud (Informationen senden und empfangen) anbietet. Die Entwicklung ist rasant und täglich kommen neue sinnvolle Apps, Web-Dienste, etc. hinzu.
Ich denke, dass Ihr realistisch gesehen (leider :P) auch nicht zeitlich dazu kommen werdet all dies umzusetzen bzw. zu implementieren, was Ihr vllt. auch wollen würdet.
Somit gebt den Leuten eine Schnittsstelle an die Hand mit der man auch selbst Verknüpfungen realisieren kann.
Eine gute API macht den Weg ja nicht nur für die Sprachsteuerung auf, sondern bietet deutlich mehr Verknüpfungsmöglichkeiten (siehe IFTTT)!
Meiner Ansicht nach wäre es ein weiterer Antrieb neue Anwendungsfälle zu finden und, wie gesagt, ggf. nach und nach "zu vereinfachen" und als weitere Funktion in everHome zu integrieren.
Zusammengefasst wären folgende Punkte zum Start der API sinnvoll:
- Schalten von Aktoren mit deren Eigenschaften (Ein / Aus / Hoch / Runter / Stop / Temp.-Wert für x Min/h / ....) von Geräten / Gruppen / Szenen
- Abfragen von Informationen (Geräte sind Ein, Aus,..... / Gruppen sind Ein, Aus,.... / Sensoren haben IST-Wert Temp, Luftfeuchtigkeit, Offen, Geschlossen,...)
- Setzen bzw. Aktivierung von Automatismen (Wecker x Weckzeit y für Werktage, Montag, Dienstag,... / Automatisierung nach Sonnenstand, Zeitplanung, etc. ein oder aus, .....)
Eine gute Dokumentation ist natürlich sehr wichtig, um mit der API schnell und erfolgreich arbeiten zu können.
Ich bin kein Programmierer (nur jemand der mit dem Wort Logik vllt etwas anfangen kann ;-)), kenne daher Apiary nicht.
Auf den ersten Blick macht es aber einen guten Eindruck!
Könnt Ihr euch schon zu einem Statement hinreißen, ob sowas kommen wird, wenn ja, in welchem Umfang und wie da die grobe Zeitschiene aussehen könnte?
Gruß
Mathias
Mathias
everHome Team
Benutzer 3
everHome Team
Hallo Mathias,
bezüglich der Sprachsteuerung kann in den Einstellungen von Android, die everHome App, als Bedienungshilfe aktiviert werden, um Sprachbefehle der Google Sprachsuche entgegen zu nehmen. Diese Funktion ist ab everHome App Version 2.4.4 für Android verfügbar.
Beispiele:
Schalte Heizung Ein
Schalte Heizung Aus
Schalte Heizung
Schalte Gruppe Lichter Ein
Inszeniere Aufstehen (erst ab Version 2.4.5)
Schalte Jalousie Hoch
Heizung schalten
Heizung einschalten
Heizung ausschalten
Heizung im Wohnzimmer schalten
schalte Jalousie Vorne im Wohnzimmer hoch
schalte Außenlampe in 5 Sekunden ein (ab Version 2.4.5)
schalte Außenlampe auf 50% ein (ab Version 2.4.5)
(Gerätenamen/Raumnamen mit Leerzeichen ab Version 2.4.5)
(Schalte/Inszeniere/Dimme) (Gerät/Gruppe/Szene (sonst Gerät)) %Name% (im %Raumname%) (in/für %Zeit% (Sekunden)) (auf %Prozent%%) %Aktionsname% (schalten/inszenieren, einschalten, ausschalten, dimmen)
Beachte das dies eine Beta Funktion ist, die noch nicht ausgiebig getestet wurde. In iOS ist dies zurzeit noch nicht möglich, da Apple für Siri nur eine sehr begrenzte Api zur verfügung stellt.
bezüglich der Sprachsteuerung kann in den Einstellungen von Android, die everHome App, als Bedienungshilfe aktiviert werden, um Sprachbefehle der Google Sprachsuche entgegen zu nehmen. Diese Funktion ist ab everHome App Version 2.4.4 für Android verfügbar.
Beispiele:
Schalte Heizung Ein
Schalte Heizung Aus
Schalte Heizung
Schalte Gruppe Lichter Ein
Inszeniere Aufstehen (erst ab Version 2.4.5)
Schalte Jalousie Hoch
Heizung schalten
Heizung einschalten
Heizung ausschalten
Heizung im Wohnzimmer schalten
schalte Jalousie Vorne im Wohnzimmer hoch
schalte Außenlampe in 5 Sekunden ein (ab Version 2.4.5)
schalte Außenlampe auf 50% ein (ab Version 2.4.5)
(Gerätenamen/Raumnamen mit Leerzeichen ab Version 2.4.5)
(Schalte/Inszeniere/Dimme) (Gerät/Gruppe/Szene (sonst Gerät)) %Name% (im %Raumname%) (in/für %Zeit% (Sekunden)) (auf %Prozent%%) %Aktionsname% (schalten/inszenieren, einschalten, ausschalten, dimmen)
Beachte das dies eine Beta Funktion ist, die noch nicht ausgiebig getestet wurde. In iOS ist dies zurzeit noch nicht möglich, da Apple für Siri nur eine sehr begrenzte Api zur verfügung stellt.
Mike Springob
Mitglied
Beiträge: 218
Registriert: 18.01.2015 um 22:06
Hallo Fabian,
Wie genau funktioniert die Spracheingabe? Muss ich erst sagen, welche App die Ansage umsetzen soll? Ich habe die App aktualisiert und everhome in Google Sprachsuche aktiviert aber auf die Ansage z.B. "Licht WC einschalten" passiert nichts, außer das Google im Netz Suchergebnisse für Licht und WC anzeigt.
Gruß
Mike
Wie genau funktioniert die Spracheingabe? Muss ich erst sagen, welche App die Ansage umsetzen soll? Ich habe die App aktualisiert und everhome in Google Sprachsuche aktiviert aber auf die Ansage z.B. "Licht WC einschalten" passiert nichts, außer das Google im Netz Suchergebnisse für Licht und WC anzeigt.
Gruß
Mike
Cloudbox 3.0 Premium / Firmware V4.4.4
everHome Team
Benutzer 3
everHome Team
Hallo Mike,
die everHome APP muss unter Bedienungshilfen aktiviert sein. Ebenfalls muss das Format :schalte %Name des Gerätes% ein/aus eingehalten werden. Erst ab Version 2.4.5 werden Leerzeichen in gerätenamen unterstützt. Dein Befehl wir mit Version 2.4.5 unterstützt.
die everHome APP muss unter Bedienungshilfen aktiviert sein. Ebenfalls muss das Format :schalte %Name des Gerätes% ein/aus eingehalten werden. Erst ab Version 2.4.5 werden Leerzeichen in gerätenamen unterstützt. Dein Befehl wir mit Version 2.4.5 unterstützt.
Mike Springob
Mitglied
Beiträge: 218
Registriert: 18.01.2015 um 22:06
Vielen Dank - dann lag es am Leerzeichen. Beim "Sideboard" funktioniert es.
Viele Grüße
Mike
Viele Grüße
Mike
Cloudbox 3.0 Premium / Firmware V4.4.4
Mathias
Mitglied
Beiträge: 211
Registriert: 02.10.2014 um 20:48
Hallo Fabian,
habe die Beta-Funktion ein wenig getestet.
Rückmeldung bzw. was mir alles aufgefallen ist (Version 2.4.4):
- Grundfunktion ist gegeben und funktioniert bei Geräten soweit gut
- Ich hatte öfters das Problem, dass Google Dinge falsch interpretiert hat, z. B. \"schalte Nachtleuchte ein\" wurde zu \"schalte Nachtleuchte 1\", \"Nachtleuchte einschalten\" hat jedoch immer funktioniert
- Dein Beispiel \"schalte Heizung ein\" ist (für mich) ein wenig irreführend, ich denke du hast damit ein x-beliebiges Gerät gemeint, jedoch nicht z.B. die Ansteuerung von Homematic Heizkörperthermostaten mit Temp. ala \"Heizung Wohnzimmer mit 22 Grad einschalten\" oder \"Heizung Wohnzimmer auf 22 Grad schalten / einstellen\"
- Geräte/Gruppen/Szenen-Namen müssen so gewählt werden, \"wie Google\" sie erkennt, z. B. hatte ich ein Gerät mit dem Namen \"Ambiente-Beleuchtung\", Google erkennt über die Spracheingabe nur \"Ambientebeleuchtung\", ergo keine Schaltung
Anderes Beispiel Name \"Ledbeleuchtung\" wird in Google nur als \"LED Beleuchtung\" erkannt, d. h. der Name im Portal muss daraufhin angepasst werden, ansonsten wird der Schaltbefehl nicht erkannt...
BTW....versucht mal in Google Now \"Weckszene\" aufzurufen :D , diesen Namen habe ich auch geändert ^^
Zusammengefasst:
Gerätenamen müssen auf die Erkennung hin \"optimiert\" werden und die Schaltbefehle (1 statt ein) können ggf. nicht richtig erkannt werden.
Abfragen von Zuständen (\"Wie warm ist es im Wohnzimmer?\", \"Ist das Badfenster geschlossen?\") oder Ansteuerung von Temperaturen bei Heizköperthermostaten sind noch nicht möglich.
Werden bei den Zeitangaben auch \"Minuten\" und \"Stunden\" unterstützt?
Btw. würde vorschlagen für das Thema Sprachsteuerung einen eigenen Threat zu erstellen!
Zu dem Thema API:
Wie sehen eure Pläne in der Richtung aus? Wann kann man mit einer API rechnen?
habe die Beta-Funktion ein wenig getestet.
Rückmeldung bzw. was mir alles aufgefallen ist (Version 2.4.4):
- Grundfunktion ist gegeben und funktioniert bei Geräten soweit gut
- Ich hatte öfters das Problem, dass Google Dinge falsch interpretiert hat, z. B. \"schalte Nachtleuchte ein\" wurde zu \"schalte Nachtleuchte 1\", \"Nachtleuchte einschalten\" hat jedoch immer funktioniert
- Dein Beispiel \"schalte Heizung ein\" ist (für mich) ein wenig irreführend, ich denke du hast damit ein x-beliebiges Gerät gemeint, jedoch nicht z.B. die Ansteuerung von Homematic Heizkörperthermostaten mit Temp. ala \"Heizung Wohnzimmer mit 22 Grad einschalten\" oder \"Heizung Wohnzimmer auf 22 Grad schalten / einstellen\"
- Geräte/Gruppen/Szenen-Namen müssen so gewählt werden, \"wie Google\" sie erkennt, z. B. hatte ich ein Gerät mit dem Namen \"Ambiente-Beleuchtung\", Google erkennt über die Spracheingabe nur \"Ambientebeleuchtung\", ergo keine Schaltung
Anderes Beispiel Name \"Ledbeleuchtung\" wird in Google nur als \"LED Beleuchtung\" erkannt, d. h. der Name im Portal muss daraufhin angepasst werden, ansonsten wird der Schaltbefehl nicht erkannt...
BTW....versucht mal in Google Now \"Weckszene\" aufzurufen :D , diesen Namen habe ich auch geändert ^^
Zusammengefasst:
Gerätenamen müssen auf die Erkennung hin \"optimiert\" werden und die Schaltbefehle (1 statt ein) können ggf. nicht richtig erkannt werden.
Abfragen von Zuständen (\"Wie warm ist es im Wohnzimmer?\", \"Ist das Badfenster geschlossen?\") oder Ansteuerung von Temperaturen bei Heizköperthermostaten sind noch nicht möglich.
Werden bei den Zeitangaben auch \"Minuten\" und \"Stunden\" unterstützt?
Btw. würde vorschlagen für das Thema Sprachsteuerung einen eigenen Threat zu erstellen!
Zu dem Thema API:
Wie sehen eure Pläne in der Richtung aus? Wann kann man mit einer API rechnen?
Gruß
Mathias
Mathias
tom2964
Mitglied
Beiträge: 9
Registriert: 13.11.2015 um 15:17
Hallo und alle ein gesundes neues Jahr
Habe da noch Probleme mit der Einstellung in tasker komme einfach nicht weiterElemente. "+" Button drücken und "App" auswählen, gefolgt von "Go Home", was das Aufrufen des Homescreens entspricht. Bei Page muss man noch angeben auf welcher Homescreen-Seite sich das Widget befindet (z.B. "2" für Homescreen-Seite 2).
Und zwar ab " Go home " bei Page die Seite einstellen bei homecreen und da komme ich nicht weiter
Könnte da mir mal jemand helfen
Mfg Thomas
Habe da noch Probleme mit der Einstellung in tasker komme einfach nicht weiterElemente. "+" Button drücken und "App" auswählen, gefolgt von "Go Home", was das Aufrufen des Homescreens entspricht. Bei Page muss man noch angeben auf welcher Homescreen-Seite sich das Widget befindet (z.B. "2" für Homescreen-Seite 2).
Und zwar ab " Go home " bei Page die Seite einstellen bei homecreen und da komme ich nicht weiter
Könnte da mir mal jemand helfen
Mfg Thomas
Mathias
Mitglied
Beiträge: 211
Registriert: 02.10.2014 um 20:48
Hallo Thomas,
kein Problem, leider musst du hierfür deine Frage konkretisieren. Das Aufrufen des Homescreens mit der eingestellten Seite funktioniert schonmal?
AutoInput Aktion bereits aufgenommen (über entsprechendes Widget)?
Wenn beides zutrifft, kannst du im Tasker Task einfach ein weiteres Element über den + Button hinzufügen (Plugins -> AutoInput...)
Aber generell würde ich empfehlen die bereits durch das everHome Team umgesetzte Sprachsteuerung zu benutzen und hier Feedback zu geben!
Mein Versuch mit Tasker war eher eine 'Machbarkeitsstudie', die das Team in direkter Form (ohne Tasker) in die App integriert hat.
An das Team:
Da die Sprachsteuerung durch euch immer weiter ausgebaut wird, wäre es da möglich die 'Code-Wörter' bzw. die Sprachsyntax auf einer Seite gebündelt zu sammeln (z.B. in den FAQ oder direkt unter Hilfe)?
kein Problem, leider musst du hierfür deine Frage konkretisieren. Das Aufrufen des Homescreens mit der eingestellten Seite funktioniert schonmal?
AutoInput Aktion bereits aufgenommen (über entsprechendes Widget)?
Wenn beides zutrifft, kannst du im Tasker Task einfach ein weiteres Element über den + Button hinzufügen (Plugins -> AutoInput...)
Aber generell würde ich empfehlen die bereits durch das everHome Team umgesetzte Sprachsteuerung zu benutzen und hier Feedback zu geben!
Mein Versuch mit Tasker war eher eine 'Machbarkeitsstudie', die das Team in direkter Form (ohne Tasker) in die App integriert hat.
An das Team:
Da die Sprachsteuerung durch euch immer weiter ausgebaut wird, wäre es da möglich die 'Code-Wörter' bzw. die Sprachsyntax auf einer Seite gebündelt zu sammeln (z.B. in den FAQ oder direkt unter Hilfe)?
Gruß
Mathias
Mathias
everHome Team
Sebastian
everHome Team
Hallo Mathias,
in welcher Form wir die Funktion dokumentieren werden ist noch nicht ganz klar, die Syntax ist durch die Nutzung einer Art künstlichen Intelligenz sehr tolerant. Im Moment wird das reine Schalten von Geräten unterstützt, bspw. durch "Bitte schalte die Deckenlampe im Wohnzimmer ein".
in welcher Form wir die Funktion dokumentieren werden ist noch nicht ganz klar, die Syntax ist durch die Nutzung einer Art künstlichen Intelligenz sehr tolerant. Im Moment wird das reine Schalten von Geräten unterstützt, bspw. durch "Bitte schalte die Deckenlampe im Wohnzimmer ein".
Beste Grüße
tom2964
Mitglied
Beiträge: 9
Registriert: 13.11.2015 um 15:17
Hallo Mathias
Wo finde ich das mit der sprachsteuerung in der App bei mir steht nichts von sprachsteuerung
Mfg Thomas
Wo finde ich das mit der sprachsteuerung in der App bei mir steht nichts von sprachsteuerung
Mfg Thomas
Max
Mitglied
Beiträge: 315
Registriert: 15.08.2014 um 20:18
Hallo zusammen,
erste Funktionen der Sprachsteuerung sind in der everHome App für Android Version 2.4.10 vorhanden. Bitte berücksichtigt beim Testen, dass es sich um eine Beta-Implementierung handelt. In der Menueleiste der everHome App für Android ist die Schaltfläche 'Mikrofon' hinzugekommen. Wird die Schaltfläche 'Mikrofon' betätigt, so nimmt die App einen Sprachbefehl vom Benutzer entgegen. Die Auswertung des Befehls wird durch nochmaliges Betätigen der Schaltfläche 'Mikrofon' angestoßen. Dann erfolgt die Anzeige des vom everHome Server interpretierten Befehls zur Kontrolle. Dieser Befehl kann dann ausgeführt werden.
erste Funktionen der Sprachsteuerung sind in der everHome App für Android Version 2.4.10 vorhanden. Bitte berücksichtigt beim Testen, dass es sich um eine Beta-Implementierung handelt. In der Menueleiste der everHome App für Android ist die Schaltfläche 'Mikrofon' hinzugekommen. Wird die Schaltfläche 'Mikrofon' betätigt, so nimmt die App einen Sprachbefehl vom Benutzer entgegen. Die Auswertung des Befehls wird durch nochmaliges Betätigen der Schaltfläche 'Mikrofon' angestoßen. Dann erfolgt die Anzeige des vom everHome Server interpretierten Befehls zur Kontrolle. Dieser Befehl kann dann ausgeführt werden.
Grüße Max
tom2964
Mitglied
Beiträge: 9
Registriert: 13.11.2015 um 15:17
Also ich habe die 2.4.10 aber ich finde keine Schaltfläche 'Mikrofon
Mfg Thomas
Mfg Thomas
Max
Mitglied
Beiträge: 315
Registriert: 15.08.2014 um 20:18
Hallo Thomas,
schau mal in den Navigation-Drawer (linke Menueleiste in der App), oben steht Dein Kundenkonto, rechts daneben die Schaltfläche mit einem 'Mikrofon-Symbol'.
schau mal in den Navigation-Drawer (linke Menueleiste in der App), oben steht Dein Kundenkonto, rechts daneben die Schaltfläche mit einem 'Mikrofon-Symbol'.
Grüße Max
tom2964
Mitglied
Beiträge: 9
Registriert: 13.11.2015 um 15:17
Okay habe es gefunden aber geht nicht so richtig
Mathias
Mitglied
Beiträge: 211
Registriert: 02.10.2014 um 20:48
Hallo Max,
Kann ich bestätigen (2.4.10).
Durch Betätigung wird das Micro rot.
Nachdem der Befehl gesprochen wurde, habe ich es nochmals abgetippt, jedoch ohne Reaktion, Micro bleibt weiterhin rot. Mehrmaliges Betätigen bringt keine Änderungen -> App muss geschlossen werden.
Das interessante ist, dass in Google Now die Schaltbefehle ebenfalls nicht mehr ausgeführt werden?
Kann ich bestätigen (2.4.10).
Durch Betätigung wird das Micro rot.
Nachdem der Befehl gesprochen wurde, habe ich es nochmals abgetippt, jedoch ohne Reaktion, Micro bleibt weiterhin rot. Mehrmaliges Betätigen bringt keine Änderungen -> App muss geschlossen werden.
Das interessante ist, dass in Google Now die Schaltbefehle ebenfalls nicht mehr ausgeführt werden?
Gruß
Mathias
Mathias
tom2964
Mitglied
Beiträge: 9
Registriert: 13.11.2015 um 15:17
Und was kann man jetzt machen das es läuft
Mfg Thomas
Mfg Thomas
tom2964
Mitglied
Beiträge: 9
Registriert: 13.11.2015 um 15:17
Also die App 2.4.12 läuft auch keine sprachsteuerung Micro bleibt auch wieder rot
Mfg Thomas
Mfg Thomas
Mathias
Mitglied
Beiträge: 211
Registriert: 02.10.2014 um 20:48
Dito
Gruß
Mathias
Mathias
tom2964
Mitglied
Beiträge: 9
Registriert: 13.11.2015 um 15:17
Mein größtes Problem ist immer noch das Erreichen eines bestimmten Homescreens über Tasker.
Egal, welche Seitenzahl ich in der Aktion auswähle, Tasker steuert immer nur den zuletzt geöffneten Homescreen an.
Hat hierzu jemand einen Rat?
Mfg Thomas
Mathias
Mitglied
Beiträge: 211
Registriert: 02.10.2014 um 20:48
Hallo Thomas,
ggf. unterstützt dein Homescreen-Launcher nicht die Anwahl über Tasker.
Ich habe den Nova-Launcher installiert und kann in Tasker mit dem Task unter "+" -> "App" -> "Go Home" -> "Auswahl der Homescreenzahl" eine bestimmte Seite des Homescreens aufrufen.
Sollte das nicht funktionieren, wüsste ich momentan nicht, wie man diesen Umstand umgehen sollte.
ggf. unterstützt dein Homescreen-Launcher nicht die Anwahl über Tasker.
Ich habe den Nova-Launcher installiert und kann in Tasker mit dem Task unter "+" -> "App" -> "Go Home" -> "Auswahl der Homescreenzahl" eine bestimmte Seite des Homescreens aufrufen.
Sollte das nicht funktionieren, wüsste ich momentan nicht, wie man diesen Umstand umgehen sollte.
Gruß
Mathias
Mathias
tom2964
Mitglied
Beiträge: 9
Registriert: 13.11.2015 um 15:17
Hallo und erstmal vielen Dank für ihre bemühungen
Habe jetzt tasker gestartet dann Profil hinzufügen das + gedrückt dann App- Nova Launcher ( Go home habe ich da nicht gefunden) Profil habe ich jetzt Nova-Launcher stehen dann neuer Task + gedrückt optional habe ich Wohnzimmer rein geschrieben dann wieder + Aktionskategorie aus wählen ( App) Home Screen anzeigen und Seite 5 gemacht
Drücke ich dann in tasker die Pfeiltaste komme ich dann zur Seite 5 so das geht erstmal oder habe ich da noch was falsch gemacht denn sprachsteuerung geht noch nicht
Mfg Thomas
Habe jetzt tasker gestartet dann Profil hinzufügen das + gedrückt dann App- Nova Launcher ( Go home habe ich da nicht gefunden) Profil habe ich jetzt Nova-Launcher stehen dann neuer Task + gedrückt optional habe ich Wohnzimmer rein geschrieben dann wieder + Aktionskategorie aus wählen ( App) Home Screen anzeigen und Seite 5 gemacht
Drücke ich dann in tasker die Pfeiltaste komme ich dann zur Seite 5 so das geht erstmal oder habe ich da noch was falsch gemacht denn sprachsteuerung geht noch nicht
Mfg Thomas
Mathias
Mitglied
Beiträge: 211
Registriert: 02.10.2014 um 20:48
@Team
Mit der v2.4.13 funktioniert die "interne" Spracherkennung bei mir ebenfalls nicht.
Mikro bleibt rot - keine Reaktion bei mehrmaliger Betätigung, hat eher den Anschein, dass sich die App aufhängt.
Nachtrag:
Die Erkennung über Google Now funktioniert! Hatte durch das ganze "Rumprobieren" vergessen everHome wieder in den Bedienungshilfen zu aktivieren.
@Thomas
Bitte unten die Beschreibung nochmals genau durchlesen.
Die Homescreens sowie "AutoInput" werden in einem Task angelegt.
Bei Profilen wird als Trigger für den Event "AutoVoice" verwendet, welches den Befehl erkennt und dann den verknüpften Task ansteuert.
Aber nochmals:
Ich würde weiterhin empfehlen Google Now ohne Tasker etc. zu benutzen.
Mit der v2.4.13 funktioniert die "interne" Spracherkennung bei mir ebenfalls nicht.
Mikro bleibt rot - keine Reaktion bei mehrmaliger Betätigung, hat eher den Anschein, dass sich die App aufhängt.
Nachtrag:
Die Erkennung über Google Now funktioniert! Hatte durch das ganze "Rumprobieren" vergessen everHome wieder in den Bedienungshilfen zu aktivieren.
@Thomas
Bitte unten die Beschreibung nochmals genau durchlesen.
Die Homescreens sowie "AutoInput" werden in einem Task angelegt.
Bei Profilen wird als Trigger für den Event "AutoVoice" verwendet, welches den Befehl erkennt und dann den verknüpften Task ansteuert.
Aber nochmals:
Ich würde weiterhin empfehlen Google Now ohne Tasker etc. zu benutzen.
Gruß
Mathias
Mathias
tom2964
Mitglied
Beiträge: 9
Registriert: 13.11.2015 um 15:17
Hallo Mathias was für ein Handy benützt du denn oder besser was für ein Betriebssystem also ich habe ein Samsung galaxy s6 edge plus
Das ist so vieles anders als bei meinen Samsung s3 was da mal ging geht beim s6 nicht mehr oder man muß was anderes einstellen also die everhome sprachsteuerung bekomme ich nicht zum laufen und bei Task (habe jetzt den nova launcher genommen Homepage screen geht jetzt )es zum Teil aber nur wenn ich dann direkt drin bin in tasks also nur einmal und dann steht auch immer (Taster keine aktive profile)
Komme also nicht weiter hättest du noch ein Tipp für mich
Mfg Thomas
Das ist so vieles anders als bei meinen Samsung s3 was da mal ging geht beim s6 nicht mehr oder man muß was anderes einstellen also die everhome sprachsteuerung bekomme ich nicht zum laufen und bei Task (habe jetzt den nova launcher genommen Homepage screen geht jetzt )es zum Teil aber nur wenn ich dann direkt drin bin in tasks also nur einmal und dann steht auch immer (Taster keine aktive profile)
Komme also nicht weiter hättest du noch ein Tipp für mich
Mfg Thomas
Mathias
Mitglied
Beiträge: 211
Registriert: 02.10.2014 um 20:48
Hallo Thomas,
ich denke nicht, dass es in diesem Fall vom Gerät abhängt (habe ein LG G3), eher von den Einstellungen.
Leider kann ich dir momentan nicht folgen bzw. verstehe nicht, wo dein Problem liegt.
Das dir Tasker in der Benachrichtigungsleiste "Tasker - keine aktiven Profile" anzeigt ist eig. auch richtig, da die Profile auf Events reagieren und diese nur "kurz" ausgelöst werden (wie ein Impuls).
Mein Tipp: Versuche nochmals Schritt für Schritt alles so einzurichten, wie ich es im ersten Post beschrieben habe.
ich denke nicht, dass es in diesem Fall vom Gerät abhängt (habe ein LG G3), eher von den Einstellungen.
Leider kann ich dir momentan nicht folgen bzw. verstehe nicht, wo dein Problem liegt.
Das dir Tasker in der Benachrichtigungsleiste "Tasker - keine aktiven Profile" anzeigt ist eig. auch richtig, da die Profile auf Events reagieren und diese nur "kurz" ausgelöst werden (wie ein Impuls).
Mein Tipp: Versuche nochmals Schritt für Schritt alles so einzurichten, wie ich es im ersten Post beschrieben habe.
Gruß
Mathias
Mathias