Das Verstehen unserer Sprache ist für Google Assistant und Co. eine schwierige Sache. Auch deshalb, weil es bei uns sehr viele unterschiedliche Dialekte gibt. Mit einer neuen Funktion soll es für Google Assistant besser bzw. leichter werden, die Nutzer verstehen zu können. Dafür ist die „Personalized speech recognition“ unterwegs, wie jetzt erneut durch ein Teardown einer Google-App entdeckt werden konnte.
Google analysiert die Sprache der Nutzer noch detaillreicher
Die personalisierte Erkennung unserer Sprache wird dadurch besser, weil Google Assistant unsere Spracheingabe aufzeichnet und detailliert analysiert. So können Eigenheiten erkannt und für die Spracheingabe übernommen werden. Was vielleicht auch denen hilft, die unter einem Sprachfehler leiden?
Das sind die Beschreibungen zum neuen Feature:
Speichern Sie Audioaufnahmen auf diesem Gerät, damit Google Assistant besser erkennen kann, was Sie sagen. Audio bleibt auf diesem Gerät und kann jederzeit gelöscht werden, indem die personalisierte Spracherkennung deaktiviert wird.
Es lernt anhand der Sprachdaten das Modell anzupassen und sendet eine Zusammenfassung der Modelländerungen an die Google-Server. Diese Zusammenfassungen werden über viele Benutzer hinweg aggregiert, um ein besseres Modell für alle bereitzustellen.
Unterm Strich kann man sagen, lernt das neue System noch besser und detaillierter unsere Spracheingaben. Es unterstützt die bisherigen Systeme (maschinelles Lernen). Eine Verbesserung ist für die Sprachbefehle zu erwarten, die man häufig verwendet und deshalb vielleicht etwas ungenauer ausspricht.
Es handelt sich sehr wahrscheinlich um ein Opt-in und muss – wenn verfügbar – vom Nutzer gezielt einschaltet werden. Bis dato ist nicht bekannt, wann das neue Feature verfügbar ist oder der Rollout beginnt. Das könnte noch ein paar Wochen oder sogar Monate dauern.
Folge jetzt unserem Newsletter-Kanal bei WhatsApp. Info: *provisionierte Affiliate-Links.