Siri verfügt über einen sensiblen Modus, sollte die erste Erkennung nicht erfolgreich sein
Vor einigen Wochen hat Apple sein Machine Learning Journal ins Leben gerufen, in dem die hauseigenen Forscher und Entwickler ihre Ergebnisse veröffentlichen können. Seither hat der Blog immer wieder interessante Details zu Apples Technologien hervorgebracht. So geschehen auch nun wieder. In einem neuen Beitrag erhält man einen Einblick, wie Hardware, Software und Onlinedienste zusammenarbeiten, um "Hey Siri" auf den aktuellen iPhones und iPads möglich zu machen. Bereits bekannt ist dabei, dass eine spezielle Einheit in Apples Motion Co-Prozessor die ganze Zeit über aktiv ist, um auf die magischen Worte "Hey Siri" zu lauschen. Werden diese erkannt, reagiert Siri auf die anschließend ausgesprochenen Befehle.
Dabei kommt ein Netzwerk für künstliche Intelligenz zum Einsatz, welches die gesprochenen Worte auf zuvor gespeicherte Sprach- und Stimmmuster analysiert, um einschätzen zu können, ob diese auch tatsächlich vom Besitzer des jeweiligen Geräts stammen. Ist dies der Fall und handelt es sich bei den gesprochenen Worten auch tatsächlich um "Hey Siri", wacht Apples persönlicher Sprachassistent auf und beantwortet die gestellten Anfragen.
Ist dies nicht der Fall, aber dennoch eine gewisse Wahrscheinlichkeit gegeben, dass es sich um den Besitzer und die magischen Worte handelt, schaltet das Gerät kurzzeitig in einen sensibleren Modus um, um bei einer erneuten Anfrage noch genauer analysieren zu können. Für eine hohe Trefferwahrscheinlichkeit bietet Apple dem Nutzer ein Training von Siri an, bei dem fünf vorgegebene Sätze ausgesprochen werden sollen, die allesamt mit "Hey Siri" beginnen. Diese Beispielsätze bleiben auf dem Gerät gespeichert und werden von Siri bei Bedarf zurate gezogen. Hiermit verringert Apple die Wahrscheinlichkeit, dass Siri auch von einem Fremden gestartet werden kann oder ähnlich klingende Worte Siri aufwecken könnten.
Die technischen Hintergründe des gesamten Prozesses sind durchaus interessant und können in Apples Machine Learning Journal nachgelesen werden.
Kommentare
Ansicht der Kommentare: Linear | Verschachtelt
Christoph am :
WGS am :
Es gibt unter der menschlichen Spezies viele Artgenossen, die auch kurz zuh\366ren, keine Ahnung haben und dann ungefragt ihren Senf abgeben.
Diese Unart auszumerzen haben schon Generationen vor uns versucht und sind kl\344glich gescheitert - Apple wird das auch nicht umdrehen k\366nnen.
Watishierlos am :
Tom am :
XT2- KF am :
samet am :
Andrew am :
Ulf am :
Hinzu kommt, dass sogar der beste Assistent (Google) weniger Intelligenz hat als ein 6j\344hriger Mensch.
Fragt man sich, warum man statt Siri etc. nicht gleich die 6j\344hrige Tochter befragt....
Bernd das B. am :
Die gleiche Anfrage bei Google bringt mich sofort zum Ergebnis!!!
Das Projekt Siri hat Apple eindeutig verpennt!
Mit FaceID 2 Jahre voraus, aber mit Siri 5 Jahre hinterher.
Tom am :
Anonym am :