Vor kurzem stellten wir euch das neue Machine Learning Journal von Apple vor. In dem neuen Blog sollten Entwickler von Apple von ihren Erfahrungen rund um das Thema berichten. Nach dem ersten Artikel wurde es etwas still, jetzt gibt es drei neue Artikel.
Apples Sprachassistent Siri befindet sich in permanentem Wandel. Trotz der häufigen, auch von uns geäußerten, Kritik hat sich seit der Veröffentlichung einiges getan. Die Anfragen an Siri werden nicht auf eurem iPhone, sondern auf dem Server verarbeitet. So kann sich Siri auch ohne geräteseitige Updates permanent weiterentwickeln.
In den neuen Artikeln des Machine Learning Journals widmet sich Apple ausschließlich dem Thema Siri. Leider liegen die Artikel nach wie vor nur in englischer Sprache vor und sind äußerst komplex.
Machine Learning Journal – Siri Artikel im Detail
Der Artikel „Improving Neural Network Acoustic Models by Cross-bandwidth and Cross-lingual Initialization“ befasst sich mit dem Thema Optimierung und Komprimierung. Siri soll selbst bei sehr schlechter Netzverbindung funktionieren, hierfür werden effiziente Komprimierungsverfahren eingesetzt. Zudem befasst sich der Artikel mit dem Umgang von Hintergrundgeräuschen bzw. generell der Akkustik bei der Aufnahme.
Der Artikel „Inverse Text Normalization as a Labeling Problem“ handelt von den Problemen in Bezug auf besondere Formate wie Daten, Zeiten und Adressen. Dabei nutzt die Engine die inverse Text Normalisierung – hier werden die Atempausen bzw. die Betonung des Nutzers genutzt um diese Formate zu erkennen.
Zuletzt befasst sich der Beitrag „Deep Learning for Siri’s Voice: On-device Deep Mixture Density Networks for Hybrid Unit Selection Synthesis“ mit dem Thema Aussprache. Siri soll in Zukunft mehrere Aussprachen des selben Wortes in unterschiedlichen Kontexten beherrschen. Dadurch soll der Assistent natürlicher wirken.