Apple hatte bereits vor der Ankündigung von iOS 17 / iPadOS 17 auf der WWDC, darauf hingewiesen, dass in den neuen Systemen unter anderem die Möglichkeit besteht, die eigene Stimme zu synthetisieren. Das wollen wir ausprobieren.
Das Feature findet sich etwas versteckt in den Bedienhilfen im Bereich „Eigene Stimme“. Apples Betriebssysteme bieten schon seit einiger Zeit viele verschiedene (fertige) Stimmen an. Der Dienst hatte diese immer weiter verbessert. So klingt Siris Stimme inzwischen auch in der deutschen Variante sehr gut verständlich.
Wie ist es aber, wenn man die eigene Stimme synthetisiert? Wir wollten es genauer herausfinden und haben das Ganze auf einem iPad mini ausprobiert. Der Aufwand ist nicht unerheblich, aber in gut 20-30 Minuten zu schaffen. Ein kleiner Wermutstropfen vorweg: In der aktuellen Beta 2 von iPadOS 17 geht die Stimmsynthese nur in Englischer Sprache.
Apple empfiehlt die Aufnahme der eigenen Stimme – die für die Synthese notwendig ist – in einem ruhigen Raum ohne Hintergrundgeräusche durchzuführen. Außerdem sollte man so natürlich wie möglich sprechen. Für das Training einer neuen synthetischen Stimme müssen dann 150 (englischsprachige) Sätze laut vorgelesen werden.
Nach jedem Satz besteht die Möglichkeit, diesen anzuhören und gegebenenfalls erneut aufzunehmen. Die Sätze scheinen wahllos aus dem Internet, der Wikipedia oder anderen Veröffentlichungen gewählt zu sein. Sie sollen offenbar alle möglichen Aussprache-Kombinationen enthalten.
Die Aufnahme der 150 Sätze kann nach jedem Satz unterbrochen und zu einem späteren Zeitpunkt fortgesetzt werden. Nach der Aufnahme generiert das iPad mini über Nacht die synthetische Stimme. Es muss dazu am Strom angeschlossen und gesperrt sein.
Da es sich dann derzeit um eine englische Stimme handelt, kann diese nur mit einer englischen Tastatur verwendet werden, oder wenn das iPad/iPhone insgesamt auf Englisch umgestellt ist. Für einen schnellen Test der generierten Stimme reicht es die englische Tastatur hinzuzufügen und dann die ebenfalls neue Funktion Live-Sprachausgabe durch Dreifachklick auf den Sperrbutton zu aktivieren.
Nun lassen sich dort englische Sätze eingeben (oder rein kopieren), die das System dann mit der neuen eigenen Stimme vorliest. Dieses Beispiel hier ist ein Absatz aus der Wikipedia über Apple, die das System nun mit der Stimme des Autoren vorliest.
Hier die digitale Version von Michael
Hier die echte Stimme von Michael
Über die Qualität der eigenen Stimme kann man sicher noch diskutieren, dennoch zeigt das System wohin die Reise geht. Synthetische Stimmen werden unseren Alltag immer weiter bestimmen. Diese hier kann aber iPad-/iPhone-Nutzer:innen helfen, mit ihrer eignen Stimme zu sprechen, sollte die echte mal verloren gehen.
Apple arbeitet laut einem Bericht von Bloomberg-Analyst Mark Gurman an mehreren neuen Apple-Watch-Modellen mit integrierten Kameras, die bis 2027 auf…
Die Gerüchte um eine Apple Watch SE mit einem Gehäuse aus Plastik sind laut einem neuen Bericht von Mark Gurman…
Apple wird nächstes Jahr mit den iPhone-18-Modellen den Sprung zur fortschrittlichen 2nm-Chiptechnologie machen, wie der bekannte Analyst Ming-Chi Kuo berichtet. Nach der Einführung der…
Der Mac Pro bleibt Apples letzter Mac ohne ein M4-Chip-Upgrade. Während die Gerüchteküche brodelt, bleibt unklar, wie Apple das Update…
Netflix entwickelt eine überarbeitete Strategie für seinen noch jungen Gaming-Bereich. Nach dem kürzlichen Führungswechsel übernimmt Alain Tascan, ehemals bei Epic…
Anthropic hat ein Update für seinen KI-Chatbot Claude veröffentlicht. Nutzer:innen können Claude jetzt mit der Suche nach aktuellen Informationen im Internet beauftragen.…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen