Apple hatte bereits vor der Ankündigung von iOS 17 / iPadOS 17 auf der WWDC, darauf hingewiesen, dass in den neuen Systemen unter anderem die Möglichkeit besteht, die eigene Stimme zu synthetisieren. Das wollen wir ausprobieren.
Das Feature findet sich etwas versteckt in den Bedienhilfen im Bereich „Eigene Stimme“. Apples Betriebssysteme bieten schon seit einiger Zeit viele verschiedene (fertige) Stimmen an. Der Dienst hatte diese immer weiter verbessert. So klingt Siris Stimme inzwischen auch in der deutschen Variante sehr gut verständlich.
Wie ist es aber, wenn man die eigene Stimme synthetisiert? Wir wollten es genauer herausfinden und haben das Ganze auf einem iPad mini ausprobiert. Der Aufwand ist nicht unerheblich, aber in gut 20-30 Minuten zu schaffen. Ein kleiner Wermutstropfen vorweg: In der aktuellen Beta 2 von iPadOS 17 geht die Stimmsynthese nur in Englischer Sprache.
Apple empfiehlt die Aufnahme der eigenen Stimme – die für die Synthese notwendig ist – in einem ruhigen Raum ohne Hintergrundgeräusche durchzuführen. Außerdem sollte man so natürlich wie möglich sprechen. Für das Training einer neuen synthetischen Stimme müssen dann 150 (englischsprachige) Sätze laut vorgelesen werden.
Nach jedem Satz besteht die Möglichkeit, diesen anzuhören und gegebenenfalls erneut aufzunehmen. Die Sätze scheinen wahllos aus dem Internet, der Wikipedia oder anderen Veröffentlichungen gewählt zu sein. Sie sollen offenbar alle möglichen Aussprache-Kombinationen enthalten.
Die Aufnahme der 150 Sätze kann nach jedem Satz unterbrochen und zu einem späteren Zeitpunkt fortgesetzt werden. Nach der Aufnahme generiert das iPad mini über Nacht die synthetische Stimme. Es muss dazu am Strom angeschlossen und gesperrt sein.
Da es sich dann derzeit um eine englische Stimme handelt, kann diese nur mit einer englischen Tastatur verwendet werden, oder wenn das iPad/iPhone insgesamt auf Englisch umgestellt ist. Für einen schnellen Test der generierten Stimme reicht es die englische Tastatur hinzuzufügen und dann die ebenfalls neue Funktion Live-Sprachausgabe durch Dreifachklick auf den Sperrbutton zu aktivieren.
Nun lassen sich dort englische Sätze eingeben (oder rein kopieren), die das System dann mit der neuen eigenen Stimme vorliest. Dieses Beispiel hier ist ein Absatz aus der Wikipedia über Apple, die das System nun mit der Stimme des Autoren vorliest.
Hier die digitale Version von Michael
Hier die echte Stimme von Michael
Über die Qualität der eigenen Stimme kann man sicher noch diskutieren, dennoch zeigt das System wohin die Reise geht. Synthetische Stimmen werden unseren Alltag immer weiter bestimmen. Diese hier kann aber iPad-/iPhone-Nutzer:innen helfen, mit ihrer eignen Stimme zu sprechen, sollte die echte mal verloren gehen.
Die zentrale Sicherheitsdatenbank Common Vulnerabilities and Exposures (CVE) war für kurze Zeit von der Schließung bedroht, da das US-Heimatschutzministerium (DHS) die Finanzierung…
Mit dem Ende des Open-Source-Softwareprojekts Whisky verliert die Mac-Community eine spannende Lösung, um Windows-Spiele auf Apple Silicon-Geräten ohne Portierungslösungen auszuführen. (mehr …)
Am 22. April 2025, dem internationalen Earth Day, lädt Apple erneut zu einer speziellen Apple Watch Herausforderung ein. (mehr …)
Ein mutmaßlich überarbeitetes Stromkabel für ein zukünftiges Apple-Headset mit dem Namen „Vision Air“ ist jetzt erstmals auf neuen Bildern zu…
Apple hat die Liste seiner Vintage-Produkte aktualisiert. Neu hinzugekommen sind der Mac mini 2018 und das iPhone 6s. (mehr …)
Die Apple-Marke Beats hat einen neuen Werbespot veröffentlicht, der die kürzlich eingeführten USB-C-Kabel in den Mittelpunkt stellt. Der Spot ist…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen