OpenAI hat bekannt gegeben, dass der erweiterte Sprachmodus nun für eine kleine Anzahl von zahlenden ChatGPT-Nutzer:innen verfügbar ist. Diese können die neuen, natürlicheren und in Echtzeit geführten Konversationen testen.
Der erweiterte Sprachmodus ermöglicht es ChatGPT, in Echtzeit zu antworten und auch Unterbrechungen zu erkennen. Zudem kann das Modell auf Humor, Sarkasmus und andere subtile Nuancen in der Sprache reagieren. Im Gegensatz zum bisherigen Sprachmodus muss die gesprochene Sprache nicht erst in Text umgewandelt und dann wieder zurückübersetzt werden. Dies führt zu einer geringeren Latenz bei den Interaktionen.
OpenAI hat den erweiterten Sprachmodus erstmals im Mai vorgestellt und dabei eine AI-Stimme namens Sky gezeigt, die der Schauspielerin Scarlett Johansson auffallend ähnlich klang. Diese Stimme wurde ohne Johanssons Erlaubnis erstellt und verwendet, was sie zu einer öffentlichen Stellungnahme veranlasste. Sie äußerte sich schockiert und verärgert über die Tatsache, dass OpenAI-CEO Sam Altman sie mehrfach kontaktiert hatte, um sie als Stimme für ChatGPT zu gewinnen. Johansson lehnte jedoch ab. OpenAI erklärte, dass die Stimme von Sky nicht absichtlich der von Johansson ähneln sollte, entfernte sie aber dennoch, nachdem Johansson rechtliche Schritte eingeleitet hatte.
Seit der Demonstration im Mai hat OpenAI daran gearbeitet, die Sicherheit und Qualität der Sprachgespräche zu verbessern. Der erweiterte Sprachmodus bietet vier voreingestellte Stimmen und verhindert, dass Ausgaben erzeugt werden, die von diesen Stimmen abweichen könnten. Dies soll die Nachahmung von Prominentenstimmen verhindern. OpenAI hat auch Schutzmechanismen implementiert, um Anfragen nach gewalttätigen oder urheberrechtlich geschützten Inhalten zu blockieren. Die ersten Tests sollen dazu dienen, das Feature vor einer breiteren Einführung weiter zu verbessern.
Nutzer:innen, die Zugriff auf den erweiterten Sprachmodus erhalten, werden per E-Mail benachrichtigt. OpenAI plant, diese Funktion schrittweise für mehr Personen verfügbar zu machen. Im Herbst sollen alle Nutzer:innen des Plus-Abonnements Zugriff auf den erweiterten Sprachmodus erhalten.
Quelle: 9To5Mac
Titelbild: OpenAI
Gerüchten zufolge wird das iPhone 16 mit einem überarbeiteten Kamera-Design aufwarten, das vertikal ausgerichtete Linsen aufweist. Nun zeigt ein neues…
Apple sich für die Verwendung von Google entwickelten Tensor Processing Units (TPUs) entschieden, um wichtige Komponenten seiner Apple Intelligence Plattform…
Michi hat ein neues Projekt. Er rüstet einen MacPro 4.1 auf für 2024. Was dabei alles passiert zeigen wir in…
Mit der Beta von macOS 15.1 hat Apple auch die erste Version seines KI-Systems Apple Intelligence veröffentlicht. Mit ein paar…
Apple hat die finale Version von macOS Sonoma 14.6 veröffentlicht, die eine wichtige Funktionsverbesserung für Besitzer des 14 Zoll MacBook…
Apple hat am Montag die iOS 18.1 Developer Beta veröffentlicht. Diese bietet Zugang zur Warteliste für Apple Intelligence. Leider nicht…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen