News

OpenAI führt erweiterten Sprachmodus für ChatGPT ein

OpenAI hat bekannt gegeben, dass der erweiterte Sprachmodus nun für eine kleine Anzahl von zahlenden ChatGPT-Nutzer:innen verfügbar ist. Diese können die neuen, natürlicheren und in Echtzeit geführten Konversationen testen.

Echtzeit-Interaktionen und verbesserte Sprachqualität

Der erweiterte Sprachmodus ermöglicht es ChatGPT, in Echtzeit zu antworten und auch Unterbrechungen zu erkennen. Zudem kann das Modell auf Humor, Sarkasmus und andere subtile Nuancen in der Sprache reagieren. Im Gegensatz zum bisherigen Sprachmodus muss die gesprochene Sprache nicht erst in Text umgewandelt und dann wieder zurückübersetzt werden. Dies führt zu einer geringeren Latenz bei den Interaktionen.

OpenAI hat den erweiterten Sprachmodus erstmals im Mai vorgestellt und dabei eine AI-Stimme namens Sky gezeigt, die der Schauspielerin Scarlett Johansson auffallend ähnlich klang. Diese Stimme wurde ohne Johanssons Erlaubnis erstellt und verwendet, was sie zu einer öffentlichen Stellungnahme veranlasste. Sie äußerte sich schockiert und verärgert über die Tatsache, dass OpenAI-CEO Sam Altman sie mehrfach kontaktiert hatte, um sie als Stimme für ChatGPT zu gewinnen. Johansson lehnte jedoch ab. OpenAI erklärte, dass die Stimme von Sky nicht absichtlich der von Johansson ähneln sollte, entfernte sie aber dennoch, nachdem Johansson rechtliche Schritte eingeleitet hatte.

Sicherheitsmaßnahmen und verbesserte Benutzererfahrung

Seit der Demonstration im Mai hat OpenAI daran gearbeitet, die Sicherheit und Qualität der Sprachgespräche zu verbessern. Der erweiterte Sprachmodus bietet vier voreingestellte Stimmen und verhindert, dass Ausgaben erzeugt werden, die von diesen Stimmen abweichen könnten. Dies soll die Nachahmung von Prominentenstimmen verhindern. OpenAI hat auch Schutzmechanismen implementiert, um Anfragen nach gewalttätigen oder urheberrechtlich geschützten Inhalten zu blockieren. Die ersten Tests sollen dazu dienen, das Feature vor einer breiteren Einführung weiter zu verbessern.

Nutzer:innen, die Zugriff auf den erweiterten Sprachmodus erhalten, werden per E-Mail benachrichtigt. OpenAI plant, diese Funktion schrittweise für mehr Personen verfügbar zu machen. Im Herbst sollen alle Nutzer:innen des Plus-Abonnements Zugriff auf den erweiterten Sprachmodus erhalten.

Quelle: 9To5Mac
Titelbild: OpenAI

Michael Reimann

Neueste Artikel

Apple veröffentlich Werbespot zum M4 – No Sweat

Apple hat in Deutschland den Werbespot zur M4-CPU-Reihe veröffentlicht. Der Spot soll die Leistungsfähigkeit der neuen Apple-Silicon-Chips und insbesondere der…

8. November 2024

Steuerhinterziehung? Durchsuchungen bei Netflix in Paris und Amsterdam

Netflix sieht sich aktuell in Europa mit schwerwiegenden Vorwürfen der Steuerhinterziehung konfrontiert. Am Morgen wurden die Niederlassungen in Paris und…

8. November 2024

Veterans Day 2024: Neue Apple Watch Herausforderung

Am kommenden Montag, dem 11. November, feiert die USA den Veterans Day 2024, einen Ehrentag für die Veteran:innen der Streitkräfte.…

8. November 2024

macOS High Power Mode jetzt für MacBook Pro und Mac mini mit M4 Pro verfügbar

Mit den ersten Reviews der neuen M4-basierten Mac-Modelle, darunter Mac mini, iMac und MacBook Pro, gibt es interessante Neuigkeiten zum…

8. November 2024

Bericht: Verzögerung für OLED-MacBook Air

Apples Pläne für ein OLED-MacBook Air könnten sich laut einem neuen Bericht des koreanischen Magazins The Elec weiter verzögern. Ursprünglich sollte das…

7. November 2024

Durchschnittspreis für iPhones knackt 1.000 Dollar

Der Durchschnittspreis eines iPhones in den USA hat erstmals die Marke von 1.000 Dollar überschritten. (mehr …)

7. November 2024

Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.

Mehr lesen