News

OpenAI führt erweiterten Sprachmodus für ChatGPT ein

OpenAI hat bekannt gegeben, dass der erweiterte Sprachmodus nun für eine kleine Anzahl von zahlenden ChatGPT-Nutzer:innen verfügbar ist. Diese können die neuen, natürlicheren und in Echtzeit geführten Konversationen testen.

Echtzeit-Interaktionen und verbesserte Sprachqualität

Der erweiterte Sprachmodus ermöglicht es ChatGPT, in Echtzeit zu antworten und auch Unterbrechungen zu erkennen. Zudem kann das Modell auf Humor, Sarkasmus und andere subtile Nuancen in der Sprache reagieren. Im Gegensatz zum bisherigen Sprachmodus muss die gesprochene Sprache nicht erst in Text umgewandelt und dann wieder zurückübersetzt werden. Dies führt zu einer geringeren Latenz bei den Interaktionen.

OpenAI hat den erweiterten Sprachmodus erstmals im Mai vorgestellt und dabei eine AI-Stimme namens Sky gezeigt, die der Schauspielerin Scarlett Johansson auffallend ähnlich klang. Diese Stimme wurde ohne Johanssons Erlaubnis erstellt und verwendet, was sie zu einer öffentlichen Stellungnahme veranlasste. Sie äußerte sich schockiert und verärgert über die Tatsache, dass OpenAI-CEO Sam Altman sie mehrfach kontaktiert hatte, um sie als Stimme für ChatGPT zu gewinnen. Johansson lehnte jedoch ab. OpenAI erklärte, dass die Stimme von Sky nicht absichtlich der von Johansson ähneln sollte, entfernte sie aber dennoch, nachdem Johansson rechtliche Schritte eingeleitet hatte.

Sicherheitsmaßnahmen und verbesserte Benutzererfahrung

Seit der Demonstration im Mai hat OpenAI daran gearbeitet, die Sicherheit und Qualität der Sprachgespräche zu verbessern. Der erweiterte Sprachmodus bietet vier voreingestellte Stimmen und verhindert, dass Ausgaben erzeugt werden, die von diesen Stimmen abweichen könnten. Dies soll die Nachahmung von Prominentenstimmen verhindern. OpenAI hat auch Schutzmechanismen implementiert, um Anfragen nach gewalttätigen oder urheberrechtlich geschützten Inhalten zu blockieren. Die ersten Tests sollen dazu dienen, das Feature vor einer breiteren Einführung weiter zu verbessern.

Nutzer:innen, die Zugriff auf den erweiterten Sprachmodus erhalten, werden per E-Mail benachrichtigt. OpenAI plant, diese Funktion schrittweise für mehr Personen verfügbar zu machen. Im Herbst sollen alle Nutzer:innen des Plus-Abonnements Zugriff auf den erweiterten Sprachmodus erhalten.

Quelle: 9To5Mac
Titelbild: OpenAI

Michael Reimann

Neueste Artikel

iPhone 16: Neue Farben und überarbeitete Kamera geleakt

Gerüchten zufolge wird das iPhone 16 mit einem überarbeiteten Kamera-Design aufwarten, das vertikal ausgerichtete Linsen aufweist. Nun zeigt ein neues…

31. Juli 2024

Apple setzt auf Google Tensor Chips für Apple Intelligence Entwicklung

Apple sich für die Verwendung von Google entwickelten Tensor Processing Units (TPUs) entschieden, um wichtige Komponenten seiner Apple Intelligence Plattform…

30. Juli 2024

MacPro 4.1 aufgerüstet für 2024 -Teil 1

Michi hat ein neues Projekt. Er rüstet einen MacPro 4.1 auf für 2024. Was dabei alles passiert zeigen wir in…

30. Juli 2024

So geht’s: Apple Intelligence am Mac testen auch in der EU

Mit der Beta von macOS 15.1 hat Apple auch die erste Version seines KI-Systems Apple Intelligence veröffentlicht. Mit ein paar…

30. Juli 2024

macOS Sonoma 14.6: Zwei externe Displays für MBP14

Apple hat die finale Version von macOS Sonoma 14.6 veröffentlicht, die eine wichtige Funktionsverbesserung für Besitzer des 14 Zoll MacBook…

30. Juli 2024

Apple veröffentlicht iOS 18.1 Developer Beta in der EU ohne Apple Intelligence

Apple hat am Montag die iOS 18.1 Developer Beta veröffentlicht. Diese bietet Zugang zur Warteliste für Apple Intelligence. Leider nicht…

30. Juli 2024

Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.

Mehr lesen