News

OpenAI führt erweiterten Sprachmodus für ChatGPT ein

OpenAI hat bekannt gegeben, dass der erweiterte Sprachmodus nun für eine kleine Anzahl von zahlenden ChatGPT-Nutzer:innen verfügbar ist. Diese können die neuen, natürlicheren und in Echtzeit geführten Konversationen testen.

Echtzeit-Interaktionen und verbesserte Sprachqualität

Der erweiterte Sprachmodus ermöglicht es ChatGPT, in Echtzeit zu antworten und auch Unterbrechungen zu erkennen. Zudem kann das Modell auf Humor, Sarkasmus und andere subtile Nuancen in der Sprache reagieren. Im Gegensatz zum bisherigen Sprachmodus muss die gesprochene Sprache nicht erst in Text umgewandelt und dann wieder zurückübersetzt werden. Dies führt zu einer geringeren Latenz bei den Interaktionen.

OpenAI hat den erweiterten Sprachmodus erstmals im Mai vorgestellt und dabei eine AI-Stimme namens Sky gezeigt, die der Schauspielerin Scarlett Johansson auffallend ähnlich klang. Diese Stimme wurde ohne Johanssons Erlaubnis erstellt und verwendet, was sie zu einer öffentlichen Stellungnahme veranlasste. Sie äußerte sich schockiert und verärgert über die Tatsache, dass OpenAI-CEO Sam Altman sie mehrfach kontaktiert hatte, um sie als Stimme für ChatGPT zu gewinnen. Johansson lehnte jedoch ab. OpenAI erklärte, dass die Stimme von Sky nicht absichtlich der von Johansson ähneln sollte, entfernte sie aber dennoch, nachdem Johansson rechtliche Schritte eingeleitet hatte.

Sicherheitsmaßnahmen und verbesserte Benutzererfahrung

Seit der Demonstration im Mai hat OpenAI daran gearbeitet, die Sicherheit und Qualität der Sprachgespräche zu verbessern. Der erweiterte Sprachmodus bietet vier voreingestellte Stimmen und verhindert, dass Ausgaben erzeugt werden, die von diesen Stimmen abweichen könnten. Dies soll die Nachahmung von Prominentenstimmen verhindern. OpenAI hat auch Schutzmechanismen implementiert, um Anfragen nach gewalttätigen oder urheberrechtlich geschützten Inhalten zu blockieren. Die ersten Tests sollen dazu dienen, das Feature vor einer breiteren Einführung weiter zu verbessern.

Nutzer:innen, die Zugriff auf den erweiterten Sprachmodus erhalten, werden per E-Mail benachrichtigt. OpenAI plant, diese Funktion schrittweise für mehr Personen verfügbar zu machen. Im Herbst sollen alle Nutzer:innen des Plus-Abonnements Zugriff auf den erweiterten Sprachmodus erhalten.

Quelle: 9To5Mac
Titelbild: OpenAI

Michael Reimann

Neueste Artikel

Microsoft Majorana 1: Neuer Quantenchip für die Zukunft

Microsoft hat mit dem Majorana 1 einen neuen Quantenchip präsentiert, der die Entwicklung von Quantencomputern maßgeblich vorantreiben soll. (mehr …)

22. Februar 2025

iPhone 16e: Verkaufsstart mit sofortigem iOS-Update

Apple bringt das neue Apple, iPhone 16e, iOS 18.3.1, Apple C1, A18-Chip, Fusion-Kamera, Satelliten-Features, Datenschutz, Verkaufsstart auf den Markt –…

22. Februar 2025

HP übernimmt Humane: Das Ende des Ai Pin

Die Übernahme des KI-Start-ups Humane durch HP sorgt für Schlagzeilen. Gleichzeitig markiert sie das endgültige Aus für den ambitionierten, aber…

22. Februar 2025

iOS 18.4 Beta 1 ist da – mit Apple Intelligence in der EU

Apple hat ungewöhnlicherweise am Freitagabend iOS 18.4 Beta 1, macOS 15.4 und weitere veröffentlicht. Die Betas enthalten das erste mal…

21. Februar 2025

Apple: C1-Modem nicht verantwortlich für das Fehlen von MagSafe im iPhone 16e

Das kürzlich veröffentlichte iPhone 16e hat einige beeindruckende Neuerungen zu bieten – nicht zuletzt das selbst entwickelte C1-Modem für 5G. Allerdings sorgte das Fehlen von…

21. Februar 2025

Visual Intelligence: Apples KI-Feature kommt aufs iPhone 15 Pro

Apple bringt mit einem kommenden Update die Visual Intelligence-Funktion – bisher exklusiv für die iPhone 16-Serie – nun auch auf das ältere iPhone 15…

21. Februar 2025

Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.

Mehr lesen