News

OpenAI verschiebt Einführung des „Voice Mode“ auf Juli

OpenAI, der Hersteller von ChatGPT, hat angekündigt, die Einführung der neuen „Voice Mode“-Funktion um einen Monat auf Juli zu verschieben. Ursprünglich sollte das realistische Sprachkonversationserlebnis Ende Juni für eine kleine Gruppe von ChatGPT Plus-Nutzer:innen bereitgestellt werden. Technische Probleme führten jedoch zu dieser Verzögerung.

Gründe für die Verzögerung

OpenAI erklärte, dass zusätzliche Zeit benötigt wird, um den Launch-Standard zu erreichen. Ein Schwerpunkt liegt dabei auf der Verbesserung der Fähigkeit des Modells, bestimmte Inhalte zu erkennen und abzulehnen. Zudem wird an der Verbesserung der Benutzererfahrung gearbeitet und die Infrastruktur vorbereitet, um Millionen von Nutzer:innen in Echtzeit bedienen zu können.

„Wir verbessern beispielsweise die Fähigkeit des Modells, bestimmte Inhalte zu erkennen und abzulehnen. Wir arbeiten auch daran, die Benutzererfahrung zu verbessern und unsere Infrastruktur darauf vorzubereiten, Millionen von Nutzern in Echtzeit zu bedienen,“ erklärte OpenAI in einem Beitrag auf der Social-Media-Plattform X.

Stufenweise Einführung und zukünftige Funktionen

Die Funktion wird zunächst einer kleinen Gruppe von Nutzer:innen zur Verfügung gestellt, um Feedback zu sammeln. Geplant ist, die Funktion im Herbst allen Plus-Nutzer:innen nach Sicherheits- und Zuverlässigkeitsprüfungen zugänglich zu machen.

Darüber hinaus arbeitet OpenAI an neuen Video- und Bildschirmfreigabefunktionen. Im Mai kündigte das Unternehmen die Veröffentlichung eines neuen KI-Modells namens GPT-4o an, das realistische Sprachkonversationen ermöglichen und sowohl Text- als auch Bildinteraktionen beherrschen soll. Dies ist Teil der Bemühungen, im Wettlauf um die Vorherrschaft in der aufstrebenden KI-Technologie an der Spitze zu bleiben.

Verbesserte Audiofunktionen

Die neuen Audiofunktionen sollen es den Nutzer:innen ermöglichen, in Echtzeit mit ChatGPT zu sprechen und sofortige Antworten zu erhalten. Zudem wird es möglich sein, ChatGPT zu unterbrechen, während es spricht – ein Merkmal realistischer Konversationen, das für KI-Sprachassistenten bisher eine Herausforderung darstellte.

Quelle: Reuters
Titelbild: KI (Dall-e)

Michael Reimann

Neueste Artikel

Microsoft Majorana 1: Neuer Quantenchip für die Zukunft

Microsoft hat mit dem Majorana 1 einen neuen Quantenchip präsentiert, der die Entwicklung von Quantencomputern maßgeblich vorantreiben soll. (mehr …)

22. Februar 2025

iPhone 16e: Verkaufsstart mit sofortigem iOS-Update

Apple bringt das neue Apple, iPhone 16e, iOS 18.3.1, Apple C1, A18-Chip, Fusion-Kamera, Satelliten-Features, Datenschutz, Verkaufsstart auf den Markt –…

22. Februar 2025

HP übernimmt Humane: Das Ende des Ai Pin

Die Übernahme des KI-Start-ups Humane durch HP sorgt für Schlagzeilen. Gleichzeitig markiert sie das endgültige Aus für den ambitionierten, aber…

22. Februar 2025

iOS 18.4 Beta 1 ist da – mit Apple Intelligence in der EU

Apple hat ungewöhnlicherweise am Freitagabend iOS 18.4 Beta 1, macOS 15.4 und weitere veröffentlicht. Die Betas enthalten das erste mal…

21. Februar 2025

Apple: C1-Modem nicht verantwortlich für das Fehlen von MagSafe im iPhone 16e

Das kürzlich veröffentlichte iPhone 16e hat einige beeindruckende Neuerungen zu bieten – nicht zuletzt das selbst entwickelte C1-Modem für 5G. Allerdings sorgte das Fehlen von…

21. Februar 2025

Visual Intelligence: Apples KI-Feature kommt aufs iPhone 15 Pro

Apple bringt mit einem kommenden Update die Visual Intelligence-Funktion – bisher exklusiv für die iPhone 16-Serie – nun auch auf das ältere iPhone 15…

21. Februar 2025

Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.

Mehr lesen