Apples kommende KI-Funktionen sorgen für Aufsehen, insbesondere nach der jüngsten Entdeckung von Apple Intelligence-Prompts im macOS-Beta. Besonders auffällig ist dabei die Anweisung an die Smart Reply-Funktion, keine „Halluzinationen“ zu erzeugen – ein Begriff, der in der KI für die Generierung falscher Informationen steht.
Die Smart Reply-Funktion von Apple soll die Beantwortung von E-Mails vereinfachen, indem sie eingehende Nachrichten auf Fragen analysiert und passende Antwortvorschläge macht. Apple beschreibt diese Funktion als eine Möglichkeit, mit Hilfe von KI Fragen in einer E-Mail zu identifizieren und relevante Antwortoptionen bereitzustellen. Dadurch können Nutzer:innen schnell E-Mails verfassen und sicherstellen, dass alle wichtigen Details mit minimalem Aufwand enthalten sind.
Generative KI-Systeme, wie die hinter Smart Reply, arbeiten basierend auf einer Reihe vordefinierter Anweisungen, den sogenannten Prompts. Diese können entweder vom Nutzer generiert oder vom Entwickler voreingestellt sein. Ein Reddit-Nutzer, devanxd2000, entdeckte eine Reihe von JSON-Dateien im macOS 15.1-Beta, die vermutlich die internen Prompts von Apple für Smart Reply enthalten. Diese Anweisungen leiten die KI dazu an:
Besonders interessant ist Apples explizite Anweisung an die KI, keine Halluzinationen zu erzeugen: „Nicht halluzinieren. Keine faktischen Informationen erfinden.“ Diese Anweisung zielt darauf ab, ein häufiges Problem in KI-generierten Inhalten zu vermeiden, bei dem das System möglicherweise ungenaue oder komplett erfundene Informationen produziert.
Während die Anweisung, keine Halluzinationen zu erzeugen, einfach erscheint, unterstreicht sie eine bedeutende Herausforderung in der Entwicklung von generativer KI. Diese Systeme verstehen die Inhalte, die sie generieren, nicht von Natur aus, was es schwierig macht, die Genauigkeit zu garantieren. Apples klare Anweisung, keine falschen Informationen zu erzeugen, zeigt, dass das Unternehmen sich der potenziellen Prüfung ihrer KI-Ausgaben bewusst ist.
Apples vorsichtiger Ansatz zeigt das Engagement des Unternehmens, sicherzustellen, dass KI-generierte Inhalte zuverlässig und vertrauenswürdig sind. Durch das Einbetten dieser spezifischen Prompts versucht Apple, Risiken im Zusammenhang mit KI-Ausgaben zu minimieren, während es gleichzeitig fortschrittliche KI-Funktionen in seine Produkte integriert.
Während Apple weiterhin seine KI-Fähigkeiten entwickelt und verfeinert, wird der Schwerpunkt des Unternehmens auf Genauigkeit und Zuverlässigkeit voraussichtlich die zukünftigen KI-gesteuerten Funktionen prägen. Die Entdeckung dieser eingebauten Prompts bietet einen Einblick, wie Apple die Herausforderungen der generativen KI angeht, indem es Innovationen mit der Notwendigkeit verantwortungsvoller Technologieeinsätze in Einklang bringt.
Quelle: 9To5Mac
Apple startet sein Shopping-Event am 29. November. Kauft man ein qualifiziertes Produkt erhält man vom Konzern bis zu 200 Euro…
Die indonesische Regierung wird am Donnerstag über ein 100-Millionen-Dollar-Investitionsangebot von Apple beraten. Dieses Angebot ist Teil des Versuchs, das Verkaufsverbot…
Die dritte Public Beta von iOS 18.2 ist jetzt verfügbar und bringt kleinere Verbesserungen, Bugfixes und Performance-Optimierungen. Mit der Veröffentlichung…
Im Mai 2023 führte Apple mit den sogenannten "Schnellen Sicherheitsmaßnahmen" (englisch: Rapid Security Responses) eine neue Methode ein, um Sicherheitslücken…
Shazam, die beliebte Musikerkennungs-App von Apple, hat einen beeindruckenden Rekord erreicht: Über 100 Milliarden Songs wurden seit der Einführung des…
Apple steht vor einer entscheidenden Anhörung, bei der das Unternehmen versuchen wird, einen US-Monopolprozess gegen sich abzuwehren. Der Fall, eingereicht…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen