• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Der Frühling lässt den Schnee schmelzen, die Vögel jubilieren und die Sonne sorgt in wenigen Tagen auch noch dafür, das Grün endlich wieder draußen zur vorherrschenden Farbe wird. Wir freuen uns über diese wunderbaren Veränderungen und hoffen, sie feuern Eure Kreativität so richtig an!. Hier geht es lang --> Klick

Fehlerhafte Apple-Intelligence-Zusammenfassung wirft Fragen zur KI-Genauigkeit auf

Apfeltalk Redaktion

Redakteur
AT Redaktion
Registriert
15.06.24
Beiträge
27.157
Geschrieben von: Michael Reimann
Apple Intelligence Fehler

Apple Intelligence, die KI-gestützte Benachrichtigungsfunktion, sorgt erneut für Diskussionen. Ein Vorfall in Großbritannien zeigt Schwächen in der Genauigkeit der Textzusammenfassungen. Die Technologie, die entwickelt wurde, um Nutzer:innen kurze und präzise Informationen zu liefern, hat in diesem Fall eine BBC-Schlagzeile falsch interpretiert und damit die Glaubwürdigkeit der KI infrage gestellt.

Fehlinterpretation eines BBC-Artikels​


In der jüngsten Diskussion geht es um eine Benachrichtigung, die einen Artikel der BBC über den UnitedHealthcare-Shooting-Verdächtigen Luigi Mangione zusammenfasste. Die AI-generierte Meldung behauptete fälschlicherweise, dass Mangione sich selbst erschossen habe, was nicht den Fakten entsprach.

Der Fehler führte dazu, dass die BBC Apple kontaktierte, um die Angelegenheit zu klären und auf die Problematik hinzuweisen. Während andere Teile der Zusammenfassung korrekt waren, zeigt dieser Vorfall die Herausforderungen, denen Apple Intelligence beim Verstehen von Kontext und Nuancen begegnet. Solche Fehler könnten Nutzer:innen in die Irre führen und das Vertrauen in Nachrichtenquellen beeinträchtigen.

Wiederholte Probleme bei Apple Intelligence​


Die Problematik bei der Zusammenfassung der BBC-Meldung ist nicht der erste Fehler, der bei Apple Intelligence auffällt. Frühere Beispiele umfassen eine Fehldeutung eines Kommentars wie „Die Wanderung hat mich fast umgebracht“ als „versuchter Selbstmord“ oder die Fehlinterpretation einer Ring-Kamera-Benachrichtigung als ernsthafte Sicherheitsgefahr.

Diese Vorfälle verdeutlichen die Grenzen der natürlichen Sprachverarbeitung (Natural Language Processing, NLP). Insbesondere bei komplexen oder sensiblen Inhalten fehlt es der Technologie noch an Präzision.

Einstellungsmöglichkeiten für Nutzer:innen​


Falls Du die Apple-Intelligence-Benachrichtigungen als unzuverlässig empfindest, kannst Du die Funktion anpassen oder deaktivieren. Gehe dazu wie folgt vor:

  1. Öffne die Einstellungen auf Deinem iPhone.
  2. Wähle Mitteilungen.
  3. Gehe zu Mitteilungen zusammenfassen, um Apps zu verwalten oder die Funktion komplett abzuschalten.

Apple Intelligence ist derzeit noch nicht in der EU verfügbar. Apple hat bestätigt, dass das KI-System im April auch nach Deutschland kommt und in deutscher Sprache verfügbar ist.

Herausforderungen und Potenziale für die Zukunft​


Apple positioniert Intelligence als Schlüsseltechnologie für eine effizientere Informationsverarbeitung. Doch Vorfälle wie diese zeigen den Verbesserungsbedarf deutlich. Eine stärkere Kontextanalyse und verbesserte Validierungsprozesse könnten künftige Fehler reduzieren.

Apple steht vor der Aufgabe, das Vertrauen in seine KI zu stärken. Trotz der aktuellen Kritik bleibt das Potenzial der Technologie enorm. Mit gezielten Verbesserungen kann Apple Intelligence zu einem zuverlässigen Tool werden, das Nutzer:innen tatsächlich unterstützt.

Via: The Verge / BBC
Bild: BBC

Im Magazin lesen....
 

James Atlick

Finkenwerder Herbstprinz
Registriert
05.05.09
Beiträge
469
Fragen zur Ki-Genauigkeit
Tja, es ist eben keine Ki, sondern ein LLM.
Ein Plappermodell.
Plappermodelle machen eben genau das: sie plappern.
Geliefert wie bestellt.

So gesehen ist das Resultat keine Überraschung. Im Gegenteil, es wäre seltsam, wenn es nicht so wäre.
 

Marcel Bresink

Geflammter Kardinal
Registriert
28.05.04
Beiträge
9.156
Solche Fehler könnten Nutzer:innen in die Irre führen
Das Problem ist, dass dies aus Sicht der hier verwendeten Technik überhaupt kein Fehler ist.

Hier kommt weder klassische KI, noch Natürliche Sprachverarbeitung zum Einsatz, sondern der Nebenzweig "Maschinelles Lernen in Großen Sprachmodellen". Diese Technik kann kein richtig oder falsch erkennen. Sie kann es noch nicht einmal versuchen, weil sie weder die Fragestellung noch die eigene Antwort versteht, sondern nur eine Ausgabe erzeugt, die im Rahmen der beobachteten Sprachverwendung als wahrscheinlich erscheint. Zur Prüfung des Wahrheitsgehalts bräuchte man altmodische KI, und die ist in den letzten 70 Jahren nicht besonders weit gekommen.

Apple Intelligence ist derzeit noch nicht in der EU verfügbar.
Das stimmt nicht. Auf den Macs ist Apple Intelligence ab macOS 15.2 in einer Beta-Version verfügbar. Wie vorgesehen ist dies jedoch auf englische Sprachverarbeitung beschränkt.

Aber an der unnatürlich schwafelnden Sprache kann man erkennen, dass auch dieser Artikel wieder mal per KI geschrieben wurde. Dann ist klar, dass man dem Inhalt nicht trauen kann.
 

James Atlick

Finkenwerder Herbstprinz
Registriert
05.05.09
Beiträge
469
Hier kommt weder klassische KI, noch Natürliche Sprachverarbeitung zum Einsatz, sondern der Nebenzweig "Maschinelles Lernen in Großen Sprachmodellen". Diese Technik kann kein richtig oder falsch erkennen. Sie kann es noch nicht einmal versuchen, weil sie weder die Fragestellung noch die eigene Antwort versteht, sondern nur eine Ausgabe erzeugt, die im Rahmen der beobachteten Sprachverwendung als wahrscheinlich erscheint. Ein Plappermodell eben! Zur Prüfung des Wahrheitsgehalts bräuchte man altmodische KI, und die ist in den letzten 70 Jahren nicht besonders weit gekommen.
Besser hätte ich es nicht ausdrücken können. Danke dir, den Text speichere ich mir für Diskussionen.
Aber an der unnatürlich schwafelnden Sprache kann man erkennen, dass auch dieser Artikel wieder mal per KI geschrieben wurde. Dann ist klar, dass man dem Inhalt nicht trauen kann.
Das finde ich persönlich sehr bedenklich. Dieser Artikel wurde wegen LLM unnötig aufgebläht, liest sich scheisse und ist dann auch noch faktisch falsch.
Das Journalisten und Outlets nicht verstehen können, wie sowas ihnen mehr schadet als nützt, ist mir ein Rätsel.

Würden Journalisten deinen oberen Absatz verstehen, wäre ihnen auch klar, warum Ki ein völlig ungeeignetes Tool für sie ist.
 

Salud

Golden Noble
Registriert
25.06.07
Beiträge
15.980
Aber an der unnatürlich schwafelnden Sprache kann man erkennen, dass auch dieser Artikel wieder mal per KI geschrieben wurde. Dann ist klar, dass man dem Inhalt nicht trauen kann.
So schaut’s aus.
Würden Journalisten deinen oberen Absatz verstehen, wäre ihnen auch klar, warum Ki ein völlig ungeeignetes Tool für sie ist.
Unabhängig davon, ob es so gemeint war von Marcel oder nicht, stimmt es. Einen Artikel schreibt man einfach selbst.

Vor allem die letzten Absätze der Artikel mit Ausblick, Erwartungen, Herausforderungen, Potenzial, dazu immer diese ganzen Konjunktive.
 
Zuletzt bearbeitet: