Die Organisation „Reporter ohne Grenzen“ (RSF) fordert Apple auf, die Zusammenfassungsfunktion seiner Apple-Intelligence-KI zu entfernen. Der Aufruf kommt nach einem Vorfall, bei dem die KI fälschlicherweise behauptete, Luigi Mangione, ein Manager habe Suizid begangen. Der Vorfall hat weltweit für Kritik und Debatten über die Zuverlässigkeit generativer KI gesorgt.
Luigi Mangione: Ein folgenschwerer Fehler
Die Kontroverse begann, als die BBC eine Nachricht zu einem Mordfall veröffentlichte. Dabei behauptete Apple Intelligence in einer automatisch generierten Zusammenfassung, der Verdächtige habe sich selbst erschossen. Tatsächlich hatte der Verdächtige den CEO von United HealthGroup getötet. Die BBC beschwerte sich umgehend bei Apple und betonte, dass die Glaubwürdigkeit ihres Netzwerks durch solche Fehler gefährdet werde.
Ein Sprecher der BBC erklärte, es sei essenziell, dass ihre Berichterstattung Vertrauen genieße – und das gelte auch für die Verwendung ihrer Inhalte in Drittplattformen. Apple hat bisher keine Stellungnahme zu diesem Vorfall abgegeben.
RSF fordert radikale Maßnahmen
„Reporter ohne Grenzen“ kritisiert die Zusammenfassungsfunktion scharf. In einer offiziellen Stellungnahme betont die Organisation, dass KI-gestützte Systeme aktuell noch nicht ausgereift genug seien, um verlässliche Informationen zu generieren. RSF warnt davor, dass der Einsatz solcher Funktionen die Glaubwürdigkeit der Medien gefährde und das Recht der Öffentlichkeit auf zuverlässige Informationen verletze.
Vincent Berthier, Technologie-Leiter von RSF, sagte dazu:
„KIs sind Wahrscheinlichkeitsmaschinen, und Fakten können nicht durch Würfeln entschieden werden. Wir fordern Apple auf, verantwortungsvoll zu handeln und diese Funktion zu entfernen. Die automatische Produktion von Falschinformationen, die einem Medienunternehmen zugeschrieben werden, ist ein Schlag für dessen Glaubwürdigkeit und gefährdet das Recht der Öffentlichkeit auf zuverlässige Nachrichten.“
Die Risiken generativer KI
Der Vorfall verdeutlicht die Risiken beim Einsatz generativer KI in sensiblen Bereichen wie Nachrichten. Automatische Zusammenfassungen können zwar praktisch sein, bergen jedoch erhebliche Gefahren, wenn sie ungenaue oder irreführende Inhalte erstellen.
Während Apple seine KI-Technologien weiterhin ausbaut, zeigt dieser Fall, dass ein strengeres Monitoring und sorgfältigere Tests notwendig sind, um die Verbreitung von Fehlinformationen zu verhindern. Ob Apple auf die Forderungen von RSF reagiert und Änderungen einführt, bleibt abzuwarten.
Via 9to5Mac