Ein ungewöhnlicher Fehler in der Diktierfunktion von Apples iPhone sorgt für Aufsehen. US-Nutzer bemerkten, dass das Gerät bei der Eingabe des Wortes »Rassist« (engl. »racist«) zeitweise den Namen »Trump« schrieb. TikTok-Clips über dieses Problem gingen viral und riefen kontroverse Diskussionen hervor.
Phonetische Überschneidung oder Manipulation?
Laut einer Sprecherin von Apple war die Ursache für das Problem eine phonetische Ähnlichkeit zwischen den Wörtern »racist« und »Trump«. Die Software schrieb zunächst »Trump«, obwohl der Nutzer »racist« meinte, korrigierte sich aber meist sofort selbst. Apple bestätigte das Problem auf Anfrage der New York Times und versprach, das Phänomen zu beheben. Ein entsprechendes Update sollte bereits am Dienstag erfolgen.
Allerdings äußerte John Burkey, ein früheres Mitglied des Siri-Entwicklungsteams, eine andere Theorie. Seiner Ansicht nach könnte der Fehler auf eine absichtliche Manipulation des Codes zurückzuführen sein. Seiner Vermutung nach deute die automatische Korrektur des Begriffs darauf hin, dass es sich eher um einen Streich als einen technischen Fehler handelte. Außerdem sei das Problem genau nach einem Server-Update aufgetreten, was seinen Verdacht untermauere.
„Rassist“ statt „Trump“: Begrenzte Verbreitung
US-Medien wie die New York Times und NBC News bestätigten den Fehler in Tests. Allerdings trat er nur sporadisch auf, und es scheint, dass nur Geräte in den USA betroffen waren. Tester:innen des Spiegel konnten den Fehler auf Geräten in Deutschland nicht reproduzieren. Apple schweigt bislang zu Details, ob der Fehler weltweit auftrat oder bereits flächendeckend behoben ist.
Die fehlerhafte Worterkennung führte zu politischen Spannungen. Der rechtspopulistische Moderator Alex Jones kritisierte Apple öffentlich und bezeichnete den Vorfall als »next level evil« (nächste Stufe der Bösartigkeit). Der Vorfall unterstreicht einmal mehr, wie stark Fehler in der Personalisierung und künstlichen Intelligenz für Polarisierung sorgen können.
Einleitung der Lösung
Apple hat zugesichert, das Problem zu beheben und weiter an der Verbesserung der Diktierfunktion zu arbeiten. Dieser Vorfall könnte langfristige Konsequenzen für die Wahrnehmung von Software-Updates und KI-Fehlern bei Apple haben. Der Ruf nach einer noch transparenteren Fehleranalyse oder strengeren Kontrollen könnte – und wird – lauter werden.
Via New York Times und Spiegel