Sehr geehrter Herr Cook:
Die unterzeichnenden Organisationen, die sich weltweit für Bürgerrechte, Menschenrechte und digitale Rechte einsetzen, fordern Apple auf, die am 5. August 2021 angekündigten Pläne zum Einbau von Überwachungsfunktionen in iPhones, iPads und andere Apple-Produkte aufzugeben. Obwohl diese Funktionen dazu gedacht sind, Kinder zu schützen und die Verbreitung von Material über sexuellen Kindesmissbrauch einzudämmen, sind wir besorgt, dass sie zur Zensur geschützter Äußerungen eingesetzt werden, die Privatsphäre und Sicherheit von Menschen auf der ganzen Welt bedrohen und katastrophale Folgen für viele Kinder haben werden.
Apple hat angekündigt, dass es einen Algorithmus für maschinelles Lernen einsetzt, um Bilder in seinem Textnachrichtendienst Messages zu scannen, um sexuell eindeutiges Material zu erkennen, das an oder von Personen gesendet wird, die in Familienkonten als Kinder identifiziert werden. Diese Überwachungsfunktion wird direkt in die Apple-Geräte eingebaut. Wenn der Algorithmus ein sexuell eindeutiges Bild erkennt, warnt er den Nutzer, dass das Bild möglicherweise sensibel ist. Er sendet auch eine Benachrichtigung an den Organisator eines Familienkontos, wenn ein Nutzer unter 13 Jahren das Bild senden oder empfangen möchte.
Algorithmen zur Erkennung von sexuell eindeutigem Material sind notorisch unzuverlässig. Sie neigen dazu, fälschlicherweise Kunst, Gesundheitsinformationen, Bildungsressourcen, Lobbyarbeit und andere Bilder zu markieren. Das Recht der Kinder, solche Informationen zu senden und zu empfangen, wird durch die UN-Konvention über die Rechte des Kindes geschützt. Darüber hinaus geht das von Apple entwickelte System davon aus, dass die betreffenden Konten "Eltern" und "Kind" tatsächlich einem Erwachsenen gehören, der Elternteil eines Kindes ist, und dass diese Personen eine gesunde Beziehung zueinander haben. Dies ist nicht immer der Fall; ein missbräuchlich handelnder Erwachsener kann der Organisator des Kontos sein, und die Folgen einer elterlichen Benachrichtigung könnten die Sicherheit und das Wohlergehen des Kindes gefährden. LGBTQ+-Jugendliche auf Familienkonten mit unsympathischen Eltern sind besonders gefährdet. Diese Änderung hat zur Folge, dass iMessages diesen Nutzern keine Vertraulichkeit und keinen Schutz der Privatsphäre mehr durch ein Ende-zu-Ende-verschlüsseltes Nachrichtensystem bietet, bei dem nur der Absender und der vorgesehene Empfänger Zugriff auf die gesendeten Informationen haben. Sobald diese Hintertür eingebaut ist, könnten Regierungen Apple dazu zwingen, die Benachrichtigung auf andere Konten auszuweiten und Bilder zu erkennen, die nicht nur aus sexuellen Gründen anstößig sind.
Apple kündigte außerdem an, in das Betriebssystem seiner Produkte eine Hash-Datenbank mit CSAM-Bildern einzubauen, die vom National Center for Missing and Exploited Children in den Vereinigten Staaten und anderen Kinderschutzorganisationen bereitgestellt wird. Es wird jedes Foto, das seine Nutzer in die iCloud hochladen, mit dieser Datenbank abgleichen. Wenn eine bestimmte Anzahl von Übereinstimmungen erreicht ist, wird der Account deaktiviert und der Nutzer und die Bilder werden den Behörden gemeldet. Viele Nutzer laden routinemäßig die von ihnen aufgenommenen Fotos in die iCloud hoch. Für diese Nutzer ist die Bildüberwachung etwas, das sie nicht abwählen können; sie wird in ihr iPhone oder ein anderes Apple-Gerät und in ihren iCloud-Account integriert sein.
Sobald diese Funktion in die Apple-Produkte eingebaut ist, werden das Unternehmen und seine Konkurrenten unter enormen Druck geraten - und möglicherweise von Regierungen auf der ganzen Welt gesetzlich dazu verpflichtet, Fotos nicht nur auf CSAM zu scannen, sondern auch auf andere Bilder, die eine Regierung für bedenklich hält. Dabei kann es sich um Bilder von Menschenrechtsverletzungen, politischen Protesten, Bildern, die von Unternehmen als "terroristische" oder gewalttätige extremistische Inhalte gekennzeichnet wurden, oder sogar um wenig schmeichelhafte Bilder eben jener Politiker handeln, die das Unternehmen unter Druck setzen werden, nach diesen Bildern zu suchen. Und dieser Druck könnte sich auf alle auf dem Gerät gespeicherten Bilder erstrecken, nicht nur auf die in iCloud hochgeladenen. Damit hat Apple den Grundstein für Zensur, Überwachung und Verfolgung auf globaler Basis gelegt.
Wir unterstützen die Bemühungen zum Schutz von Kindern und sprechen uns entschieden gegen die Verbreitung von CSAM aus. Aber die von Apple angekündigten Änderungen gefährden Kinder und andere Nutzer sowohl jetzt als auch in Zukunft. Wir fordern Apple dringend auf, diese Änderungen zurückzunehmen und das Engagement des Unternehmens für den Schutz seiner Nutzer durch eine Ende-zu-Ende-Verschlüsselung zu bekräftigen. Wir fordern Apple außerdem auf, sich regelmäßiger mit zivilgesellschaftlichen Gruppen und mit gefährdeten Bevölkerungsgruppen zu beraten, die von den Änderungen an seinen Produkten und Diensten unverhältnismäßig stark betroffen sein könnten.
Übersetzt mit
www.DeepL.com/Translator (kostenlose Version)