Vor allem beweist man mit solchen Beispielen, dass man nicht verstanden hat, was Apple wirklich macht. Apple macht keine Motiv-Erkennung.
Es gibt Listen von Bildern, auf denen sexueller Mißbrauch von Kindern abgebildet ist. Damit man nicht das Bild an sich als Vergleich hernehmen muss, wird aus dem Bild ein Hash erstellt. Das ist nur ein "eindeutiger" Fingerabdruck des Bildes in Form von Buchstaben und Zahlen. Der Hash kommt auf eine Blacklist. Diese ist also nur eine Textdatei und wird jedem Apple-Gerät unter iOS, iPadOS und macOS übertragen. "Eindeutig" habe ich bewußt in Klammern gesetzt, weil die Eindeutigkeit nicht immer gegeben ist.
Apple erstellt nun auf den Endgeräten für jedes Bild auf diesen ebenfalls einen Hash nach dem gleichen Verfahren, wie sie für die Bilder auf der Blacklist erstellt wurden. Dann vergleicht sie für jedes Bild auf dem Endgerät, ob der errechnete Hash auch auf der Blacklist gefunden wird. Übersteigt die Anzahl der übereinstimmenden Hashes 30 Bilder, beginnt die Meldekette.
Hash-Verfahren haben jedoch in sich bereits ein mögliches Problem. Ich habe vielleicht ein Bild auf meinem Apple-Gerät, dass zufällig den gleichen Hash erzeugt wie ein bekanntes Bild auf der Blacklist. Dass soetwas passiert ist bereits sehr unwahrscheinlich und spielt zu einem Gutteil in die geringe Fehlerqoute, die Apple nennt, hinein. Die Wahrscheinlichkeit ist so gering, dass man bisher der Meinung war, Hashes seinen eindeutig. Das ist jedoch mittlerweile für diverse Hash-Verfahren widerlegt. Und selbst noch so geringe falsche Treffer (False Positives) führen aufgrund der schieren Menge dann doch wieder zu erschreckend hohen absoluten False Positives.
Selbst wenn Hashes wirklich zu 100% eindeutig wären, besteht noch ein anderes Problem. Sie ändern sich auch, wenn das Bild verändert wird. Wird eine Kopie davon skaliert, ein Ausschnitt gewählt, der Komprimierungsfaktor geändert, das Komperessionsverfahren verändert und das Bild abgespeichert, entsteht ein neuer Hash. Sogar das Bildformat (JPEG, PNG, TIFF etc.) verändert den Hash. Wer schlau ist, verändert das Bild einfach nach einer oder mehreren der genannten Methoden uns schon wäre das Hash-Verfahren gegenüber der bearbeiteten Bilder blind.
Apple hat nun ein Verfahren entwickelt, das offenbar ein Bild in Segmente zerlegt und "normalisiert", so dass ein Bild trotz all den genannten Änderungsmöglichkeiten anhand eines Hashes oder einer Gruppe von Hashes wiedererkannt werden kann.
Das bedeutet, das Nacktfoto vom eigenen Kind beim baden oder plantschen im Pool oder im Meer wird von dem von Apple geplanten System gar nicht erkannt. Diese Angst ist aktuell unbegründet. Es wäre jedoch denkbar, dass so ein Bild von irgendjemandem auf die besagte Blacklist gesetzt wird. Wie es dort hinkommen kann, würde hier zu weit führen und ist zumindest aktuell gar nicht das Problem.
Das System von Apple ist aber auch gegenüber neuen Bildern, die sexuellen Mißbrauch von Kindern abbilden, blind. Solange, bis es einer der beteiligten Organisationen bekannt ist, ein Hash erstellt wurde, dieser auf die Blacklist kommt und die aktuelle Blacklist auf Endgeräte übertragen wurde.
Der sogenannte Dammbruch ist, dass Apple alle Geräte mit iOS 15 oder neuer, iPadOs 15 oder neuer und macOS 12 oder neuer in dieser Art untersuchen will. Das sind milliarden Geräte weltweit. Das bedeutet, alle Apple-Nutzer werden von Apple unter einen Generalverdacht gestellt. Zwar soll das Verfahren zunächst auf die USA beschränkt sein, aber eine weltweites Ausrollen ist geplant, jedoch von den jeweiligen rechtlichen Voraussetzungen abhängig. Es kann also sein, dass wir in Europa nie diese Funktion aktiviert bekommen. Ob den Amis es lieber ist als uns Europäern (oder den Bewohnern beliebiger anderer Erdteile), von dem Unternehmen, dem sie durch Kauf der Ware Vertrauen aussprechen, unter Generalverdacht gestellt zu werden, wage ich zu bezweifeln.
Aufgrund der fehlenden Motiverkennung sehen einige darin keine Durchsuchung gegeben. Ich hingegen sehe das sehr wohl als Durchsuchung an, immerhin muss ja von jedem Bild auf dem Endgerät ein Hash erstellt werden und für das Endgerät ist ein Bild oder ein Hash immer nur eine Folge von mehr oder weniger vielen Nullen und Einsen.
Tatsächlich könnte Apple mit der Begründung "sexueller Mißbrauch von Kindern" ein Verfahren massenhaft austesten wollen, das später auch für andere Zwecke eingesetzt wird. Gegen die Bekämpfung von sexuellem Mißbrauch von Kindern kann man aus moralischen Gründen nicht ein. Aber wenn man nur die moralische Brille aufhat, dann fällt es immer schwerer dagegen zu argumentieren, wenn die Gründe ausgeweitet werden.
Es ist nicht einmal ausgeschlossen, dass Strafverfolger und Geheimdienste Apple dazu "überredet" haben, weil sie wissen, nie die rechtlichen Mittel dazu per Gesetz zu bekommen. Dass dieses Vorgehen Realität ist, wissen wir seit 2012!
Man kann fragen, warum Apple das Verfahren dann öffentlich macht und nicht heimlich einführt?
Nun, Apple hat sich seit Jahrzehnten als Robin Hood zum Schutz der Privatsphäre dargestellt. Was sie jetzt machen, ist schon ein Drahtseilakt. Das heimlich einzubauen und dann erwischt zu werden, könnte das Firmenende bedeuten. Auch dem wertvollsten IT-Unternehmen geht irgendwann das Geld aus.
Für mich ist der "Drahtseilakt" sogar ein erheblicher Hinweis darauf, dass hinter der Funktion weit mehr Weltpolitik steckt, als wir uns ausmalen.