Genau. Ich habe das Gefühl, auch durch Zwischenfragen hier oder auf anderen Newsseiten, dass das Hashen nicht verstanden wird.
Erst mal meinen Viele, dass nun alle Fotos gescannt werden, und wenn ein entkleidetes Kind darauf zu sehen ist, wird es gemeldet. Das ist nicht so.
Und daher kann ich auch den Vergleich nicht nachvollziehen, der vielerorts gezogen wird ("wenn Regierungen dann Bilder von Demonstrationen gescannt haben wollen...").
Was hat das Eine mit dem Anderen zu tun?
Naja, wenn die Bilder erstmal gegen eine Datenbank abgeglichen werden, ist es ein winzig kleiner Schritt eben auch anderes als Kinderpornographie dort zu hinterlegen und die Behörden bei Treffern zu unterrichten. Auch wenn es aktuell heisst, dass dies nur mit Bildern passiert, die danach in die Cloud geladen werden, ist es nur eine Kleinigkeit dies zu ändern. Vermutlich nur ein Parameter den man anpassen muss.
Und Apple ist im Bereich KI und gerade bei Bildern am Entwickeln, wenn auch in erster Linie für Features und bessere Bilder, aber wer sagt denn, dass der Hash-Abgleich der letzte Schritt sein wird?
Die Datenbank ist nicht in solch einer Regierungskonstellation untergebracht.
Dann kommen die Hashes, die China, die NSA, Russland gerne hätte halt in eine eigene Datenbank. Man wird sicher überzeugende Argumente haben, warum die Bilder unbedingt auch gegen diese zusätzliche Datenbank abgeglichen werden müssen.
Es hat schon einen Grund, warum auch hierzulande bei allen Überwachungsmaßnahmen erst mal die Jagd auf Kinderpornographie vorgeschoben wird, um diese einzuführen. Dies passiert alle Jahre wieder z.B. mit der Vorratsdatenspeicherung. Gegen Verhindern von Kinderpornographie kann ja keiner etwas haben. Ist die Technik aber erstmal etabliert, wird sie schnell aber auch in anderen Fällen genutzt werden. Auch wenn das Sprichwort nicht 1:1 passt, aber "Gelegenheit macht Diebe". Und seien wir ganz ehrlich: Die Politik hat von Anfang an nicht primär die Jagd auf Kinderpornographie im Sinn, dass ist nur das Vehikel mit dem man die Büchse der Pandora öffnen möchte.
Und es bleibt sowohl bei dem Prüfen der Bilder oder auch der Vorratsdatenspeicherung ein Haken: Es verhindert nicht, dass die Kinder missbraucht werden und der Schund angefertigt wird. Es dämmt beides bestenfalls die Verbreitung ein, wahrscheinlich lassen beide Maßnahmen im Nachgang nur feststellen, wer so etwas verbreitet hat. Sicher auch das hat einen positiven Effekt, wenn man damit ggf. einschlägige Gruppen ausheben kann.
Und es bleibt die Frage: Ist es angemessen dafür alle Menschen oder nur alle Nutzer von Apple-Produkten unter einen Generalverdacht zu stellen. Es geht hier ja nicht darum nach einem Anfangsverdacht oder Hinweisen einzelne Gruppen oder Personen gezielt zu überwachen, hier wird anlasslos gegen jeden Nutzer ermittelt.
Ich unterstelle Apple selber tatsächlich nicht mal, dass man selber wirklich weitere Intentionen hat diese Technologie zu nutzen, ist sie erstmal da, könnte es aber nicht mehr in Apples Entscheidungsgewalt liegen, wie die Technik weitergehend eingesetzt wird. Gerade in China ist man ja durchaus bereit Zugeständnisse zu machen, um den Markt nicht aufgeben zu müssen.