Werbung



FeatureServices

CSAM: Apple verschiebt Einführung

CSAM Kommunikationssicherheit für Kinder Bildanalyse

Werbung

Seit Wochen erntet Apple für seine geplanten Maßnahmen rund um den Schutz vor Kindesmissbrauch herbe Kritik. Jetzt gibt der Konzern etwas nach – zumindest vorerst.

Letzten Monat kündigte Apple einige Maßnahmen zur Bekämpfung von Kindesmissbrauch an, sie wurden unter dem Titel CSAM zusammengefasst. So wollte Apple „Child Sexual Abuse Material“ finden und entsprechend an Ermittler weiter geben. Mögliche Elemente davon war das Scannen von Inhalten auf den Endgeräten der Nutzer, beispielsweise der Fotos innerhalb der Fotos App. Ebenso damit verbunden war ein Scan von Fotos in iMessage.

CSAM Scanning wird verschoben

Seit Wochen gibt es entsprechende Kritik gegen die Maßnahmen – Apple bricht damit eines seiner ältesten Paradigmen. Was auf dem iPhone passiert bleibe damit vielleicht nicht mehr auf dem iPhone. Auch verschiedene Menschenrechtsorganisationen und Journalistenverbände meldeten Kritik an. Apple schärfte Mal um Mal nach – doch auch von technischer Seite gab es Bedenken. Ebenso gab es interne Kritik.

Gegenüber US-Medien hat Apple nun bestätigt die Funktion vorerst zu verschieben und weiter zu prüfen.

Letzten Monat haben wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Räubern zu schützen, die Kommunikationstools nutzen, um sie anzuwerben und auszubeuten, und die Verbreitung von Material über sexuellen Kindesmissbrauch einzuschränken. Aufgrund des Feedbacks von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äußerst wichtigen Funktionen zum Schutz von Kindern veröffentlichen.

CSAM und die Freiheit

Auch Apfeltalk möchte die Wichtigkeit um Schutz unserer jüngsten Mitmenschen hochhalten, doch es stelte sich von Anfang an die Frage nah der Verhältnismäßigkeit und Sicherheit dieser Funktionen. Apple wollte iMessage Inhalte scannen und im Zweifel Eltern von Kinder warnen. Ebenso sollten Filter die lokale Fotobibliothek durchsuchen. Diese Werkzeuge an sich können auch für andere Inhalte genutzt werden. Apple betont zwar sehr stark dies nie zu tun, doch der Konzern ist ohne Frage nicht frei von politischen und zuletzt wirtschaftlichen Druck.

Via MacRumors
Cover via MacRumors und Apple

Unsere Haltung zu Gewalt
Apfeltalk und das ganze Team verurteilt Gewalt in jeder Form und insbesondere an Kindern. Diese abscheulichen Straftaten gehören verfolgt und die Täter mit der vollen Härte des Gesetzes bestraft. In unserer Berichterstattung geht es um die Verhältnismäßigkeit der Art wie hier ermittelt werden soll.

Werbung



Tags: Apple, CSAM, Child Safety

Ähnliche Artikel

Werbung



Einkaufstipps
Beliebte Artikel

Werbung