Werbung



FeatureiPhone

Apple wird umstrittene CSAM-Scans nicht ausrollen

CSAM Kommunikationssicherheit für Kinder Bildanalyse Apple iCloud Kindesmissbrauchsmaterial Klage

Werbung

Apple wird umstrittene CSAM-Scans nicht ausrollen. Das Feature, das der Sicherheit und dem Schutz von Kindern dienen sollte wurde 2021 angekündigt und stark kritisiert. 

Verkürzt dargestellt sollte das System Fotos mit Kinderpornografischem Inhalt in der iCloud durch das Vergleichen mit Hashwerten erkennen. Damit sollte das Verbreiten dieser Bilder unterbunden oder stark eingeschränkt werden.

Bevor ein Bild in iCloud-Fotos gespeichert wird, wird ein Abgleichsprozess auf dem Gerät für dieses Bild mit dem unlesbaren Satz bekannter CSAM-Hashes durchgeführt. Dieser Matching-Prozess wird von einer kryptografischen Technologie angetrieben, die als private Mengenüberschneidung bezeichnet wird und bestimmt, ob es eine Übereinstimmung gibt, ohne das Ergebnis preiszugeben. Private Set Inter intersection (PSI) ermöglicht es Apple zu erfahren, ob ein Bild-Hash mit den bekannten CSAM-Bild-Hashes übereinstimmt, ohne etwas über Bild-Hashes zu erfahren, die nicht übereinstimmen. PSI verhindert auch, dass der Benutzer bemerkt, ob es eine Übereinstimmung gab.

Apple geriet schnell in die Kritik und die Einführung wurde zunächst ausgesetzt. Nachdem der Konzern nun die Einführung so genannter Advanced Data Protection mit Ende-zu-Ende-Verschlüsselung für die meisten iCloud-Daten (inklusive Backups) angekündigt hat, ist der umstrittene CSAM-Scan damit von Tisch. Das bestätigte auch Apples Software-Chef Craig Federighi in einem Interview mit dem Wall Street Journal.

Weitere Funktionen auf dem Endgerät (iPhone etc.) bleiben aber aktiv. So können Fotos mit Nackdarstellungen bei bestimmten Einstellungen nicht bzw. nur undeutlich angezeigt werden und es wird eine Warnung ausgegeben.

Quelle: 9To5Mac

Werbung



Tags: CSAM, CSAM-Hash

Ähnliche Artikel

Werbung



Einkaufstipps
Beliebte Artikel

Werbung