- Registriert
- 15.06.24
- Beiträge
- 26.619
Geschrieben von: Michael Reimann
Apple steht vor einer milliardenschweren Sammelklage, in der das Unternehmen beschuldigt wird, seiner Verantwortung im Umgang mit Kindesmissbrauchsmaterial (CSAM) auf iCloud nicht nachgekommen zu sein. Die Kläger:innen, Opfer von Kindesmissbrauch, fordern mehr als 1,2 Milliarden US-Dollar Schadensersatz und kritisieren Apples Entscheidung, ein 2021 angekündigtes System zur Erkennung solcher Inhalte nicht einzuführen.
Die Klage wurde von einer 27-jährigen Frau eingereicht, die als Kind Opfer von sexuellem Missbrauch wurde. Ihre Bilder wurden von einem Verwandten aufgenommen, online geteilt und vielfach verbreitet. Die Klägerin erfuhr 2021, dass ihre Bilder auf einem MacBook gefunden wurden, das mit Apples iCloud-Dienst verbunden war. Trotz der Ankündigung eines Systems zur Erkennung von Missbrauchsmaterial hatte Apple die Einführung nach Kritik von Cybersicherheitsexpert:innen zurückgezogen.
Die Kläger:innen argumentieren, Apple habe mit der Aufgabe seines NeuralHash-Systems eine Chance verpasst, Missbrauchsmaterial zu erkennen, zu melden und zu entfernen. Dadurch seien Opfer gezwungen, den Schmerz ihrer Vergangenheit immer wieder zu durchleben.
Apple hat sich in der Vergangenheit geweigert, weit verbreitete Systeme wie PhotoDNA einzusetzen, die von Unternehmen wie Google und Facebook genutzt werden. Stattdessen priorisiert Apple den Schutz der Privatsphäre seiner Nutzer:innen. Diese Haltung führte dazu, dass Apple 2019 nur 267 Berichte über Missbrauchsmaterial an das National Center for Missing & Exploited Children (NCMEC) meldete – im Vergleich zu Millionen Berichten anderer Tech-Giganten.
Die Klage wirft Apple vor, mit dem Rückzug von NeuralHash sowohl Kinder als auch ihre Opfer im Stich gelassen zu haben. NeuralHash sollte verdächtige Bilder auf iCloud erkennen, indem es diese mit einer Datenbank bekannter Missbrauchsmaterialien vergleicht. Cybersicherheitsexpert:innen hatten jedoch vor potenziellen Missbrauchsmöglichkeiten gewarnt, was Apple veranlasste, die Pläne einzustellen.
Die Kläger:innen möchten nicht nur Schadensersatz, sondern fordern auch, dass Apple seine Praktiken ändert und Maßnahmen einführt, um Missbrauchsmaterial effektiv zu erkennen und zu entfernen. Anwält:innen gehen davon aus, dass die Klage langfristige Auswirkungen auf Apples Umgang mit Benutzer:inneninhalten haben könnte.
Die Anwaltskanzlei Marsh Law, die die Klägerin vertritt, hat über 80 Fälle dokumentiert, bei denen Missbrauchsmaterial in Verbindung mit Apple-Produkten oder -Diensten gefunden wurde. Ziel der Klage ist es, Apple zu zwingen, ein Gleichgewicht zwischen Nutzer:innensicherheit und Privatsphäre zu finden.
Apple bezeichnete Kindesmissbrauchsmaterial als „abscheulich“ und erklärte, es arbeite daran, innovative Lösungen zu entwickeln, ohne die Privatsphäre der Nutzer:innen zu gefährden. Das Unternehmen verweist auf Tools wie Warnhinweise in der Nachrichten-App und Funktionen zur Meldung von Missbrauchsmaterial. Doch Kritiker:innen halten diese Maßnahmen für unzureichend.
Die Klägerin betonte, dass sie an der Klage teilnimmt, weil sie glaubt, dass Apple seine Verantwortung vernachlässigt hat. „Apple hat Privatsphäre und Profit über Menschen gestellt“, sagte sie.
Via: NYT
Im Magazin lesen....
Apple steht vor einer milliardenschweren Sammelklage, in der das Unternehmen beschuldigt wird, seiner Verantwortung im Umgang mit Kindesmissbrauchsmaterial (CSAM) auf iCloud nicht nachgekommen zu sein. Die Kläger:innen, Opfer von Kindesmissbrauch, fordern mehr als 1,2 Milliarden US-Dollar Schadensersatz und kritisieren Apples Entscheidung, ein 2021 angekündigtes System zur Erkennung solcher Inhalte nicht einzuführen.
Hintergrund der Klage
Die Klage wurde von einer 27-jährigen Frau eingereicht, die als Kind Opfer von sexuellem Missbrauch wurde. Ihre Bilder wurden von einem Verwandten aufgenommen, online geteilt und vielfach verbreitet. Die Klägerin erfuhr 2021, dass ihre Bilder auf einem MacBook gefunden wurden, das mit Apples iCloud-Dienst verbunden war. Trotz der Ankündigung eines Systems zur Erkennung von Missbrauchsmaterial hatte Apple die Einführung nach Kritik von Cybersicherheitsexpert:innen zurückgezogen.
Die Kläger:innen argumentieren, Apple habe mit der Aufgabe seines NeuralHash-Systems eine Chance verpasst, Missbrauchsmaterial zu erkennen, zu melden und zu entfernen. Dadurch seien Opfer gezwungen, den Schmerz ihrer Vergangenheit immer wieder zu durchleben.
Technologische und rechtliche Herausforderungen
Apple hat sich in der Vergangenheit geweigert, weit verbreitete Systeme wie PhotoDNA einzusetzen, die von Unternehmen wie Google und Facebook genutzt werden. Stattdessen priorisiert Apple den Schutz der Privatsphäre seiner Nutzer:innen. Diese Haltung führte dazu, dass Apple 2019 nur 267 Berichte über Missbrauchsmaterial an das National Center for Missing & Exploited Children (NCMEC) meldete – im Vergleich zu Millionen Berichten anderer Tech-Giganten.
Die Klage wirft Apple vor, mit dem Rückzug von NeuralHash sowohl Kinder als auch ihre Opfer im Stich gelassen zu haben. NeuralHash sollte verdächtige Bilder auf iCloud erkennen, indem es diese mit einer Datenbank bekannter Missbrauchsmaterialien vergleicht. Cybersicherheitsexpert:innen hatten jedoch vor potenziellen Missbrauchsmöglichkeiten gewarnt, was Apple veranlasste, die Pläne einzustellen.
Forderungen der Kläger:innen
Die Kläger:innen möchten nicht nur Schadensersatz, sondern fordern auch, dass Apple seine Praktiken ändert und Maßnahmen einführt, um Missbrauchsmaterial effektiv zu erkennen und zu entfernen. Anwält:innen gehen davon aus, dass die Klage langfristige Auswirkungen auf Apples Umgang mit Benutzer:inneninhalten haben könnte.
Die Anwaltskanzlei Marsh Law, die die Klägerin vertritt, hat über 80 Fälle dokumentiert, bei denen Missbrauchsmaterial in Verbindung mit Apple-Produkten oder -Diensten gefunden wurde. Ziel der Klage ist es, Apple zu zwingen, ein Gleichgewicht zwischen Nutzer:innensicherheit und Privatsphäre zu finden.
Apples Reaktion
Apple bezeichnete Kindesmissbrauchsmaterial als „abscheulich“ und erklärte, es arbeite daran, innovative Lösungen zu entwickeln, ohne die Privatsphäre der Nutzer:innen zu gefährden. Das Unternehmen verweist auf Tools wie Warnhinweise in der Nachrichten-App und Funktionen zur Meldung von Missbrauchsmaterial. Doch Kritiker:innen halten diese Maßnahmen für unzureichend.
Die Klägerin betonte, dass sie an der Klage teilnimmt, weil sie glaubt, dass Apple seine Verantwortung vernachlässigt hat. „Apple hat Privatsphäre und Profit über Menschen gestellt“, sagte sie.
Via: NYT
Im Magazin lesen....