Eine frohe Adventszeit wünscht Apfeltalk
  • Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Unser Dezember-Wettbewerb steht unter dem Thema Zeitreise - Macht mit und beteiligt Euch mit Euren kreativen Fotos! Zum Wettbewerb --> Klick

Apple wird wegen mangelnder Maßnahmen gegen Kindesmissbrauch auf iCloud verklagt

Apfeltalk Redaktion

Redakteur
AT Redaktion
Registriert
15.06.24
Beiträge
26.619
Geschrieben von: Michael Reimann
CSAM Kommunikationssicherheit für Kinder Bildanalyse Apple iCloud Kindesmissbrauchsmaterial Klage

Apple steht vor einer milliardenschweren Sammelklage, in der das Unternehmen beschuldigt wird, seiner Verantwortung im Umgang mit Kindesmissbrauchsmaterial (CSAM) auf iCloud nicht nachgekommen zu sein. Die Kläger:innen, Opfer von Kindesmissbrauch, fordern mehr als 1,2 Milliarden US-Dollar Schadensersatz und kritisieren Apples Entscheidung, ein 2021 angekündigtes System zur Erkennung solcher Inhalte nicht einzuführen.

Hintergrund der Klage​


Die Klage wurde von einer 27-jährigen Frau eingereicht, die als Kind Opfer von sexuellem Missbrauch wurde. Ihre Bilder wurden von einem Verwandten aufgenommen, online geteilt und vielfach verbreitet. Die Klägerin erfuhr 2021, dass ihre Bilder auf einem MacBook gefunden wurden, das mit Apples iCloud-Dienst verbunden war. Trotz der Ankündigung eines Systems zur Erkennung von Missbrauchsmaterial hatte Apple die Einführung nach Kritik von Cybersicherheitsexpert:innen zurückgezogen.

Die Kläger:innen argumentieren, Apple habe mit der Aufgabe seines NeuralHash-Systems eine Chance verpasst, Missbrauchsmaterial zu erkennen, zu melden und zu entfernen. Dadurch seien Opfer gezwungen, den Schmerz ihrer Vergangenheit immer wieder zu durchleben.

Technologische und rechtliche Herausforderungen​


Apple hat sich in der Vergangenheit geweigert, weit verbreitete Systeme wie PhotoDNA einzusetzen, die von Unternehmen wie Google und Facebook genutzt werden. Stattdessen priorisiert Apple den Schutz der Privatsphäre seiner Nutzer:innen. Diese Haltung führte dazu, dass Apple 2019 nur 267 Berichte über Missbrauchsmaterial an das National Center for Missing & Exploited Children (NCMEC) meldete – im Vergleich zu Millionen Berichten anderer Tech-Giganten.

Die Klage wirft Apple vor, mit dem Rückzug von NeuralHash sowohl Kinder als auch ihre Opfer im Stich gelassen zu haben. NeuralHash sollte verdächtige Bilder auf iCloud erkennen, indem es diese mit einer Datenbank bekannter Missbrauchsmaterialien vergleicht. Cybersicherheitsexpert:innen hatten jedoch vor potenziellen Missbrauchsmöglichkeiten gewarnt, was Apple veranlasste, die Pläne einzustellen.

Forderungen der Kläger:innen​


Die Kläger:innen möchten nicht nur Schadensersatz, sondern fordern auch, dass Apple seine Praktiken ändert und Maßnahmen einführt, um Missbrauchsmaterial effektiv zu erkennen und zu entfernen. Anwält:innen gehen davon aus, dass die Klage langfristige Auswirkungen auf Apples Umgang mit Benutzer:inneninhalten haben könnte.

Die Anwaltskanzlei Marsh Law, die die Klägerin vertritt, hat über 80 Fälle dokumentiert, bei denen Missbrauchsmaterial in Verbindung mit Apple-Produkten oder -Diensten gefunden wurde. Ziel der Klage ist es, Apple zu zwingen, ein Gleichgewicht zwischen Nutzer:innensicherheit und Privatsphäre zu finden.

Apples Reaktion​


Apple bezeichnete Kindesmissbrauchsmaterial als „abscheulich“ und erklärte, es arbeite daran, innovative Lösungen zu entwickeln, ohne die Privatsphäre der Nutzer:innen zu gefährden. Das Unternehmen verweist auf Tools wie Warnhinweise in der Nachrichten-App und Funktionen zur Meldung von Missbrauchsmaterial. Doch Kritiker:innen halten diese Maßnahmen für unzureichend.

Die Klägerin betonte, dass sie an der Klage teilnimmt, weil sie glaubt, dass Apple seine Verantwortung vernachlässigt hat. „Apple hat Privatsphäre und Profit über Menschen gestellt“, sagte sie.

Via: NYT

Im Magazin lesen....
 

AndaleR

Moderator
AT Moderation
Registriert
09.08.20
Beiträge
7.706
Apple wollte das System doch einführen - und hat es dann nach Aufschreien aus allen Ecken wieder zurückgezogen? Hatte das nicht auch hier im Forum zu großen Diskussionen geführt?
Apple hat es, wie im Artikel geschrieben, wegen möglicher Missbrauchsmöglichkeiten, die durch Cybersicherheitsexperten genannt wurden, zurückgezogen. Haben die dann nicht noch mehr Schuld als Apple?

Es gab ja auch Fälle, bei denen die Polizei ankam, weil jemand dem Kinderarzt Bilder geschickt hatte. Bei dem Fall ging es um Diagnose - aber das System (von Google) hatte das anders ausgelegt.

So schwer das für die Betroffenen ist - und ich das als mit das Abscheulichste überhaupt halte!! - aber kann man hier wirklich Apple eine Schuld zuweisen?
Werden Hersteller von Speichermedien dann auch verklagt, auf denen solcher Dreck landet? Dort bietet sich keinerlei Überwachungsmöglichkeit, welche Inhalte gespeichert sind.
 
  • Like
Reaktionen: SORAR und rs254

MichaNbg

Brauner Matapfel
Registriert
17.10.16
Beiträge
8.420
Nene, hier Mal kurz einhalten und ein paar Dinge gerade rücken.

Apple wollte etwas "on device" implementieren. Mit Motiverkennung. Nicht abschaltbar. Immer im Hintergrund laufend. Mit entsprechenden Missbrauchapotential.

Etwas ganz anderes als Google oder meta oder Microsoft tut. Die bei ihnen hochgeladene Bilder gegen eine Datenbank prüfen. Der Anwender kann diese Dienste einfach nicht nutzen und muss sich nicht drum kümmern.

Apples Variante wäre viel, viel mächtiger und weitaus gefährlicher gewesen.
 
  • Like
Reaktionen: Freezy49 und Salud

AndaleR

Moderator
AT Moderation
Registriert
09.08.20
Beiträge
7.706
Wäre es das?

Ich hätte sogar gesagt: Dass es in dem Fall eben geholfen hätte. Wären die Bilder auf dem Gerät erkannt worden.

Wieso ist es gefährlicher, wenn die Bilder erst in der Cloud kontrolliert werden? Und nicht schon auf dem Gerät?
Ich erkenne da gerade den Unterschied nicht?
 
  • Like
Reaktionen: StillMacUser

AndaleR

Moderator
AT Moderation
Registriert
09.08.20
Beiträge
7.706
Wieso „ohne deine Zustimmung“? Das wäre doch gemacht worden - zumindest hätte man sich diese vorab schon geholt. Es wäre sicherlich nicht einfach heimlich gemacht worden. In der Cloud wäre es dann ok? Zumindest lese ich den Artikel und die Meinungen dazu so, dass es Google u. Co. besser machen und so dann die Klägerin keinen Grund zur Klage gehabt haben würde.

Auf meinen Apple-Geräten wird so viel im Hintergrund analysiert und verarbeitet, um eben gewisse Vorzüge bei der Bedienung des Geräts zu haben - und sollte man so diese Drecksäcke erwischen können, bin ich der erste, der die Freigabe dazu erteilt. Im großen und ganzen habe ich eigentlich nichts zu verbergen.

Den KIs werden Daten hingeworfen - und nichts anderes ist es, wenn man einen Mail-Entwurf dort eingibt, um ihn besser schreiben zu lassen - da machen sich viele keinen Kopf. Will da gar nicht wissen, in welcher Menge eigentlich vertrauliche Informationen darin zu finden sind und was man damit in den falschen Händen machen könnte.
Apps wie temu und so - was machen die? Die haben auch vollen Zugriff auf viele Daten auf dem Gerät (oder alle?).

Aber eine Möglichkeit, diese scheiß kranken Idioten bei frischer Tat zu ertappen - nö, da will Schmidtchen Schleicher verhindern, dass Daten auf dem Telefon analysiert werden.

Vielleicht liegt es daran, dass ich selbst kleine Kinder habe - und nicht wüsste, was passieren würde, wenn ich jemand erwische, der sich an ihnen vergeht.
Ok - ich beruhige mich schon wieder… Hoffe ich.
 
  • Like
Reaktionen: Michael Reimann

Salud

Golden Noble
Registriert
25.06.07
Beiträge
15.619
Wieso „ohne deine Zustimmung“? Das wäre doch gemacht worden - zumindest hätte man sich diese vorab schon geholt. Es wäre sicherlich nicht einfach heimlich gemacht worden. In der Cloud wäre es dann ok? Zumindest lese ich den Artikel und die Meinungen dazu so, dass es Google u. Co. besser machen und so dann die Klägerin keinen Grund zur Klage gehabt haben würde.

Auf meinen Apple-Geräten wird so viel im Hintergrund analysiert und verarbeitet, um eben gewisse Vorzüge bei der Bedienung des Geräts zu haben - und sollte man so diese Drecksäcke erwischen können, bin ich der erste, der die Freigabe dazu erteilt. Im großen und ganzen habe ich eigentlich nichts zu verbergen.

Den KIs werden Daten hingeworfen - und nichts anderes ist es, wenn man einen Mail-Entwurf dort eingibt, um ihn besser schreiben zu lassen - da machen sich viele keinen Kopf. Will da gar nicht wissen, in welcher Menge eigentlich vertrauliche Informationen darin zu finden sind und was man damit in den falschen Händen machen könnte.
Apps wie temu und so - was machen die? Die haben auch vollen Zugriff auf viele Daten auf dem Gerät (oder alle?).

Aber eine Möglichkeit, diese scheiß kranken Idioten bei frischer Tat zu ertappen - nö, da will Schmidtchen Schleicher verhindern, dass Daten auf dem Telefon analysiert werden.

Vielleicht liegt es daran, dass ich selbst kleine Kinder habe - und nicht wüsste, was passieren würde, wenn ich jemand erwische, der sich an ihnen vergeht.
Ok - ich beruhige mich schon wieder… Hoffe ich.
Alles gut. Mich ekelt das Thema auch an wie kaum ein anderes. Nur mache ich nichts verbotenes, daher muss hier auch keiner in meinen Daten schauen.
 

AndaleR

Moderator
AT Moderation
Registriert
09.08.20
Beiträge
7.706
Dann hast du ja auch nichts zu befürchten. Und die, die das Verbotene machen - die denken ja genau so wie du: Niemand soll in meine Daten schauen.

Pauschal alle unter Verdacht zu stellen mit der Überwachung ist ja auch nicht der Fall. Zumindest wird niemandem etwas passieren, der „normal“ ist. Aber dennoch sollte man alles versuchen, kriminelles Verhalten bestrafen zu können. Es wird vielleicht auch mal falsche Treffer geben und die müssen schnellstmöglich erkannt und entfernt werden. Da darf nicht die Polizei vor/in der Wohnung stehen wegen eines Verdachts. Das spricht sich zu schnell rum in der Nachbarschaft und man hat schnell einen Ruf…

Aber dieses Thema kann man dann in alle Richtungen ausweiten und plötzlich ist man dann bei der ständigen Überwachung aller Telefonate, des Mail-Verkehrs etc..

Das Thema ist aber dennoch so wichtig, dass man auch drüber diskutieren soll und vielleicht auch muss - in allen Ebenen. Auch wenn ich mir beim Lesen des Artikels dachte: Die Frau versucht aus dem Fall eine Menge Kohle zu scheffeln - und ich denke mir, macht Geld das Leid wieder gut? Vor allem: Das Geld von jemand, der überhaupt nichts mit dem Verbrechen zu tun hatte?

Wenn man sich die Straftaten und die Resultate ansieht: Die Opfer sind ihr Leben lang bestraft mit dem, was passiert ist. Die Täter? Die haben den Rest ihres Lebens sicherlich nicht die Probleme, die sie anderen mit der Tat angetan haben. Etwas hinter schwedischen Gardinen, etwas psychologische Unterstützung. Bei guter Führung dann wieder ab in die freie Wildbahn - was auch immer danach passiert, man weiß es leider nicht…
 

MichaNbg

Brauner Matapfel
Registriert
17.10.16
Beiträge
8.420
Wäre es das?

Ich hätte sogar gesagt: Dass es in dem Fall eben geholfen hätte. Wären die Bilder auf dem Gerät erkannt worden.

Wieso ist es gefährlicher, wenn die Bilder erst in der Cloud kontrolliert werden? Und nicht schon auf dem Gerät?
Ich erkenne da gerade den Unterschied nicht?
Das steht weiter oben schon beschrieben. Die Nutzung von Cloud Services ist optional. Niemand muss seine Fotos in iCloud, OneDrive oder Google Photos sichern. Niemand muss auf Facebook hochladen. Ich habe es in der Hand, ob meine Bilder dort analysiert werden oder nicht. Passiert das schon am Device bist du unwiderruflich sofort wirklich "gläsern". Kein Opt-Out. Und hierdurch auch maximal anfällig für staatliche Eingriffe.
(Grüße gehen raus an die nächsten Jahre in den USA)

Schon ein wenig schizophren, wie die Apple Gemeine PhotoDNA auf freiwilligen Fotodiensten als "Datenschutzhölle" gebrandmarkt haben, Apples nachweislich für die Bürger weitaus gefährlicherer Ansatz aber schon wieder verteidigt wird.

Dann hast du ja auch nichts zu befürchten.
🤦‍♂️
 

BalthasarBux

Spartan
Registriert
25.12.19
Beiträge
1.589
Pauschal alle unter Verdacht zu stellen mit der Überwachung ist ja auch nicht der Fall. Zumindest wird niemandem etwas passieren, der „normal“ ist.
Dein zweiter Satz ist die Definition von pauschalem Unterverdachtstellen. Du widerlegst einen Satz später deinen ersten.
Es werden erstmal alle geprüft, also unter Verdacht gestellt. Das ist maximal gefährlich. Wenn so ein System erstmal etabliert ist, dann müssen nur noch die Definitionen von "normal" geändert werden. Wer bestimmt denn, was als "normal" gilt? Wenn so ein System erstmal etabliert ist, dann kann sich diese Definition sehr schnell ändern. Das hat man ja schon oft erlebt. Und wenn dann noch gefährliche politische Kräfte erstarken, dann will man sich nicht vorstelen, wer dann plötzlich alles als "nicht normal" definiert wird und identifiziert werden kann.
 

Salud

Golden Noble
Registriert
25.06.07
Beiträge
15.619
Dann hast du ja auch nichts zu befürchten. Und die, die das Verbotene machen - die denken ja genau so wie du: Niemand soll in meine Daten schauen.

Pauschal alle unter Verdacht zu stellen mit der Überwachung ist ja auch nicht der Fall. Zumindest wird niemandem etwas passieren, der „normal“ ist. Aber dennoch sollte man alles versuchen, kriminelles Verhalten bestrafen zu können. Es wird vielleicht auch mal falsche Treffer geben und die müssen schnellstmöglich erkannt und entfernt werden. Da darf nicht die Polizei vor/in der Wohnung stehen wegen eines Verdachts. Das spricht sich zu schnell rum in der Nachbarschaft und man hat schnell einen Ruf…

Aber dieses Thema kann man dann in alle Richtungen ausweiten und plötzlich ist man dann bei der ständigen Überwachung aller Telefonate, des Mail-Verkehrs etc..

Das Thema ist aber dennoch so wichtig, dass man auch drüber diskutieren soll und vielleicht auch muss - in allen Ebenen. Auch wenn ich mir beim Lesen des Artikels dachte: Die Frau versucht aus dem Fall eine Menge Kohle zu scheffeln - und ich denke mir, macht Geld das Leid wieder gut? Vor allem: Das Geld von jemand, der überhaupt nichts mit dem Verbrechen zu tun hatte?

Wenn man sich die Straftaten und die Resultate ansieht: Die Opfer sind ihr Leben lang bestraft mit dem, was passiert ist. Die Täter? Die haben den Rest ihres Lebens sicherlich nicht die Probleme, die sie anderen mit der Tat angetan haben. Etwas hinter schwedischen Gardinen, etwas psychologische Unterstützung. Bei guter Führung dann wieder ab in die freie Wildbahn - was auch immer danach passiert, man weiß es leider nicht…
Beispiel: Wenn du nichts machst und bei dir möchte man das Haus durchsuchen, weil man davon ausgeht, es könnte ja was zu finden sein, wäre auch soweit ok?
 

MichaNbg

Brauner Matapfel
Registriert
17.10.16
Beiträge
8.420
Beispiel: Wenn du nichts machst und bei dir möchte man das Haus durchsuchen, weil man davon ausgeht, es könnte ja was zu finden sein, wäre auch soweit ok?
Für ihn wird es auch okay sein, dass man Apple die E2E-Encryption in iMessage verbietet. Er hat ja nichts zu verbergen. Und die Kamera im Schlafzimmer wird auch okay sein. Er tut da ja nichts verbotenes.
 
  • Like
Reaktionen: SORAR

James Atlick

Tydemans Early Worcester
Registriert
05.05.09
Beiträge
391
Apple wollte etwas "on device" implementieren. Mit Motiverkennung. Nicht abschaltbar. Immer im Hintergrund laufend. Mit entsprechenden Missbrauchapotential.

Etwas ganz anderes als Google oder meta oder Microsoft tut. Die bei ihnen hochgeladene Bilder gegen eine Datenbank prüfen. Der Anwender kann diese Dienste einfach nicht nutzen und muss sich nicht drum kümmern.

Apples Variante wäre viel, viel mächtiger und weitaus gefährlicher gewesen.
Apple wollte das on device machen ja! Aber warum?

Damit du eben deine Fotos verschlüsselt zu ihnen laden kannst und Apple deine Fotos nicht sehen kann.
Bei Google oder Mete oder MS ist es immer unverschlüsselt. Klar brauchen die es nicht on device zu scannen, schliesslich liegen die Fotos unverschlüsselt auf dem Server.

Am Ende vergleichen beide Hashes mit der internationalen Pädo Datenbank.
Apple hätte lokal einen Hash gemacht, und wenn dieser angeschlagen hätte, dann wäre das Bild unverschlüsselt zu Apple gewandert. Bei den anderen passiert dies einfach in der Cloud mit den unverschlüsselten Fotos.

Ich möchte das System jetzt nicht gutreden, ich finde es nämlich nicht gut. Aber die Alternative von Google, MS und co (oder jetzt halt auch iCloud) sind einfach unverschlüsselte Fotos.

Zum Glück haben sie später die Funktion "erweiterter Datenschutz" nachgeschoben. Damit sind die Fotos dann auch verschlüsselt. Plus wir haben keinen lokalen Scanner, der missbraucht werden kann. Win win, jetzt müsst ihr es nur noch einschalten :)
 
  • Like
Reaktionen: angerhome

MichaNbg

Brauner Matapfel
Registriert
17.10.16
Beiträge
8.420
Ich möchte das System jetzt nicht gutreden, ich finde es nämlich nicht gut. Aber die Alternative von Google, MS und co ist halt noch viel schlimmer.

Aber genau das haben die Leute eben nicht verstanden und Apple hat einen Rückzieher gemacht.
Nochmal:
Der Knackpunkt ist, die anderen Anbieter sind optional. Du kannst die nutzen, musst aber nicht. Wenn du sie nicht nutzt, scannen die auch nichts. Was auf deinem Device passiert, passiert auf deinem Device und niemand kriegt es mit. Aber nicht bei Google, Meta, Microsoft oder sonst wem.

Bei Apples Ansatz passiert alles auf deinem Device und es gibt keinen safe space mehr. Das ganze Gerede von "Datenschutz" ist dann Unsinn, weil jedes Dokument und jedes Foto in deinen Schubladen und Schränken durchsucht, bewertet und ggf. gemeldet wird.
 

James Atlick

Tydemans Early Worcester
Registriert
05.05.09
Beiträge
391
Der Knackpunkt ist, die anderen Anbieter sind optional.
Für 99% der User nicht. Die möchten ein Backup und Sync. Das ist entweder iCloud, Dropbox, OneDrive oder Google Photos.
Das stimmt nur für unsere theoretische Nerd Ecke im IT Elfenbeinturm :)
Also ja, wir zwei haben davon ganz klar profitiert. Ob der Datenschutz ingesamt gewonnen hat, wage ich aber zu bezweifeln.
 

AndaleR

Moderator
AT Moderation
Registriert
09.08.20
Beiträge
7.706
Hätte das System, das Apple auf dem Gerät einführen wollte, eigentlich den Bezug der Daten mit der Person beeinhaltet?

Ich meine: Da rauscht ein Stück Software durch die Bilder und vergleicht Werte, anhand deren man feststellen kann, ob das dann Kindesmissbrauch zeigt oder nicht. Ist hier schon irgendein Bezug vom Foto zum Besitzer hergestellt?

Wird etwas erkannt oder das System schlägt aus - wird/würde das Foto direkt von Apple nochmal geprüft. Wird das dann schon geschickt mit „Hr. Müller, Feilchengasse 9b, Musterstadt“ hat dieses Bild gemacht?
Oder wird es NACH der Prüfung und einem klaren Verstoß gegen ein Gesetz mit den Nutzerdaten versehen und dann hoffentlich korrekt zur Anzeige gebracht usw.?
 

angerhome

Weißer Winterkalvill
Registriert
13.10.15
Beiträge
3.542
Oder wird es NACH der Prüfung und einem klaren Verstoß gegen ein Gesetz mit den Nutzerdaten versehen und dann hoffentlich korrekt zur Anzeige gebracht usw.?
Diese Prüfung obläge den Strafverfolgungsbehörden und mit Sicherheit nicht der Firma Apple.