- Registriert
- 09.08.20
- Beiträge
- 7.978
@Jan Gruber Aber wo liegt der Unterschied, ob Apple auf dem Gerät oder in der Cloud „die Augen offen hält“? Überlege gerade, aber bei mir landet alles vom iPhone auch in der iCloud?
@Jan Gruber Aber wo liegt der Unterschied, ob Apple auf dem Gerät oder in der Cloud „die Augen offen hält“? Überlege gerade, aber bei mir landet alles vom iPhone auch in der iCloud?
iCloud Sync kannst du abschalten. Und es macht einen Unterschied, ob ich nur Hashes gegen bekanntes Material prüfe (was an sich auch schon problematisch ist, aber immerhin keine Bildanalyse auf Inhalt erfolgt) oder ob ich on device jedes Bild analysiere und versuche zu erkennen, was da zu sehen ist. Egal ob ich es bewusst in die Cloud lade und ohne dass ich es abschalten kann.@Jan Gruber Aber wo liegt der Unterschied, ob Apple auf dem Gerät oder in der Cloud „die Augen offen hält“? Überlege gerade, aber bei mir landet alles vom iPhone auch in der iCloud?
In dem Fall hätte Apple bei dem damals geplanten CSAM-Scan auch nicht gescannt.iCloud Sync kannst du abschalten.
Die Bildanalyse (Nacktscanner) ist nur eine "persönliche" Sache und wird nirgends gemeldet. Bei dem kontroversen Thema geht es auch nur um die Hashes von bekannten Bildern.Und es macht einen Unterschied, ob ich nur Hashes gegen bekanntes Material prüfe (was an sich auch schon problematisch ist, aber immerhin keine Bildanalyse auf Inhalt erfolgt) oder ob ich on device jedes Bild analysiere und versuche zu erkennen, was da zu sehen ist.
Könntet Ihr das Thema evtl. in einem anderen Thread diskutieren? Wäre sehr verbunden.Zu Aiwanger,
Das solte doch nur gemeldet werden, wenn so erkannte Bilder versendet oder irgendwo hochgeladen worden wären?Dass Apple auf dem Gerät scannt und es meldet, ist halt nur eine Überschreitung einer Grenze, die sich falsch anfühlt und wahrscheinlich nicht begangen werden sollte (?).
was genau ändert sich jetzt daran? Das Apple das hochgeladene Material Server-seitig auf CSAM Hashübereinstimmung scannt und danach aktiv wird nach Schlüsselwert X Mal erwischt, durch Menschen oder Maschinen Kontrolliert, bewertet den Account sperrt und den Behörden weiterleitet?Der Check sollte durchgeführt werden, bevor das Foto zu iCloud Photos hochgeladen worden wäre. (Um dann bei wiederholten "positiven" Check ausgewertet zu werden)
Ich hab nur beschrieben, was der alte Plan war und dass der praktische Unterschied zum Scannen in der Cloud nicht sehr groß ist.was genau ändert sich jetzt daran? Das Apple das hochgeladene Material Server-seitig auf CSAM Hashübereinstimmung scannt und danach aktiv wird nach Schlüsselwert X Mal erwischt, durch Menschen oder Maschinen Kontrolliert, bewertet den Account sperrt und den Behörden weiterleitet?
Welches Gesetz? Wo? Vielleicht hast du einen Link?Das ist Gesetz und wird von allen umgesetzt,
Ich war und bin immer noch ein Gegner des automatischen scannes von Bildern, ganz einfach weil die Technik den Unterschied zwischen harmlos und strafbar nicht kennt. Die Bilder der eigenen Kinder wird die KI nicht von anderen unterscheiden können und somit wird es eine Flut an falschen Meldungen geben und das geht einfach in die falsche Richtung.
Grundsätzlich stimme ich nicht ganz zu, dass es nur um On Device ging. Das war natürlich eine noch größere Eskalation. Aber auch die (Heimliche) Einführung von PhotoDNA (oder einer ähnlichen Technik) war ein Problem, da es eben ganz krass gegen das andauernde „Privacy“-Gerede von Apple steht. „Wir scannen deine Daten nicht“, „wir analysieren deine Daten nicht“, usw usw usw
Apple scannt in der iCloud Fotos, und damals wie heute und das schon lang. Das müssen sie als Cloud Provider auch.Jetzt wird es gar keinen Scan mehr von Bildern in der Fotobibliothek geben, da ja die Fotos mit der neuen Advanced Privacy Protection Ende-zu-Ende verschlüsselt auf dem Server landen.
Gescannt hat Apple vorher (und vermutlich weiterhin), soweit ich gelesen habe, nur Mails.
ist eigentlich in den USA seit 1987 relevant der den Besitz und den Vertrieb solchen Materials in Abhängigkeit der Einstufung ziemlich genau sehr streng Reguliert.Also von nem „Gesetz“ dazu weiß ich jetzt auch nichts. Gibt es eine Quelle zu dieser Pflicht?
Grundsätzlich stimme ich nicht ganz zu, dass es nur um On Device ging. Das war natürlich eine noch größere Eskalation. Aber auch die (Heimliche) Einführung von PhotoDNA (oder einer ähnlichen Technik) war ein Problem, da es eben ganz krass gegen das andauernde „Privacy“-Gerede von Apple steht. „Wir scannen deine Daten nicht“, „wir analysieren deine Daten nicht“, usw usw usw
Apple scannt in der iCloud Fotos, und damals wie heute und das schon lang. Das müssen sie als Cloud Provider auch.
sie haben sich aber durch die Problematik "Unwissenheit schützt vor Strafe nicht "seit 2010 dazu bereit erklärt um eben nicht in Erklärungsnot zu kommen. Es sind nicht nur die Mails davon betroffen sondern der komplette Cloud-content.Und Scannen müssen sie per Gesetz nicht, sondern melden, wenn sie von so einem Vorfall Wissen erlangt haben.
Ein verpflichtendes Scannen soll aus diesem Gesetz ausdrücklich nicht abgeleitet werden. (weiter unten unter f)
Wir verwenden essentielle Cookies, damit diese Website funktioniert, und optionale Cookies, um den Komfort bei der Nutzung zu verbessern.
Für die Ihnen angezeigten Verarbeitungszwecke können Cookies, Geräte-Kennungen oder andere Informationen auf Ihrem Gerät gespeichert oder abgerufen werden.
Anzeigen und Inhalte können basierend auf einem Profil personalisiert werden. Es können mehr Daten hinzugefügt werden, um Anzeigen und Inhalte besser zu personalisieren. Die Performance von Anzeigen und Inhalten kann gemessen werden. Erkenntnisse über Zielgruppen, die die Anzeigen und Inhalte betrachtet haben, können abgeleitet werden. Daten können verwendet werden, um Benutzerfreundlichkeit, Systeme und Software aufzubauen oder zu verbessern.
Durch das Klicken des Buttons "Zustimmen" willigen Sie gem. Art. 49 Abs. 1 DSGVO ein, dass auch Anbieter in den USA Ihre Daten verarbeiten. In diesem Fall ist es möglich, dass die übermittelten Daten durch lokale Behörden verarbeitet werden.