Mitglied 241048
Gast
Warte nur, das kommt alles noch
Vielleicht doch lieber nicht Grün wählen?
Warte nur, das kommt alles noch
“Fanatasien, Spekulationen, Verschwörungsängste“
“Fanatasien, Spekulationen, Verschwörungsängste“
Sehen die Verantwortlichen tatsächlich in allen Bürgern potentielleTerrorist:innen
Die EU hat gerade erst vor kurzem den Anbietern erlaubt Nachrichten und andere Inhalte in Echtzeit nach verdächtigen Inhalten zu durchsuchen. Das ganze ist unter dem Begriff "ePrivacy-Ausnahmeverordnung" bekannt.
Das reicht noch nicht? Richtig! Denn der nächste Schritt ist ja schon auf dem Weg: https://ec.europa.eu/info/law/bette...rnung-und-Meldung-illegaler-Online-Inhalte_de
Über die Vorlage zur Folgeverordnung zum VERPFLICHTENDEN Einsatz jener Kontrollmaßnahmen soll noch im Herbst diesen Jahres abgestimmt werden.
Im Unterschied zu der Apple-Aktion ist das aber zumindest formell demokratisch legitimiert.
Besser wird es dadurch natürlich trotzdem nicht. Willkommen in der Volksrepublik EU.
Das wollte ich damit auch nicht ausdrücken. Vielmehr wollte ich grundsätzlich darauf hinweisen, dass es da noch einen wichtigen Unterschied gibt.Ich habe auch nicht die Rechtmäßigkeit der Maßnahme in Frage gestellt,
So ist es. Vielleicht sollte Apple das auch mal kommunizieren.Im Übrigen legitimiert das natürlich auch Apples Vorgehen - spätestens ab Herbst VERPFLICHTET es sie sogar.
So ist es. Vielleicht sollte Apple das auch mal kommunizieren.
“Fanatasien, Spekulationen, Verschwörungsängste“
Wie viele Fälle wurden gemeldet
In an announcement titled "Expanded Protections for Children", Apple explains their focus on preventing child exploitation.
The article starts with Apple pointing out that the spread of Child Sexual Abuse Material (CSAM) is a problem. I agree, it is a problem. At my FotoForensics service, I typically submit a few CSAM reports (or "CP" -- photo of child pornography) per day to the National Center for Missing and Exploited Children (NCMEC). (It's actually written into Federal law: 18 U.S.C. § 2258A. Only NMCEC can receive CP reports, and 18 USC § 2258A(e) makes it a felony for a service provider to fail to report CP.) I don't permit porn or nudity on my site because sites that permit that kind of content attract CP. By banning users and blocking content, I currently keep porn to about 2-3% of the uploaded content, and CP at less than 0.06%.
According to NCMEC, I submitted 608 reports to NCMEC in 2019, and 523 reports in 2020. In those same years, Apple submitted 205 and 265 reports (respectively). It isn't that Apple doesn't receive more picture than my service, or that they don't have more CP than I receive. Rather, it's that they don't seem to notice and therefore, don't report.
Apple's devices rename pictures in a way that is very distinct. (Filename ballistics spots it really well.) Based on the number of reports that I've submitted to NCMEC, where the image appears to have touched Apple's devices or services, I think that Apple has a very large CP/CSAM problem.
[Revised; thanks CW!] Apple's iCloud service encrypts all data, but Apple has the decryption keys and can use them if there is a warrant. However, nothing in the iCloud terms of service grants Apple access to your pictures for use in research projects, such as developing a CSAM scanner. (Apple can deploy new beta features, but Apple cannot arbitrarily use your data.) In effect, they don't have access to your content for testing their CSAM system.
If Apple wants to crack down on CSAM, then they have to do it on your Apple device. This is what Apple announced: Beginning with iOS 15, Apple will be deploying a CSAM scanner that will run on your device. If it encounters any CSAM content, it will send the file to Apple for confirmation and then they will report it to NCMEC. (Apple wrote in their announcement that their staff "manually reviews each report to confirm there is a match". They cannot manually review it unless they have a copy.)
While I understand the reason for Apple's proposed CSAM solution, there are some serious problems with their implementation.
Was mich aber mal interessieren würde ,... Diese ganzen Scans laufen ja schon in der Cloud lange. Bei Apple, bei Google, bei Facebook. Ich will da jetzt keine Diskussion anfangen ob das in Ordnung ist oder nicht - Cloud ist nunmal "jemand anderes Computer" - aber was anderes würde mich interessieren: Wie viele Fälle wurden gemeldet und was brachte es am ENde? Wie viele Verhaftungen gab es da?
Was mich aber mal interessieren würde ,... Diese ganzen Scans laufen ja schon in der Cloud lange. Bei Apple, bei Google, bei Facebook. Ich will da jetzt keine Diskussion anfangen ob das in Ordnung ist oder nicht - Cloud ist nunmal "jemand anderes Computer" - aber was anderes würde mich interessieren: Wie viele Fälle wurden gemeldet und was brachte es am ENde? Wie viele Verhaftungen gab es da?
Die Fragestellung sollte meiner Meinung frei von solchem Framing geführt werden - es ist vielmehr eine grundsätzliche Entscheidung.
Um ein gewisses Framing wird man bei solchen Entscheidungen nicht herumkommen - es ist eine Abwägung von Interessen. Mit Vor- und Nachteilen auf beiden Seiten.
Hash Algorithmen sind prinzipiell nicht kollissionsfest, da eine längere Binärinformation auf eine kürzere Binärinformation abgebildet wird. Gute Algorithmen machen es relativ schwer aus einem bekannten Hashwert eine Eingabe zu bauen, die den gleichen Hashwert erzeugt. Das ändert aber nichts daran, dass das bei jedem Hashalgorithmus möglich ist.Wenn ich das richtig sehe, wurde bei Github eine ziemlich schlechte, ganz offensichtlich nicht kollisionsresistente Funktion benutzt, die Hashwerte mit gerade mal 96 Bit erzeugt. Man kann wohl davon ausgehen, dass CSAM auf einer kryptographisch sicheren Funktion basiert.
“Fanatasien, Spekulationen, Verschwörungsängste“
Ich nehme an das war zynisch von dir und so die gängigen Argumente der Gegenpartei, oder?
Kann man so sehen, ist aber halt faktisch falsch und daher dumm.
Apple says collision in child-abuse hashing system is not a concern
Serious flaw in Apple’s CSAM scanner uncovered.www.theverge.com
Apple’s child-abuse scanner has serious flaw, researchers say
Und hier mal ein ganz interessanter Artikel zur allgemeinen Einordnung und auch mal ein paar praktischen Zahlen aus diesen Verfahren:
One Bad Apple - The Hacker Factor Blog
www.hackerfactor.com
Wir verwenden essentielle Cookies, damit diese Website funktioniert, und optionale Cookies, um den Komfort bei der Nutzung zu verbessern.
Für die Ihnen angezeigten Verarbeitungszwecke können Cookies, Geräte-Kennungen oder andere Informationen auf Ihrem Gerät gespeichert oder abgerufen werden.
Anzeigen und Inhalte können basierend auf einem Profil personalisiert werden. Es können mehr Daten hinzugefügt werden, um Anzeigen und Inhalte besser zu personalisieren. Die Performance von Anzeigen und Inhalten kann gemessen werden. Erkenntnisse über Zielgruppen, die die Anzeigen und Inhalte betrachtet haben, können abgeleitet werden. Daten können verwendet werden, um Benutzerfreundlichkeit, Systeme und Software aufzubauen oder zu verbessern.
Durch das Klicken des Buttons "Zustimmen" willigen Sie gem. Art. 49 Abs. 1 DSGVO ein, dass auch Anbieter in den USA Ihre Daten verarbeiten. In diesem Fall ist es möglich, dass die übermittelten Daten durch lokale Behörden verarbeitet werden.