Sequoia
Swiss flyer
- Registriert
- 03.12.08
- Beiträge
- 17.479
Nicht nur die...einen Aluhut aufhaben
Nicht nur die...einen Aluhut aufhaben
das der kommen musste war klar und deckt sich bestens mit dem beschriebenen Verhalten.Nicht nur die...
Du hast nach gut 15000 Beiträgen nicht gelernt mit Andersdenkenden umzugehen und wirst ab erreichen des Sweetspots untergriffig?Genau wie die heiße Luft, die hier von Dir kommt. Deckt sich mit dem vergangenen Verhalten.
Wenn sich deine Bilder deiner Kinder in einer Datenbank mit kinderpronographischen Inhalten befinden, hast du sowieso ganz andere Probleme.Die Bilder der eigenen Kinder wird die KI nicht von anderen unterscheiden können und somit wird es eine Flut an falschen Meldungen geben und das geht einfach in die falsche Richtung.
Weist du diese Technologie funktioniert? Es hat doch das eine mit dem anderen nichts zu tun.Wenn sich deine Bilder deiner Kinder in einer Datenbank mit kinderpronographischen Inhalten befinden, hast du sowieso ganz andere Probleme.
Andersdenken ist völlig ok. Aber haltlose und nicht belegte Aussagen zu verbreiten, verpackt in teilweise denkanstoßgebenden Floskeln, ist sehr subtil und bestätigt eine Richtung, der man ebenso nur noch subtil begegnen kann. Das zeigt sich hier, und in fast allen anderen Beiträgen von Dir.Du hast nach gut 15000 Beiträgen nicht gelernt mit Andersdenkenden umzugehen und wirst ab erreichen des Sweetspots untergriffig?
Soll so sein
Apples Ansatz war, (unter anderem) On Device Scanning mit Bilderkennung. Nicht (nur) Prüfung eines Hashes gegen eine Hash-Datenbank.Wenn sich deine Bilder deiner Kinder in einer Datenbank mit kinderpronographischen Inhalten befinden, hast du sowieso ganz andere Probleme.
Absolut und wirklich bedenklich. Kommt noch dazu das die CSAM Geschichte vom Tisch und dennoch seit 2015 generell forciert wird und als API sogar für Entwickler zu Verfügung steht. Wenn lokal Ausgewertet, Bewertet und erst danach Verschlüsselt wird, ist Geschichte ziemlich witzlos denn was geschieht mit der Auswertung , dem Ergebnis?auch in der eigenen Redaktion für mehr Verständnis zur Thematik (was passiert und welche Risiken bestehen) sorgen könnte.
das Vertrauen in die Technik? Na sag mal Jan, dass ist doch unmittelbar Verzahnt und wenn uns die letzten Jahre eines zeigen, darauf ist ehe nicht zu vertrauen wie uns die MS Azure Geschichte zeigt. Und sie können schwören was immer sie wollen, es gibt immer einen Generalschlüssel. Was uns die Geschichte auch zeigt, dass sie allesamt immer irgendwann dabei ertappt werden Versprochenes zu Umgehen.
Da kann ich dir nur beipflichten wenn wir unsere aktuelle Geschichte mit dem Teichtmeister ansehen
Ja.Weist du diese Technologie funktioniert?
Ja, das ist theoretisch möglich. Aber was hat das jetzt mit den eigenen Kinderfotos zu tun, und dass man Angst hat dass Nacktaufnahmen dann plötzlich als problematisch vom System erkannt werden? Genau: Nichts.Im Gegenteil es wurden schon mal Hunde und andere Inhalte im Probelauf der CSAM Hash Vergleiche als Auffällig ausgewertet.
Danke, Apples Ansatz ist mir bekannt.Apples Ansatz
Das macht deinen Post dann nur umso schlimmer.Danke, Apples Ansatz ist mir bekannt.
Da du es nicht bleiben lassen kannst, gerne ausführlicher. Ich habe mich auf folgenden Beitrag bezogen:Das macht deinen Post dann nur umso schlimmer.
Ich war und bin immer noch ein Gegner des automatischen scannes von Bildern, ganz einfach weil die Technik den Unterschied zwischen harmlos und strafbar nicht kennt. Die Bilder der eigenen Kinder wird die KI nicht von anderen unterscheiden können und somit wird es eine Flut an falschen Meldungen geben und das geht einfach in die falsche Richtung.
ned böse sein aber wenn Du mit nem Hundefoto einen Treffer landen würdest, führt sich das System selbst ad absurdum. Gar nicht daran zu denken wenn deine Kinder so du welche haben solltest auf den Index kommen weil der Hash anschlägt, dass Foto an Apple gesandt bewertet wird und bei Unschlüssigkeit an die Behörden weitergeleitet werden würde.Ja, das ist theoretisch möglich. Aber was hat das jetzt mit den eigenen Kinderfotos zu tun, und dass man Angst hat dass Nacktaufnahmen dann plötzlich als problematisch vom System erkannt werden? Genau: Nichts.
mit Sicherheit nicht aber was fix ist, via CSAM wäre das tun nicht aufgeflogen denn das Smartphone war nicht involviert. Die werden durch ganz andere Umstände und leider viel zu wenig ertappt und verurteilt. OffLetztes Statement dazu, bitte nicht Richtung Treichtmeister und Rammstein hier diskutieren
leg mal vor, dann schau ich's mir an, wie das so ist hat dieses mal schon mal nicht geklappt... schadeDa du es nicht bleiben lassen kannst
Ich freue mich auf eine sinnvolle Antwort von dir, ohne Anschuldigungen, Beleidigungen und Anfeindungen.
Da fehlt leider der elementare Punkt, dass die Implementierung von On Device Verarbeitung und Bildinhalterkennung hier nicht halt machen würde. Wie lange würde es dauern, bis iCloud Daten nicht nur nach Hashes sondern auch nach Bildinhalt durchsucht und zentral gemeldet werden?Darin heißt es, dass die KI bei der Erkennung von Bildern nicht zwischen harmlos und strafbar unterscheiden hätte können und es eine Flut von falschen Meldungen gegeben hätte.
Apple hätte CSAM auf zweierlei Art analysiert:
Jetzt mal abgesehen davon, dass es theoretisch in seltenen Fällen die Möglichkeit gäbe, dass es beim Vergleich von Hashes zu False-Positives kommt (die aber nichts damit zu tun haben, ob das False-Positive ein Kinderfoto ist) - inwiefern hätte es mit den Plänen von Apple zu einer Flut an falschen Meldungen kommen sollen (sofern die Kinderfotos sich nicht in einer Datenbank mit kinderpornographischen Inhalten befinden)?
- Hashes aus in iCloud hochgeladenen Fotos hätten mit Hashes von bekannten, kinderpornographischen Materialien verglichen werden sollen.
- Eltern hätten auf Geräten ihrer Kinder einen Filter aktivieren können, damit Nacktfotos in der Nachrichten-App per Bilderkennung erkannt werden, und Kinder vor dem Öffnen gewarnt werden bzw. die Eltern informiert werden.
(Neuenschwander: Apples "Director of user privacy and child safety")“Scanning every user’s privately stored iCloud data would create new threat vectors for data thieves to find and exploit," Neuenschwander wrote. "It would also inject the potential for a slippery slope of unintended consequences. Scanning for one type of content, for instance, opens the door for bulk surveillance and could create a desire to search other encrypted messaging systems across content types.”
Apple maintains that, ultimately, even its own well-intentioned design could not be adequately safeguarded in practice, and that on-device nudity detections for features like Messages, FaceTime, AirDrop, and the Photo picker are safer alternatives.
On Heat Initiative's request that Apple create a CSAM reporting mechanism for users, the company told WIRED that its focus is on connecting its vulnerable or victimized users directly with local resources and law enforcement in their region
Meredith Whittaker schrieb:Apple's statement is the death knell for the idea that it's possible to scan everyone's comms AND preserve privacy.
Apple has many of the best cryptographers + software eng on earth + infinite $.
If they can't, no one can. (They can't. No one can.)
Diese beiden Punkte miteinander zu vermengen, halte ich nicht für besonders sinnvoll. Denn On-Device-Bilderkennung ist schon seit Jahren auf iPhones aktiv. Und es ist im übrigen bislang nicht dazu gekommen, dass dieses Feature (…)Da fehlt leider der elementare Punkt, dass die Implementierung von On Device Verarbeitung und Bildinhalterkennung hier nicht halt machen würde.
(…) ist. Das kann natürlich trotzdem noch passieren, aber hängt halt nur bedingt oder genau genommen gar nicht damit zusammen, ob Apple nun auf Nacktbilder scannt oder nicht. Weil für die Technologie macht es praktisch Null Unterschied, nach welchen Bildinhalten jetzt konkret geprüft wird. Der große Aufschrei kommt interessanterweise aber dann, wenn nach Kinderpornographie und Dick Pics gescannt wird - aber nicht nach Fußbällen.(…) innerhalb kürzester Zeit - im Zweifel aufgrund von Auflagen - ausgeweitet und erweitert worden (…)
Man könnte jetzt trefflich darüber spekulieren, weshalb Apple sein On Device Processing in der Antwort an die Lobbygruppen so herausgestellt hat und weshalb sie das für sinnvoller halten.Diese beiden Punkte miteinander zu vermengen, halte ich nicht für besonders sinnvoll. Denn On-Device-Bilderkennung ist schon seit Jahren auf iPhones aktiv. Und es ist im übrigen bislang nicht dazu gekommen, dass dieses Feature (…)
(…) ist. Das kann natürlich trotzdem noch passieren, aber hängt halt nur bedingt oder genau genommen gar nicht damit zusammen, ob Apple nun auf Nacktbilder scannt oder nicht. Weil für die Technologie macht es praktisch Null Unterschied, nach welchen Bildinhalten jetzt konkret geprüft wird. Der große Aufschrei kommt interessanterweise aber dann, wenn nach Kinderpornographie und Dick Picks gescannt wird - aber nicht nach Fußbällen.
Ist es also gut, dass es solche Funktionen gibt? Teilweise ja, aufgrund des Missbrauchspotentials aber auch wieder nicht. Werden solche Funktionen in Zukunft wieder zurückgefahren? Kann ich mir ehrlicherweise kaum vorstellen. Ich befürchte eher, dass das Gegenteil der Fall ist.
Messenger wie WhatsApp und Signal sollen darüber verschickte Inhalte nur nach gesetzeswidrigen Inhalten durchsuchen müssen, wenn das "technisch möglich" ist.
Lehnen wir uns weit aus dem Fenster, wenn wir Apples On Device Processing als eine "existierende Technologie" klassifizieren, die dazu geeignet ist, "Inhalte zu kontrollieren"?Die für die Umsetzung der Überwachungsvorgabe zuständige Medienaufsichtsbehörde Ofcom werde angewiesen, Unternehmen nur zur Kontrolle von Inhalten anzuhalten, wenn die dafür nötige Technik existiert
Wenn also Apples Technik auf die Vorstellungen der britischen Regierung zutrifft, wird sie demnächst zum Suchen und Melden von CSAM eingesetzt werden müssen.Außerdem müsse solche Technik einen Minimalstandard bezüglich der Trefferquote bei der Suche nach Darstellungen von Kindesmissbrauch einhalten und nur solche finden.
Wozu "Spyware" entwickeln und auf die Smartphones ausbringen, wenn die Hersteller die passende Technologie frei Haus an alle Anwender ab Werk ausliefert?Vor allem für Ende-zu-Ende verschlüsselte Inhalte wie die Nachrichten, die über WhatsApp, Signal oder viele andere Messenger verschickt werden, dürfte solche Technik nicht umsetzbar sein. Vorstellbar wäre lediglich eine Überwachung der Inhalte direkt auf den Endgeräten, im Prinzip wäre dort eine Spyware der Regierung nötig.
wie kommts zu dieser Aussage...[Zitat editiert - Apfeltalk]
Wir verwenden essentielle Cookies, damit diese Website funktioniert, und optionale Cookies, um den Komfort bei der Nutzung zu verbessern.
Für die Ihnen angezeigten Verarbeitungszwecke können Cookies, Geräte-Kennungen oder andere Informationen auf Ihrem Gerät gespeichert oder abgerufen werden.
Anzeigen und Inhalte können basierend auf einem Profil personalisiert werden. Es können mehr Daten hinzugefügt werden, um Anzeigen und Inhalte besser zu personalisieren. Die Performance von Anzeigen und Inhalten kann gemessen werden. Erkenntnisse über Zielgruppen, die die Anzeigen und Inhalte betrachtet haben, können abgeleitet werden. Daten können verwendet werden, um Benutzerfreundlichkeit, Systeme und Software aufzubauen oder zu verbessern.
Durch das Klicken des Buttons "Zustimmen" willigen Sie gem. Art. 49 Abs. 1 DSGVO ein, dass auch Anbieter in den USA Ihre Daten verarbeiten. In diesem Fall ist es möglich, dass die übermittelten Daten durch lokale Behörden verarbeitet werden.