• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Es regnet, ist neblig und kalt, alle sind krank und der Chef wird zunehmend cholerisch. Das Thema des Monats ist also folgerichtig --> Das Grau(en)
    Wir sind gespannt, war Euch dazu einfällt! Zum Wettbewerb --> Klick

Apple prüft Fotos künftig auf Kinderpornographie

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.329
Was ist wenn in einigen weniger freiheitlich orientierten Ländern Oppositionelle Dokumente in der Hash Liste auftauchen? Was ist wenn die Prüfung von Bildern auf Dokumente ausgeweitet wird?
Was ist wenn eigentlich ständig deine Kamera am iPhone mitläuft? Was ist, wenn Apple jede Tastatur-Eingabe trackt und Regimen zur Verfügung stellt? Etc., etc., etc.

Wenn man böswillige Absichten unterstellen möchte, gibt es sicher andere Anlässe, als eine sehr eng definierte Überprüfung auf Kinderpornographie.

und es macht den Eindruck, dass da doch die rosafarbene Applebrille einen Einfluss hat.
Ich gehe auf einen Post, dessen ziel schlichtweg die Diskreditierung anderer Meinungen ist, nicht näher ein.
 
  • Like
Reaktionen: NorbertM

MichaNbg

Brauner Matapfel
Registriert
17.10.16
Beiträge
8.352
"Die Dateien werden mit einer Datenbank bekannter Hashwerte von CSAM-Inhalten, die das US-Non-Profit National Center for Missing and Exploited Children (NCMEC) sammelt, abgeglichen. Apple nutzt allerdings eine eigene Methode namens "NeuroHash", die laut dem White Paper nicht nur eindeutige Treffer, sondern auch "nahezu identische" Aufnahmen finden können soll, die sich in Größe oder Kompressionsqualität vom Original unterscheiden." (https://www.heise.de/news/Apple-pla...os-Sicherheitsforscher-alarmiert-6156542.html)

Es waren mehrere Artikel, deswegen schrieb ich "weiterlesen!" :)
Das zielt IMHO auf die Möglichkeit ab, auch "Alternativversionen" von einem bestimmten Bild zu finden. Wenn es sich dabei nicht nur auf "Manipulation" des ursprünglichen Bildes beschränkt sondern bsp. wirklich "andere" Bilder bsp. aus der gleichen Serie, die bislang aber nicht bekannt waren, bezieht, dann sind wir wieder in der Problematik, dass hier false positives gezogen werden. Und der Anwender hat dann den Ärger am Hals. Und dies ist in dem Fall auch wahrscheinlicher als bsp. beim Einsatz von PhotoDNA.


Was ist wenn eigentlich ständig deine Kamera am iPhone mitläuft? Was ist, wenn Apple jede Tastatur-Eingabe trackt und Regimen zur Verfügung stellt? Etc., etc., etc.

Wenn man böswillige Absichten unterstellen möchte, gibt es sicher andere Anlässe, als eine sehr eng definierte Überprüfung auf Kinderpornographie.
Hat ja nicht lange gedauert, bis es mit "aber es ist doch Apple" relativieren möchte 😅

Egal wie gut vielleicht Apples Absichten sein mögen. Dieser Eingriff ins lokale System ist ein GAU und Apple darf niemals wieder davon sprechen, dass ihnen die Privatssphäre der Kunden wichtig wäre. Es ist ihnen nicht. Sie reissen gerade ein riesiges Loch in die Schutzwand und wollen eine Tapete drüber kleben.
 

Mitglied 87291

Gast
@Martin Wendel

Nur dass es für die von mir beschriebene Verhaltensweise von Apple bereits hinreichend belege gibt. Apple stellt China alle Nutzerschlüssel zur Verfügung um auf alle iCloud Daten, Backups und teilweise auch iMessage Verläufe zuzugreifen.


Da klingt eine zusätzliche Liste zum Hash Abgleich nicht sonderlich abwegig.

Nebenbei, das Kameras in Laptops teilweise ferngesteuert wurden ist ebenfalls ein alter Hut, also nicht sonderliche Science-Fiktion.


Das Apple aufgrund des Drucks von SIcherheitsbehörden der USA keine Verschlüsselung für Backups anbietet, ebenfalls belegt.


Jetzt anzunehmen dass ein Feature, welches die Überwachung jeglicher Daten vor Ort auf dem Gerät erlaubt, nur zum Wohle der Kinder genutzt wird, ist mindestens naiv.

Mal abgesehen davon dass durch dieses Feature kein einziges Kind geschützt wird, da Bilder nur mit existierenden Bildern verglichen werden. Wenn jemand sein iPhone für die Aufnahme entsprechender Taten nutzt, werden genau diese Bilder nicht erkannt.

Ein hanebüchenes Projekt, ohne Nutzen, welches massiv die Sicherheit und Privatsphäre der Nutzer gefährdet. Vielleicht nicht in Europa, aber mindestens in autokratischen Staaten.
 

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
22.002
Mal abgesehen davon dass durch dieses Feature kein einziges Kind geschützt wird, da Bilder nur mit existierenden Bildern verglichen werden. Wenn jemand sein iPhone für die Aufnahme entsprechender Taten nutzt, werden genau diese Bilder nicht erkannt.
das glaube ich nicht. In parallelen Berichten wurde auf die neue Kinderschutzfunktion in iMessage hingewiesen (noch mal ein anderes Thema, aber die Verbindung hier zu ziehen, ist nicht weit hergeholt und nur Apple kann oder wird die Verbindung auch technisch realisieren):
"
Details zur Erkennung expliziter Inhalte
Weitere Details gibt es auch zu einer weiteren umstrittenen neuen Funktion: Einen "Nacktscanner" in iMessage. Das Feature soll künftig Kinder warnen, wenn sie "sexuell explizite Inhalte" erhalten oder versenden – gleichzeitig werden die Eltern informiert. Dabei wird ein erkanntes Bild zunächst unkenntlich gemacht und der Nachwuchs muss entscheiden, ob er es wirklich sehen möchte. Dann gibt es aber eine Benachrichtigung an die Erziehungsberechtigten.

Hier heißt es von Apple nun, dass dieses Scanning "nur für Kinder" gedacht ist. Zudem sollen besagte Benachrichtigungen nur an Eltern von Kindern gehen, die unter 13 Jahre alt sind. Eltern müssten zudem die "Communication Safety"-Funktion aktivieren, was wiederum über die Familienfreigabe läuft. Das System soll auch "intime Teile des Körpers" erkennen und vor einem Absenden warnen. "Es ist nicht Dein Fehler, aber sensible Fotos und Videos können verwendet werden, um Dich zu verletzen", heißt es in einem der Hinweise. Den Nacktscanner will Apple direkt in iMessage einbauen, also in iOS 15, iPadOS 15 sowie macOS 12 alias Monterey,. (bsc)"

Natürlich ist das valide. Natürlich sollen Kinder geschützt werden. Aber ob nun gewarnt wird, dass vom eigenen Säugling ein Bild zu explizit ist oder ob die Urheberrechte an der Mona Lisa eben nicht mir gehören - ist technisch in dieser Implementation identisch.
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.329
Mal abgesehen davon dass durch dieses Feature kein einziges Kind geschützt wird, da Bilder nur mit existierenden Bildern verglichen werden. Wenn jemand sein iPhone für die Aufnahme entsprechender Taten nutzt, werden genau diese Bilder nicht erkannt.
Ich empfehle dir, die Original-Quelle von Apple zu lesen:

Nur dass es für die von mir beschriebene Verhaltensweise von Apple bereits hinreichend belege gibt.
Nicht belegte Nachrichten-Artikel als Belege zu bezeichnen, halte ich für irreführend.
Nebenbei, das Kameras in Laptops teilweise ferngesteuert wurden ist ebenfalls ein alter Hut, also nicht sonderliche Science-Fiktion.
Falls dir der Kontext meines Beitrags entgangen ist: Ich meinte, dass man Apple genauso unterstellen könnte, jetzt schon alles mitzufilmen.
 

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
22.002
Nicht belegte Nachrichten-Artikel als Belege zu bezeichnen, halte ich für irreführend.
Die Firma heise gibt es schon lange und die sind für kompetenten und nach stringenten Regeln validen Journalismus bekannt. Wenn die etwas berichten, dann darf man davon ausgehen, dass sie das recherchiert und überprüft haben.
 

Technobilder

Carola
Registriert
15.10.08
Beiträge
111
Wie lange wird es dauern, bis bei den ersten APPLE Managern dann Kinderpornos gefunden werden?

Das gibt's nicht sagt Ihr... LOL


Der saudische Kronprinz Mohammed bin Salman (34) soll das Handy des Amazon-Chefs Jeff Bezos (56) gehackt haben – mithilfe einer Virus-verseuchten WhatsApp-Videodatei.
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.329
Die Firma heise hat es schon vor Euch gegeben und die sind für kompetenten und nach stringenten Regeln validen Journalismus bekannt.
Wie kommst du darauf, dass ich von Heise spreche? Ich rede von dem Reuters-Artikel, der sich auf nicht namentliche Quellen beruft. Das ist kein Beleg.
 

Mitglied 87291

Gast
Falls dir der Kontext meines Beitrags entgangen ist: Ich meinte, dass man Apple genauso unterstellen könnte, jetzt schon alles mitzufilmen.
Ja, das könnte man tun. Aber dafür gibts nunmal keinen einzigen Beleg. Während das kollaborieren mit Überwachungsstaaten hinreichend belegt ist. Sogar das Aushebeln eigener Sicherheitsmechanismen bzw. das komplette verhindern dieser.
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.329
ich weiß nicht, worauf Du Dich beziehst, aber ich habe hier nur heise-Artikel verlinkt, falls es aufgefallen ist.
Ich habe dich doch nicht einmal angesprochen.

Ja, das könnte man tun. Aber dafür gibts nunmal keinen einzigen Beleg. Während das kollaborieren mit Überwachungsstaaten hinreichend belegt ist. Sogar das Aushebeln eigener Sicherheitsmechanismen bzw. das komplette verhindern dieser.
Ok, egal. Du willst mich offenbar nicht verstehen.
 

Cohni

Ananas Reinette
Unvergessen
Registriert
04.08.11
Beiträge
6.206
Ich muss mich mal als ahnungsloser Fragesteller entpuppen.

Ja, auch als AT-Moderator…😜…By the way finde ich das immer lustig, wenn uns sowas in einer Diskussion vorgeworfen wird, weil wir eine kontroverse Meinung vertreten. Als wenn dies irgendein ein Hemmnis wäre, außerhalb der moderativen Tätigkeit, auch mal eine streitbare Sicht zu haben.

Wie oben geschrieben, bin ich ambivalent. Lass es die rosarote Apple-Brille sein oder nicht.

Wenn ich das richtig verstanden habe, nutzt Apple ja schon seit einiger Zeit einen Algorithmus, der unsere Fotos scannt. Gesichtererkennung, Motivzuordnung etc. Richtig?
Ergebnis sind halt irgendwelche Sammlungen, die einem von der Foto-App vorgeschlagen werden.

Das alles ist doch auch schon längst missbräuchlich nutzbar, gab es bei der Einführung dieser Feature auch so einen Aufschrei? Jetzt kommt halt ein Trigger dazu.

Natürlich mit der Möglichkeit, noch und dann „böse“ Trigger zu implementieren.

Also ist der Mechanismus doch „alt“ oder sehe/weiß ich das falsch?

Ein wirkliche Problem, was ich aus strafrechtlicher Sicht momentan sehe, sind die falsch positiven „Befunde“.

Wie will ein Apple-Mitarbeiter, der nicht Mitarbeiter einer Strafverfolgungsbehörde ist, bei grenzwertigen Bildern entscheiden, mit welcher Intention sie erstellt wurden und ob sie wirklich strafrechtlich relevant sind.

Also ich sehe eher im Detail Probleme.

Ist der große „Hach-Wir-Werden-Überwacht-Aufreger“ an dieser Stelle nicht viel zu spät?

Ohne die Ernsthaftigkeit dieser Gefahren klein reden zu wollen und vor allem, ohne wirklich Ahnung zu haben.
 

alex34653

Akerö
Registriert
15.09.08
Beiträge
1.837
So, ich fasse Mal zusammen:
- Apple will Bilder nach Verbotenem - sehr eng definiert mit „Kinderpornographie“ - scannen
- Dies durch mgw. Hashwerte gespeicherter Bilder abzugleichen
- Es soll (in Folge aber auch) automatisch erkannt werden wenn ein Bild ähnlich einem bekannten ist

Durch diese Maßnahme sollen nicht die Schwächsten unserer Gesellschaft geschützt werden, nein - sie WERDEN dadurch geschützt. Als jemand der ganz augenscheinlich viel Erfahrungen im Hinblick auf traumatisierte Opfer - und zwar Jahre nachdem sie missbraucht wurden - gemacht hat begrüße ich diesen Schritt.

Einige Ängste kann ich euch nehmen
- das FBI wird keine Hausdurchsuchung bei euch durchführen, weil ihr Nirvana hört
- ebensowenig spuckt ein M1-MacBook einen Zettel aus auf dem eure Festnahme angeordnet wird
- die Ergebnisse werden in Folge geprüft - dies passiert NATÜRLICH im Rahmen der Vorschriften, die für euer Land gelten (wobei ich dann doch denke, dass Kinderpornographie nicht so unterschiedlich behandelt wird, und damit meine ich kein „Nipplegate“ bei einer SuperBowl oder vergleichbares).

Selbstverständlich könnte dies in Folge auch anders ausgelegt/missbraucht werden sollen. Jedoch stellt sich Apple da aus meiner Sicht absolut korrekt dagegen, auch schon bis jetzt. Ja, nicht immer - denn auch euer Handy ist kein rechtsfreier Raum und jeder, der in einem Staat leben/handeln will ist an Gesetze gebunden bzw. denen unterworfen (auch Apple).

Noch dazu wenn andere zu massivem Schaden kommen.

Nebenbei: Seid euch sicher, wenn ihr in einem autokratischen/diktatorischen System leben würdet würdet ihr ohnehin dem Staat die Zugangsdaten zu euren Geräten geben, sofern dieser sie will. Wenn er sie überhaupt will, und euch nicht ohnehin wegsperrt. Ob mit oder ohne Anklage.
 
  • Like
Reaktionen: NorbertM

MichaNbg

Brauner Matapfel
Registriert
17.10.16
Beiträge
8.352
Das alles ist doch auch schon längst missbräuchlich nutzbar, gab es bei der Einführung dieser Feature auch so einen Aufschrei? Jetzt kommt halt ein Trigger dazu.
Ja, diese Techniken gibt es schon lange. Aber sie liefen nie direkt auf deinem Endgerät sondern erst, wenn du Daten auf fremde Server übertragen hast. Dies ist schon nochmal eine andere Qualität.

Oder wie es Matthew Green formuliert:
Um diese Inhalte anzuzeigen, benötigen wir die Zustimmung zum Setzen von Drittanbieter-Cookies.
Für weitere Informationen siehe die Seite Verwendung von Cookies.

denn auch euer Handy ist kein rechtsfreier Raum
Dieses "Argument" (kann man eigentlich gar nicht so nennen) ist haarsträubender Unsinn. Oder befürwortest du auch dauerhafte Überwachung und Bewertung deines Hauses mit dem Argument "Dein Wohnzimmer ist kein rechtsfreier Raum"?

Da bleibt einem wirklich die Spucke weg....
 

alex34653

Akerö
Registriert
15.09.08
Beiträge
1.837
Du musst andere Meinungen und Argumente nicht versuchen abzuqualifizieren, wenn sie nicht deiner eigenen entsprechen.

Korrekt, auch dein Wohnzimmer ist kein rechtsfreier Raum. Wenn der Verdacht besteht dass darin Straftaten passieren wird es betreten/durchsucht und diese unterbunden werden.

Analogie:
Wohnzimmer: Gerät
Verdacht: Algorithmus (der sogar weit objektiver ist als mancher Nachbar)
Betreten/Durchsuchung: Prüfung, ob tatsächlich etwas vorliegt
 
  • Like
Reaktionen: Sequoia

MichaNbg

Brauner Matapfel
Registriert
17.10.16
Beiträge
8.352
Du musst andere Meinungen und Argumente nicht versuchen abzuqualifizieren, wenn sie nicht deiner eigenen entsprechen.
Um etwas "abqualifizieren" zu können, müsste es überhaupt eine gewisse Qualität aufweisen. Die Schiene "ich habe nichts zu verbergen" weißt keine Qualität auf.


Korrekt, auch dein Wohnzimmer ist kein rechtsfreier Raum. Wenn der Verdacht besteht dass darin Straftaten passieren wird es betreten/durchsucht und diese unterbunden werden.

Analogie:
Wohnzimmer: Gerät
Verdacht: Algorithmus (der sogar weit objektiver ist als mancher Nachbar)
Betreten/Durchsuchung: Prüfung, ob tatsächlich etwas vorliegt
Die korrekte Analogie wäre:
Apple installiert eine Kamera in deinen Zimmern und analysiert zu jeder Zeit, was sich in diesen Zimmern abspielt. Falls Apple der Ansicht ist, dass du etwas verbotenes tust, senden sie die Aufzeichnungen des Vorgangs an die Behörden.

Das ist, was du befürwortest.
 

Mitglied 87291

Gast
Korrekt, auch dein Wohnzimmer ist kein rechtsfreier Raum. Wenn der Verdacht besteht dass darin Straftaten passieren wird es betreten/durchsucht und diese unterbunden werden.
Nur das Apple auf den Verdacht und das Betreten verzichtet. Apple ist quasi schon immer da und prüft verdachtsunabhängig alles was auf deinem Gerät passiert (schon klar, momentan nur die Fotos).

Ich finde dass solche Praktiken zu weit gehen und bin überrascht, wie wenig Aufschrei hier im Forum passiert. In englischsprachigen Foren brennt grad der Baum.
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.329
Ja, diese Techniken gibt es schon lange. Aber sie liefen nie direkt auf deinem Endgerät sondern erst, wenn du Daten auf fremde Server übertragen hast.
Natürlich laufen die von Cohni angesprochenen Techniken direkt am iPhone. Bei Google hingegen in der Cloud.
 

MichaNbg

Brauner Matapfel
Registriert
17.10.16
Beiträge
8.352
Natürlich laufen die von Cohni angesprochenen Techniken direkt am iPhone. Bei Google hingegen in der Cloud.
Was hat eine lokale Gesichtserkennung, die ich selbst mit Daten füttern muss, mit dem hier diskutierten Thema zu tun?

Also außer Apple gleicht die Gesichter auf Fotos mit staatlichen Datenbanken ab.
 
  • Like
Reaktionen: maddi06

Janelle

Starking
Registriert
21.09.18
Beiträge
221
nutzt Apple ja schon seit einiger Zeit einen Algorithmus, der unsere Fotos scannt. Gesichtererkennung, Motivzuordnung etc. Richtig?
Ergebnis sind halt irgendwelche Sammlungen, die einem von der Foto-App vorgeschlagen werden.
Natürlich laufen die von Cohni angesprochenen Techniken direkt am iPhone. Bei Google hingegen in der Cloud.
Also ich meine, damit Apple "Rückblicke" erstellen kann, muss man die Fotos in der iCloud speichern. Es funktioniert nicht, wenn man als Speicherort "auf meinem iPhone" ausgewählt hat. s. z.B. hier.