• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Es regnet, ist neblig und kalt, alle sind krank und der Chef wird zunehmend cholerisch. Das Thema des Monats ist also folgerichtig --> Das Grau(en)
    Wir sind gespannt, war Euch dazu einfällt! Zum Wettbewerb --> Klick

Schutz gegen Kindesmissbrauch: Auch interne Kritik gegen Filter

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
15.030
applepark-700x401.jpg


Jan Gruber
Apple hat vergangene Woche Maßnahmen gegen Kindesmissbrauch vorgestellt, seitdem hagelt es von einigen (prominenten und relevanten) Stellen erheblich Kritik. Neuen Berichten nach gilt das auch für Apple Mitarbeiter.

Der Vektor der Kritik ist grundsätzlich immer derselbe: Apple bereitet ihr den Weg für vorgeschriebene, systemseitige Schwachstellen vor. Eine Gratwanderung gegen die sich Apple seit vielen Jahren (erfolgreich) wehrt. Auch Mitarbeiter befürchten, dass das vorgestellte System auch für (andere) Überwachung eingesetzt werden kann.
Apple-Mitarbeiter haben einen Apple-internen Slack-Kanal mit mehr als 800 Nachrichten über den vor einer Woche angekündigten Plan geflutet, sagten Mitarbeiter, die nicht genannt werden wollten, gegenüber Reuters. Viele äußerten die Sorge, dass die Funktion von repressiven Regierungen ausgenutzt werden könnte, die nach anderem Material für Zensur oder Verhaftungen suchen, so Mitarbeiter, die den tagelangen Thread sahen.

Kindesmissbrauch - Filter mit viel Potenzial


Laut Reuters haben sich Mitarbeiter von internen Slack-Kanälen zu Wort gemeldet - mit mehreren hundert Nachrichten. Die Kritik betrifft die neue Infrastruktur zum Kampf gegen Kindesmissbrauch. Das System könne Begehrlichkeiten von Staaten wecken.

Apple nimmt in seiner FAQ auf diesen Punkt auch Stellung.
Apple wird derartige Forderungen ablehnen. Apples CSAM-Erkennungsfunktion ist ausschließlich darauf ausgelegt, bekannte CSAM-Bilder zu erkennen, die in iCloud Photos gespeichert sind und von Experten des NCMEC und anderen Kinderschutzgruppen identifiziert wurden. Wir waren schon früher mit Forderungen konfrontiert, staatlich verordnete Änderungen zu entwickeln und zu implementieren, die die Privatsphäre der Nutzer beeinträchtigen, und haben diese Forderungen standhaft abgelehnt.

Apple hält weiter Stand


Seit Tagen befindet sich Apple in Schadensbegrenzungsmodus. Der Konzern hält weiter daran fest das System mit iOS 15 auch einzuführen. Zudem sollen auch Drittanbieter diese Filtermechanismen nutzen.

Via Reuters und MacRumors
Cover Apple Park via Unsplash

[su_box title="Unsere Haltung zu Gewalt" box_color="#ffffff" title_color="#000000" radius="0" class="live"]Apfeltalk und das ganze Team verurteilt Gewalt in jeder Form und insbesondere an Kindern. Diese abscheulichen Straftaten gehören verfolgt und die Täter mit der vollen Härte des Gesetzes bestraft. In unserer Berichterstattung geht es um die Verhältnismäßigkeit der Art wie hier ermittelt werden soll.*

Den Artikel im Magazin lesen.
 
Zuletzt bearbeitet von einem Moderator:

Butterfinger

Kaiser Alexander
Registriert
28.04.15
Beiträge
3.939
Könnte ein iOS werden, das nicht direkt nach Release installiert wird. Bin mal auf die Grafik gespannt.

Wer drückt denn so massiv gegen Apples Tür 😅?
 
  • Like
Reaktionen: paul.mbp

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
22.002
"Apple werde solche Anfragen ablehnen.".
Die Antwort darauf: Apple steht nicht über dem Gesetz. Und dann? Ach menno.

Ist das "You're holding it wrong" just shit happening (zumindest was die PR angeht; das Problem selbst war schon ein Systemversagen) oder ist das beabsichtigt? So groß wie das ist hat das auch Apple nicht in einer Stunde gebaut und *muss* man von letzterem ausgehen.