• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Na, habt Ihr genügend in Stoffen geschwelgt? Dann könntet Ihr Euch jetzt die zahlreichen Einsendungen dieses Monats anschauen und entscheiden, welches Foto davon Euch am Besten gefällt. Hier geht es lang zur Abstimmung --> Klick

Apple prüft Fotos künftig auf Kinderpornographie

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.307
Naja was heisst gelogen…
Ganz einfach: Gelogen heißt, wenn man bewusst die Unwahrheit sagt. Und Federighi hat sehr klar und eindeutig gesagt, dass überall dieselbe Datenbank zum Einsatz kommen wird und dass sie nicht von den Behörden „gezwungen“ wurden, diese Funktion einzuführen.

Und nochmal: Wenn wir schon so weit sind, das zu unterstellen... Dann ist ohnehin jegliche Hoffnung verloren, dass Daten in irgendeiner Form bei irgendwem „sicher“ sind.
 

FuAn

Moderator
AT Moderation
Registriert
18.07.12
Beiträge
2.379
Ganz einfach: Gelogen heißt, wenn man bewusst die Unwahrheit sagt. Und Federighi hat sehr klar und eindeutig gesagt, dass überall dieselbe Datenbank zum Einsatz kommen wird und dass sie nicht von den Behörden „gezwungen“ wurden, diese Funktion einzuführen.

Das hat er so explizit nicht gesagt, er hat “Software” gesagt. Das kann man nun auf die Datenbank beziehen wenn man will, oder eben auf die Software generell, und da werden faktisch schon heute Unterschiede für China und Russland gemacht.
Imho nicht mehr als ein Lippenbekenntnis.
 

ottomane

Golden Noble
Registriert
24.08.12
Beiträge
16.429
Und diese Funktion ist so konstruiert, dass sie nur bei iCloud Photos funktioniert.
… was letztlich völlig unlogisch ist. Wenn ich was zu verbergen habe, mache ich natürlich iCloud Photos aus.
Und wenn es angeschaltet ist, kommt Apple ohnehin an die Fotos ran.

Aber das hatten wir ja schon. Was wollen sie damit suggerieren?
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.307
Das hat er so explizit nicht gesagt, er hat “Software” gesagt.
Doch, er hat auch explizit „database“ gesagt.

Übrigens noch weitere Details:

Apple generates the on-device perceptual CSAM hash database through an intersection of hashes provided by at least two child safety organizations operating in separate sovereign jurisdictions – that is, not under the control of the same government. Any perceptual hashes appearing in only one participating child safety organization’s database, or only in databases from multiple agencies in a single sovereign jurisdiction, are discarded by this process, and not included in the encrypted CSAM database that Apple includes in the operating system. This mechanism meets our source image correctness requirement.

(…)

The perceptual CSAM hash database is included, in an encrypted form, as part of the signed operating system. It is never downloaded or updated separately over the Internet or through any other mechanism. This claim is subject to code inspection by security researchers like all other iOS device-side security claims.

Since no remote updates of the database are possible, and since Apple distributes the same signed operating system image to all users worldwide, it is not possible – inadvertently or through coercion – for Apple to provide targeted users with a different CSAM database. This meets our database update transparency and database universality requirements.

Apple will publish a Knowledge Base article containing a root hash of the encrypted CSAM hash database included with each version of every Apple operating system that supports the feature. Additionally, users will be able to inspect the root hash of the encrypted database present on their device, and compare it to the expected root hash in the Knowledge Base article. That the calculation of the root hash shown to the user in Settings is accurate is subject to code inspection by security researchers like all other iOS device-side security claims.
 

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.908
… was letztlich völlig unlogisch ist. Wenn ich was zu verbergen habe, mache ich natürlich iCloud Photos aus.
Und wenn es angeschaltet ist, kommt Apple ohnehin an die Fotos ran.

Aber das hatten wir ja schon. Was wollen sie damit suggerieren?
"Sie" soll Apple sein? Da liest Du am besten die "Erklärungen" von Craig Federighi https://www.theverge.com/2021/8/13/...photos-iphone-ipad-csam-scanning-auditability

Was am besten zu Deiner Frage passt (und das Zitat ist selbst von theverge, Federighis Quote entsprechend eingerückt):
"Like many companies with cloud storage services, Apple will check iCloud Photos images against a list from the National Center for Missing and Exploited Children (NCMEC), looking for exact matches with known CSAM pictures. But unlike many services, it will run searches on the device, not fully remotely.
“Imagine someone was scanning images in the cloud. Well, who knows what’s being scanned for?”
Federighi said, referring to remote scans. “In our case, the database is shipped on device. People can see, and it’s a single image across all countries.”

“We ship the same software in China with the same database we ship in America, as we ship in Europe. If someone were to come to Apple [with a request to scan for data beyond CSAM], Apple would say no." (Federighi)

Ich weiß gar nicht, was ich dazu sagen soll. Meint Apple, dass sie über dem Gesetz stünden?

Im Nachgang schwadroniert er über "different levels of audability", als ob das diese Umdrehung bisherige Sicherheitsparadigmen und dessen implizite Risiken für alle Zeit ausschließen würde - auch das nur ein Konzept, an das man sich halten muss, was eben nicht garantiert ist.
 
  • Like
Reaktionen: ottomane

Sequoia

Swiss flyer
Registriert
03.12.08
Beiträge
17.366
Er sagt doch damit, dass es nicht möglich ist, dass ein Land daher kommt und eine andere Database fordert, weil es weltweit die Gleiche ist.
Würde China kommen und die Base ändern wollen, müsse sie weltweit auf allen Geräten geändert werden.

Jetzt kann man wieder spekulieren, was wenn dann vielleicht… Aber das bleibt eben Spekulation. Apple wird ja auch hier nicht müde zu betonen, dass es nicht so sein wird.

Mir ist, bei all dem Misstrauen noch immer nicht klar, was der Unterschied zu bisher ist:
Bis anhin wurden iCloud Fotos gescannt.
Neu ist: es werden iCloud Fotos gescannt.

Bis anhin wurden sie in Serverfarmen überprüft.
Neu ist: sie werden auf dem Gerät schon geprüft.

Bis hier hin gibt es keinen Unterschied.

Bisher nach meiner Abwägung sehe ich darin „viel Aufregung, des Aufregens Willens.“ Auch von sogenannten Experten. Deren Aufgabe ist es natürlich, alles erst mal (zumindest auch mit den wenigen Informationen zu Beginn der Ankündigung) kritisch zu durchleuchten.
 

jensche

Harberts Renette
Registriert
27.10.04
Beiträge
7.014
Eine sinnlose bla bla bla Diskussion von euch. Viel heisse Luft…

Was komplett in der ganzen Diskussion fehlt:

Denn wer kontrolliert die Datenbank von csam?

Diese ist eine Blackbox
 

Sequoia

Swiss flyer
Registriert
03.12.08
Beiträge
17.366
Die:

National Center for Missing and Exploited Children (NCMEC)




Ich bin mir nicht sicher, ob es teilweise auch daran liegt, dass man Kinder in diesem Alter hat. Aber für mich ist das (und das zählt auch zu meiner Risikoanalyse) seit Beginn die größte Sorge im Leben. Genau dieses perverse Gedankengut einiger Mitmenschen. Und daher setzt der Effort bei mir auch die Hemmschwelle sehr herab. Kurz: ich persönlich bin sehr viel bereit dazu zu geben, damit auch nur ein Fall verhindert oder ggf. enttarnt wird.
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.307

paul.mbp

Sternapfel
Registriert
20.06.09
Beiträge
4.977

“Imagine someone was scanning images in the cloud. Well, who knows what’s being scanned for?”

Und genau da haben wir doch das Problem!

Es wird gescannt und gegenüber einer blackbox Datenbank abgeglichen. Niemand kann wirklich nachprüfen was in dieser Datenbank enthalten ist. Und somit weiss niemand wonach gescannt wird

Das auf den Servern der CloudAnbieter gescannt werden kann, das auf dem Weg dorthin Daten abgegriffen werden können wissen wir alle spätestens seit Snowden. Mit dem Wissen kann man einwenig gegensteuern und zero-knowledge Anbieter und e2e Verbindungen nutzen und die Daten schon vor dem Versand, noch auf dem Gerät verschlüsseln.

Und dann kommt Apple mit seinem Werbeversprechen: „what happens on your iphone stays on your iphone“ und geht nun her und greift die Daten lokal auf dem Gerät ab bevor diese übertragen werden.

Apple startet nun die Schnüffelei die wir zähneknirschend in der Cloud hinnehmen mussten auf unseren Endgeräten, auf der letzten Bastion der Privatsphäre. Und das ohne konkrete Verdachtsmomente, ohne richterlichen Beschluss. Per Generalverdacht werden alle iOS devices weltweit mit einer Blackbox Datenbank abgeglichen.

Jetzt sind es „nur“ die Fotos die gegen das Totschlagargument KiPo gescannt werden.

Doch bleibt es dabei?

Well, who knows what’s being scanned for?
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.307
Es wird gescannt und gegenüber einer blackbox Datenbank abgeglichen. Niemand kann wirklich nachprüfen was in dieser Datenbank enthalten ist. Und somit weiss niemand wonach gescannt wird
Natürlich kannst du nicht die Bilder überprüfen, die in dieser Datenbank gespeichert sind (was ja absurd wäre). Aber die Datenbank besteht aus Hashes von überlappenden Bildern zwei komplett getrennter Institutionen und jeder kann den Hash-Wert der Datenbank auf seinem Gerät mit dem Wert der Original-Datenbank vergleichen.
Per Generalverdacht werden alle iOS devices weltweit mit einer Blackbox Datenbank abgeglichen.
Es betrifft zumindest vorerst mal nur die USA.
 

AndiEh

Normande
Registriert
11.07.21
Beiträge
573
Und diese Funktion ist so konstruiert, dass sie nur bei iCloud Photos funktioniert.

Ähm, nein, denn sie haben ja auch eine Software integriert, welche alle Bilder der Kinder scannt. Und machen wir uns nichts vor. Einen Schalter in einer Software umzulegen ist einfacher, als eine Software in ein Betriebssystem einzubetten.
So nach dem Motto: Scanne die Fotos wenn auf teilen mit der Cloud geklickt wird. Den letzten Teil wegnehmen, dürfte wohl eine Sache von Sekunden sein.

Gruß
Andi
 

paul.mbp

Sternapfel
Registriert
20.06.09
Beiträge
4.977
Natürlich kannst du nicht die Bilder überprüfen, die in dieser Datenbank gespeichert sind (was ja absurd wäre). Aber die Datenbank besteht aus Hashes von überlappenden Bildern zwei komplett getrennter Institutionen und jeder kann den Hash-Wert der Datenbank auf seinem Gerät mit dem Wert der Original-Datenbank vergleichen.

Es betrifft zumindest vorerst mal nur die USA.

Oh Mann… Deine Verteidigungsstrategie für Apples Maßnahmen wird in der Tat absurd.

Natürlich erwartet niemand das man persönlich die Datenbank im Klartext (Bild) überprüfen kann. Zumal die Datenbank die Apple nutzt die Hashes enthält und diese kann man nicht zurückrechnen. Man hat „nur“ Hashwerte…

Ob sich hinter dem Hashwert nun KiPo oder ein Terrorist oder ein Mörder oder eine oppositionelle Organisation verbirgt?

Well, who knows what’s being scanned for?

Mit dem redlichen Ziel des Schutzes der Kinder wird hier ein lokaler Scanner eingebaut der mit nicht nachprüfbaren Filterkriterien gefüttert wird.

Ich glaub Apple sogar das sie derzeit nur dieses redliche Ziel verfolgen. Doch dem Missbrauch (unterjubeln von Hashes) und der Erweiterung der Funktion (im Einklang mit der lokalen Gesetzgebung) ist mit solch einem Tool Tür und Tor geöffnet
 

m4371n

Querina
Registriert
27.12.20
Beiträge
181
Ich weiß gar nicht, was ich dazu sagen soll. Meint Apple, dass sie über dem Gesetz stünden?
Nein, was Frederighi damit sagt, ist, das die Hürden hoch seien, das einige Länder ihre eigenen "Sonderwünsche" umgesetzt bekommen. Apple wird sich aber in letzter Konsequenz immer an Gesetze halten. Gäbe es z.B. eine gesetzliche Verpflichtung zu Abhörschnittstellen und ist der Markt, in dem das vorgeschrieben wird, groß genug, wird auch Apple das umsetzen. Das ist aber nichts neues.

Was sie z.Zt. tun, ist eine vergleichsweise datensparsame Funktion zum Finden von CSAM zu realisieren, die diverse technische und organisatorisch Hürden eingebaut hat, um eine Erweiterung dieser Funktion zu erschweren.

Ist es unmöglich, diese Funktion auszuweiten? Nein. Apple konnte und kann jederzeit beliebige Funktionen in ihre Betriebssysteme einbauen. Sie haben schon immer die Kontrolle. Das ist, wie gesagt, nichts neues.

Das neue Risiko was durch Apples client-seitige CSAM-Suche entsteht, ist, das es ihnen schwerer fallen wird, Wünsche nach Ausweitung dieser Suche abzulehnen. Bisher konnten sie sagen, das Hintertüren in verschlüsselte Systeme ohne jeden Zweifel das gesamte System für alle unsicherer machen. Das ist ein starkes Argument. Apples Ausweitungshürden beim CSAM-Scan halte ich für deutlich schwächere Argumente.
 
  • Like
Reaktionen: AndiEh und paul.mbp

Janelle

Starking
Registriert
21.09.18
Beiträge
221
Also ich versuche ja, mich in beide Seiten und beide Positionen hineinzudenken und offen für alle Argumente zu bleiben (so weit das bei einem Nicht-Techie möglich ist).

die Datenbank besteht aus Hashes von überlappenden Bildern zwei komplett getrennter Institutionen und jeder kann den Hash-Wert der Datenbank auf seinem Gerät mit dem Wert der Original-Datenbank vergleichen.
Das ist gegenwärtig beruhigend, zumindest für die westliche Welt.
Aber, mal ganz konkret und auch auf uns bezogen, was wäre denn, wenn Biden nicht hauchdünn gewonnen hätte? Sein Vorgänger (und genauso ein späterer ähnlich eingestellter Amtsinhaber) hätte sicher nichts unversucht gelassen, um diese beiden Institutionen (NCMEC und die andere) mit seinen Leuten zu besetzen. Und dann wäre vielleicht durch einen bedauerlichen Datenfehler doch das eine oder andere Bild mitgehashed worden, das Menschen mit wegfliegenden Perücken oder Toilettenpapier am Schuh zeigt... oder anderes.
Also auch der Nicht-Techie hat begriffen, dass es für die eigene, rein persönliche Sicherheit in späteren Jahren nicht damit getan sein wird, dass die aufs iPhone gespielten Hashes mit denen aus der zentralen Datenbank abzugleichen.
 

Sequoia

Swiss flyer
Registriert
03.12.08
Beiträge
17.366
Also die Mär, dass es über (bzw. neben) dem US Präsidenten keine Kontrollinstanz mehr gibt, hält sich mit Deinem „wenn, wäre, …“ noch immer.
NCMEC Struktur kannst Du in dem Wiki-Thema dazu nachsehen.

Ein US Präsident kann bei Leibe nicht einfach die Axt schwingen, wie er will.
 
  • Like
Reaktionen: allans1976

paul.mbp

Sternapfel
Registriert
20.06.09
Beiträge
4.977
Was erwartest du denn, wenn du kritisierst, dass die Inhalte der Datenbank nicht überprüfbar sind?

Ein guter Freund hat mir mal gesagt: man muss kein guter Koch sein um zu wissen ob einem das Essen schmeckt.

Die Suppe die Apple uns da einbrockt schmeckt mir und vielen anderen nicht.

Es reicht doch schon das sie auf den iCloud Servern mitlesen können, doch nun direkt auf dem iPhone zu schnüffeln (zu scannen) , das geht einfach viel zu weit und birgt das grosse Risiko des Missbrauchs!

Stehen hier Risiko und Nutzen in einem sinnvollen Verhältnis? Beim verwendeten Argument KiPo fällt es schwer ergebnisoffen zu diskutieren.