• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Seit Gutenbergs Zeiten haben sich nicht nur Bücher über die ganze Welt verbreitet, sondern Buchstaben und Wörter begleiten uns allumfassend. Selbst moderne Devices mit Sprachsteuerung und Super-KI kommen nicht ohne Buchstaben, Wörter oder Symbole aus. Nicht zuletzt darum ist das Thema das Monats Am Anfang war das Wort ---> Klick

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.984
Apple-Intelligence-Marketing-SDK-700x399.png


Jan Gruber
Apple hebt bei seiner KI-Initiative "Apple Intelligence" den Datenschutz hervor. Das Unternehmen betont, wie ernst es den Schutz persönlicher Daten nimmt. Apple geht sogar so weit, die Sicherheitsmaßnahmen durch Forscher unabhängig überprüfen zu lassen.

Ein dreistufiger Ansatz zum Datenschutz​


Apple verfolgt eine dreistufige Strategie für den Datenschutz bei der Ausführung von KI-Funktionen:
  1. So viel Verarbeitung wie möglich erfolgt auf dem Gerät selbst.
  2. Wenn nötig, kommen Apples eigene Server zum Einsatz.
  3. Bei Bedarf wird die Erlaubnis eingeholt, externe Dienste wie ChatGPT zu verwenden.

Fünf Schutzmechanismen im Private Cloud Compute (PCC)​


Apples eigene KI-Server, bekannt als Private Cloud Compute (PCC), bauen auf fünf Sicherheitsmechanismen auf:
  1. End-zu-Ende Verschlüsselung schützt alle übermittelten persönlichen Daten.
  2. Zustandslose Berechnungen löschen persönliche Daten sofort nach der Verarbeitung.
  3. Technologien, die Nutzerdaten preisgeben könnten, kommen nicht zum Einsatz.
  4. Kein privilegierter Zugriff ermöglicht es Technikern, Sicherheitsmaßnahmen zu umgehen.
  5. Selbst bei physischem Zugang zu einer PCC-Einrichtung ist kein Zugriff auf einzelne Benutzerdaten möglich.

Überprüfbare Transparenz als außergewöhnlicher Schritt​


Neben den strengen Sicherheitsmechanismen plant Apple, die Software-Images von jedem Produktions-Build des PCC öffentlich zugänglich zu machen. Dies ermöglicht es Sicherheitsforschern, unabhängige Überprüfungen durchzuführen. Sie können genau feststellen, was technisch möglich ist und was nicht.

Zum ersten Mal wird Apple auch die sepOS-Firmware und den iBoot-Bootloader in den PCC-Images offenlegen. Dies erleichtert Forschern die Inspektion dieser kritischen Komponenten. Jedes Software-Image des Private Cloud Compute wird zur unabhängigen Binärinspektion freigegeben.

Apples Schritte zeigen ein starkes Engagement für Sicherheit und Transparenz. Sie bieten eine bisher unerreichte Möglichkeit, den Schutz persönlicher Daten zu verifizieren. Sicherheitsforscher und Nutzer:innen werden diesen offenen Ansatz sicherlich begrüßen.

Via 9to5Mac

Den Artikel im Magazin lesen.
 

doc_holleday

Roter Herbstkalvill
Registriert
14.01.12
Beiträge
13.315
Die prominente Ankündigung hatte mich schon überrascht und ich kann nur sagen: endlich und dann bitte gleich alles andere auch noch zugänglich machen.

Mir fällt es inzwischen schwer den ganzen Werbeaussagen einfach so zu glauben und ich würde mich freuen, wenn von Dritten geprüft und im Idealfall bestätigt werden könnte, dass das insgesamt schon passt, was Apple da von sich gibt.
 
  • Like
Reaktionen: Frequenzfilter

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.699
das dürfte wohl die Unabhängigkeit sein, die es schon gibt. Unterschiedliche Seiten würden das wohl unterschiedlich bewerten.
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.984
Auch wenn es gerade überall relativ abgefeiert wird - mir ist das eigentlich zu wenig. Wenn ichs richtig verstehe, und ich hab mir das heute Nacht nochmal ganz genau angesehen, dann läuft auf den Apple Intelligence Servern (Mac Minis) dann irgend eine Art iOS. Soweit so gut. Sie geben das IPA raus damit es überprüft werden kann. Soweit auch okay - nur wer sagt mir dass auf dem Server echt das IPA läuft, oder da nicht noch was anderes „mitläuft“ … Echter Audit von ner unabhängigen Seite wäre mir lieber, aber das ist zu idealistisch, das ist mir auch klar
 
  • Like
Reaktionen: doc_holleday

saw

Gravensteiner
Registriert
31.08.07
Beiträge
10.067
Apple verfolgt eine dreistufige Strategie für den Datenschutz bei der Ausführung von KI-Funktionen:
  1. So viel Verarbeitung wie möglich erfolgt auf dem Gerät selbst.
Zumindest aus Datenschutzgründen,
ist die Verarbeitung auf den Geräten doch völlig unnötig.

Außer, die Daten sind eben nicht absolut sicher, wenn diese außerhalb des Gerätes verarbeitet werden.
 
  • Like
Reaktionen: Salud

SomeUser

Ingol
Registriert
09.02.11
Beiträge
2.091
Zumindest aus Datenschutzgründen,
ist die Verarbeitung auf den Geräten doch völlig unnötig.

Außer, die Daten sind eben nicht absolut sicher, wenn diese außerhalb des Gerätes verarbeitet werden.

Da es keine absolute Sicherheit gibt, ist der beschriebene und von Apple gewählte Ansatz durchaus korrekt. Eine "Aber in einer perfekten Welt..."-Argumentation erübrigt sich.
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.206
Zumindest aus Datenschutzgründen,
ist die Verarbeitung auf den Geräten doch völlig unnötig.

Außer, die Daten sind eben nicht absolut sicher, wenn diese außerhalb des Gerätes verarbeitet werden.
Das ist so nicht korrekt. Die Sicherheit der Daten, also der Schutz vor unberechtigten Zugriffen, ist nur einer der Eckpfeiler des Datenschutzes. Die Minimierung von Daten auf das notwendige Maß zur Erreichung des Ziels ist genauso einer jener Eckpfeiler.
 
  • Like
Reaktionen: Michael77

saw

Gravensteiner
Registriert
31.08.07
Beiträge
10.067
Die Sicherheit der Daten, also der Schutz vor unberechtigten Zugriffen, ist nur einer der Eckpfeiler des Datenschutzes. Die Minimierung von Daten auf das notwendige Maß zur Erreichung des Ziels ist genauso einer jener Eckpfeiler.
Das ist so nicht korrekt.
Sind die Daten sicher, dann müssen die auch nicht, aus Datenschutzgründen, minimiert werden.
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.206
Das ist so nicht korrekt.
Sind die Daten sicher, dann müssen die auch nicht, aus Datenschutzgründen, minimiert werden.
Ich zitiere auszugsweise aus Artikel 5 der DSGVO: Personenbezogene Daten müssen unter anderem „in einer Weise verarbeitet werden, die eine angemessene Sicherheit der personenbezogenen Daten gewährleistet, einschließlich Schutz vor unbefugter oder unrechtmäßiger Verarbeitung (…)“ sowie „dem Zweck angemessen und erheblich sowie auf das für die Zwecke der Verarbeitung notwendige Maß beschränkt sein (Datenminimierung)“.
 

Andreas Vogel

Redakteur
AT Redaktion
Registriert
10.12.08
Beiträge
2.277
Sind die Daten sicher, dann müssen die auch nicht, aus Datenschutzgründen, minimiert werden.
Tut mir leid, das ist whataboutism.
Absolute Datensicherheit ist unmöglich.

Auch die Datenverarbeitung ondevice kann theoretisch (Strafverfolgungsbehörden, Geheimdienste etc) ausgelesen werden. Insofern ist das oberste Ziel zunächst so wenig Daten wie möglich zu erheben und diese dann bestmöglich zu schützen... wie @Martin Wendel bereits schrieb.

Auch wenn Apple die "Apple Intelligence Server" bzw. die IPAs überprüfen lässt, wird es eine Frage der Zeit, bis Staaten à la China einen Zugriff verlangen... Insofern ist Apples Lösung solange ok, solange wir über demokratische Staaten sprechen...

--> und demokratische Staaten sind zunehmend bedroht, siehe Österreich, Frankreich; Italien und selbst Deutschland durch eine faschistische AfD... also: Wer "Apple Intelligence Server" will, sollte sicherstellen, dass er/sie auch zukünftig in einer Demokratie lebt ;)
 
  • Like
Reaktionen: BalthasarBux

Michael77

Golden Delicious
Registriert
31.05.24
Beiträge
6
Das ist so nicht korrekt.
Sind die Daten sicher, dann müssen die auch nicht, aus Datenschutzgründen, minimiert werden.
Daten müssen immer minimiert werden ;)
die Kunst und das glaube ich das was Apple verfolgt:
Personenbezug auf dem Gerät
Raus geht es so anonymisiert das es nicht unter Datenschutz fällt und ein Lücke im System eben nicht zum Abfluss von personenbezogenen Daten kommt.
 

saw

Gravensteiner
Registriert
31.08.07
Beiträge
10.067
Also sind die Daten, außerhalb des Gerätes, nicht sicher.
Sind also auch meine Bilder, Videos, Adressbuch, Kennwörter, Mails etc. in der Cloud, auch nicht sicher.
 

Andreas Vogel

Redakteur
AT Redaktion
Registriert
10.12.08
Beiträge
2.277
Also sind die Daten, außerhalb des Gerätes, nicht sicher.
Sind also auch meine Bilder, Videos, Adressbuch, Kennwörter, Mails etc. in der Cloud, auch nicht sicher.
Jein! Aber das wurde hier u.a. von mir differenzierter erkärt… 🤘
Deine schwarz /weiß Formulierung trifft nicht die etwas komplexere Realität 🤷🏼‍♂️
 

Martin Wendel

Redakteur & Moderator
AT Administration
AT Moderation
AT Redaktion
Registriert
06.04.08
Beiträge
45.206
Also sind die Daten, außerhalb des Gerätes, nicht sicher.
Sind also auch meine Bilder, Videos, Adressbuch, Kennwörter, Mails etc. in der Cloud, auch nicht sicher.
Das hat niemand behauptet, mir ist unklar wie du nach den Beiträgen hier zu dieser Aussage kommst.
 
  • Like
Reaktionen: Joh1

Joh1

Golden Noble
Registriert
01.04.14
Beiträge
14.747
Also sind die Daten, außerhalb des Gerätes, nicht sicher.
Sind also auch meine Bilder, Videos, Adressbuch, Kennwörter, Mails etc. in der Cloud, auch nicht sicher.
Unsicherer als wenn du sie nur bei dir liegen haben würdest.
Unsicherer bedeutet ja aber nicht das sie nicht sicher sind.
 
  • Like
Reaktionen: Michael77

Michael77

Golden Delicious
Registriert
31.05.24
Beiträge
6
Also sind die Daten, außerhalb des Gerätes, nicht sicher.
Sind also auch meine Bilder, Videos, Adressbuch, Kennwörter, Mails etc. in der Cloud, auch nicht sicher.
darum geht es nicht und das ist auch eher eine Aussage wie Sie die Bildzeitung schlussfolgern würde ;)

Es geht auch nicht um die Ablage sondern um die Verarbeitung von Daten außerhalb der Apple Umgebung um Informationen zu liefern.
Das hat mit Bilder Mail und Co nix zutun.
Auch werden viele Daten in iCloud liegen bzw. zum Sync verarbeitet.
AI soll die Infos von dir ja am iphone und am Mac kennen.
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.984
Naja wir können da jetzt viele IT-Binsen bemühen und das Phrasenschwein schnell platzen lassen:

Cloud heißt auch nur "jemand anderes Computer" und am Ende des Tages ist es sicher smarter sie auf dem eigenen System zu haben als auf nem Frenden - und sie über eine Leitung und durch ein Netzwerk schicken macht es sicher nicht sicherer. Aber am Ende des Tages. Sicherheit gibts nicht, weder in der Cloud, noch auf deinem System ;) Und was hilft uns das jetzt? Nix ;)

Das der Mist lokal verarbeitet wird ist per se mal nicht unbedingt ne dumme Idee, mal sehen wie weit sie damit kommen. Ich glaube der größte Knackpunkt von Siri war, dass das System eben "nicht von Milliarden Nutzern trainiert wurde". Bei einer LLM könnte das aber sogar hilfreich sein ...
 
  • Like
Reaktionen: Michael77

saw

Gravensteiner
Registriert
31.08.07
Beiträge
10.067
Nein.
Außer Du willst "sehr sicher" pauschal als "sicher" definieren.