Ein neuer Tag, ein neuer Bericht zum Thema Kinderschutz in iOS 15, macOS Monterey und Co. Nach der Veröffentlichung einer ausführlichen FAQ zu dem Thema und einer Gesprächsrunde mit Journalisten hat sich nun auch noch einmal Apples oberster Datenschutz-Manager Erik Neuenschwander zu Wort gemeldet. Im Interview mit den Kollegen von TechCrunch versucht er abermals zu Beschwichtigen und zu versichern, dass der komplette Prozess unter höchstmöglichen Datenschutz-Standards ablaufen wird. Laut Neuenschwander verfügt Apple inzwischen über die Technologien, dass man die CSAM-Scans durchführen könne, ohne dabei den Datenschutz seiner Nutzer zu gefährden.
Angesprochen auf die Frage, ob es rückblickend vielleicht keine gute Idee war, die "Communication Safety" Funktion für die Nachrichten-App und die CSAM-Scans in einem Schritt anzukündigen erklärte Neuenschwander, dass die beiden Funktionen, wie auch die ergänzenden Möglichkeiten mit Siri und Spotlight sich durchaus ergänzen. Thematisch hängen sie ohnehin zusammen, weswegen man sich entschieden hat, sie auch gemeinsam anzukündigen.
Die Kollegen stellten dem Datenschutz-Manager auch die unbequeme Frage, ob Apple verschiedenen Regierungen und Behörden auf der Welt demonstrieren wollte, dass man Inhalte nach kriminellen Inhalten durchsuchen kann, ohne dabei den Datenschutz zu gefährden, entgegnete Neuenschwander, dass dies immer ein Ansatz bei Apple sei: Funktion samt Datenschutz. Auf diese Weise könne man illegale Handlungen aufdecken, ohne die Nutzer zu behelligen, die sich nichts zu Schulden haben kommen lassen.
Zudem erklärte der Apple-Manager, dass sich ohnehin nur wenig ändern werde. So blieben die über iMessage verschickten Nachrichten beispielsweise auch weiterhin Ende-zu-Ende verschlüsselt und sämtliche Scanvorgänge fänden ausschließlich auf den Geräten der Nutzer statt. Man habe auch keine Hintertür erstellt, die früher oder später für andere Dinge als das Suchen nach kinderpornografischen Inhalten genutzt werden könnte. Hier habe Apple nach wie vor den Finger drauf und werde andere Nutzungsarten nicht zulassen.
Auf die Frage ob Apple nicht auch dazu gezwungen werden könnte, weitere Dinge außer Kinderpornos über seiner Technologien zu identifizieren, beispielsweise durch Gesetze in Ländern außerhalb der USA, verwies Neuenschwander auf verschiedene Sicherheitsstufen, die Apple auf den Geräten implementiert hat. Unter anderem sei die Liste mit den Hashwerten, gegen die die Bilder abgeglichen werden direkt in das Betriebssystem integriert. Hier mache man keine Unterschiede in unterschiedlichen Ländern und die Liste ist in allen Ländern dieselbe. Zudem gibt es einen Schwellwert an Übereinstimmungen aus der Gesamtheit der Fotos eines Nutzers, der erreicht sein muss, ehe das System überhaupt anschlägt. Einzelne Fotos würden somit niemals auffällig werden. Drittens würde vor einer Meldung an die Behörden auch immer noch ein manuelles Review durchgeführt. Auch hier hat Apple die Hoheit und würde keine anderen erkannten Bilder als solche mit kinderpornografischen Inhalten melden. Last but not least bliebe dem Nutzer auch immer noch die Wahl, iCloud Fotos zu deaktivieren. In diesem Fall würden Apples Maßnahmen nicht anlaufen.
"Kinderporno-Scans: Apples Datenschutz-Manager steht Rede und Antwort" vollständig lesen