Skip to content

Kommentar: Pro und Contra zu "Differential Privacy" in iOS 10 und macOS Sierra

Bereits in den vergangenen Monaten hat Apple eine sehr starke Position bezogen, wenn es um den Datenschutz seiner Nutzer geht. Gegipfelt ist all dies sicherlich in der Auseinandersetzung, die man sich Anfang des Jahres mit den US-amerikanischen Sicherheistsbehörden lieferte, als es um die Entsperrung eines Terroristen-iPhone ging. Diese von sämtlichen Medien aufmerksam verfolgte und begleitete Geschichte hat Apples Image (im Gegensatz zu dem des FBI) sicherlich nicht geschadet und man wird auch nicht müde, weiter an der Sicherheit seiner Produkte zu arbeiten. Dies wurde auch zuletzt wieder auf der Keynote zur Eröffnung der WWDC deutlich. Besonders spannend wird dieses Thema nun auch wieder vor dem Hintergrund der immer stärker in unser Leben drängenden persönlichen Sprachassistenten wie Amazon Echo, Google Home oder auch Siri.

Während auf der einen Seite die Privatsphäre und der Datenschutz stehen, möchte man auf der anderen Seite aber vielleicht auch, dass einem die Möglichkeiten der neuen Technologien zur Verfügung stehen. Um dies zu ermöglichen, sind Berge von Daten notwendig, die ausgewertet werden, um hieraus zu lernen. Artificial Intelligence - künstliche Intelligenz nennt man dies und bei der zugrundeliegenden Technik spricht man von Big Data. Während Unternehmen wie Google oder auch Facebook speziell auf diese Nutzerdaten zielen und aus diesen Geld machen, hat Apple immer wieder betont, dass man kein Interesse an den Nutzerdaten aus monetären Gründen habe. Vielmehr benötige man diese jedoch, um hiermit die eigenen Dienste zu verbessern. Allein hieraus ergibt sich natürlich ein Spannungsfeld, dem Apple auf eine ganz eigene Art und Weise begegnet.

Mit iOS 10 wird man künftig auf eine wissenschaftlich entwickelte Technologie namens "Differential Privacy". Während Apple in Person von Craig Federighi dies auf der WWDC-Keynote thematisierte, dürfte den meisten nicht klar geworden sein, was sich eigentlich hier hinter verbirgt. Nun, an und für sich ist Differential Privacy nicht neu. Einfach ausgedrückt werden einem Datensatz dabei ein Grundrauschen in Form von verschiedenen Hash- und Zufallswerten hinzugefügt, wodurch Rückschlüsse auf einzelne Personen unmöglich werden, es aber weiterhin möglich bleibt, statistische Auswertung zu fahren. Konkret darstellen lässt sich dies am Beispiel von Wortvorschlägen in QuickType. So kann Apple mithilfe von Differential Privacy zwar ermitteln, was die Masse der Nutzer auf der Tastatur tippt, nicht jedoch, was einzelne Nutzer schreiben. Dem Grundsatz dieser Technologie folgend, muss sogar mathematisch beweisbar sein, dass es keine Rückschlüsse auf einzelne Nutzer gibt.

Um sich auch in wissenschaftlicher Hinsicht abzusichern, hat sich Apple bei der Umsetzung von Differential Privacy von einer der Koryphäen in diesem Bereich beraten lassen. Hierbei handelt es sich um Aaron Roth, seines Zeichens Informatikprofessor an der Universität von Pennsylvania. Kritisiert wird von einigen Beobachtern dabei allerdings, dass sich weder Roth noch Apple hinsichtlich der konkreten Implementierung von Differential Privacy in iOS und macOS geäußert haben. Ich persönlich halte dies allerdings für eine ganz normale Praxis zur Wahrung des Geschäftsgeheimnisses. Sehr wohl aber sollte man sich darüber im Klaren sein, dass Differential Privacy wohl noch nie auf einer so großen Datenbasis eingesetzt wurde. Ein Umstand, auf den übrigens auch der Kryptographieprofessor Matthew Green in einem äußerst lesenswerten Blogpost eingeht.

Apple selbst hat sich zur Implementierung von Differential Privacy bislang lediglich mit den folgenden Worten in seiner Entwicklerdokumentation zu iOS 10 geäußert: "Starting with iOS 10, Apple is using Differential Privacy technology to help discover the usage patterns of a large number of users without compromising individual privacy. To obscure an individual’s identity, Differential Privacy adds mathematical noise to a small sample of the individual’s usage pattern. As more people share the same pattern, general patterns begin to emerge, which can inform and enhance the user experience. In iOS 10, this technology will help improve QuickType and emoji suggestions, Spotlight deep link suggestions and Lookup Hints in Notes." Natürlich wäre es wünschenswert, dass Apple hier den Vorgang in den kommenden Wochen weiter lüftet. In jedem Fall dürften sich allerdings ohnehin verschiedene Experten die Daten ansehen und überprüfen, ob der von Aaron Roth propagierte mathematische Beweis der Unmöglichkeit des Rückschlusses auf einzelne Nutzer auch wirklich standhält.

Wie auch immer diee Überprüfung ausfallen wird, ist klar, dass Apple künftig deutlich mehr Daten von seinen Nutzern sammeln wird. Dies ist mit Blick auf die Weiterentwicklung von Diensten wie Siri auch eindeutig nötig. Anders als die Konkurrenz hat sich Apple aber offensichtlich tiefgreifend damit auseinandergesetzt, wie man dies für den Nutzer so sicher wie möglich machen kann. Der Ansatz den man dabei verfolgt nennt sich "Crowdsourced Data". Google hat in der Vergangenheit eine sehr nützliche Implementierung hiervon bereits in seinen Google Flu Trends umgesetzt, in denen man die Ausbreitung der Grippe und des Dengue-Fiebers auf Basis von Nutzerdaten prognostizierte. Apple versucht diesen Ansatz mithilfe von Differential Privacy nun mit seinen Datenschutzprnzipien in Einklang zu bringen.

Während sich der Ansatz von Differential Privacy also zunächst einmal gut anhört, gibt es auch Kritiker, die sich vor allem an der Tatsache stören, dass die Technologie noch nie in einem so großen Maß eingesetzt wurde, nach wie vor auf einer erhöhten Basis von Nutzerdaten gearbeitet werden muss und Apple sich nicht zur Implementierung der Technologie äußert. Aus meiner ganz persönlichen Sichtweise ist der Ansatz jedoch vor allem im Vergleich zur Konkurrenz zu begrüßen. Dort werden Daten gesammelt und auch nicht mit dem Ziel hinterm Berg gehalten, diese zu Geld machen zu wollen. Apple hingegen will die Daten ebenfalls, allerdings ausschließlich zur Verbesserung der eigenen Dienste. Und zu diesem Zweck hat man sich als erster der Big Players einmal intensiv Gedanken gemacht, wie man dem Spannungsfeld zwischen Datenschutz und Crowdsourced Data am besten begegnen kann. Um konkurrenzfähig zu bleiben braucht man die Daten auf jeden Fall und aus meiner Sicht sollte man den Ansatz, dies für den Nutzer so sicher wie möglich zu machen absolut honorieren.

Dies bedeutet freilich nicht, dass man Apple dabei blind vertrauen sollte. Der wissenschaftliche Beweis zur Effektivität (oder eben dem Gegenteil) von Differential Privacy in iOS 10 und macOS Sierra wird sicherlich nicht lange auf sich warten lassen. Allerdings wird auch bei mir, egal wie dieser Beweis ausfallen wird, auch künftig kein ständig lauschendes Mikrofon mit permanenter Onlineverbindung im Wohnzimmer stehen, wie es Amazon, Google und künftig wohl auch Apple vorstellen. Weniger weil ich dem Datenschutzansatz nocht vertraue, sondern weil ich die Vorstellung einfach gruselig finde.

In Sachen Differential Privacy und der darum geführten Diskussion halte ich es allerdings wie Matthew Green, der seinen Blogpost mit den Worten schließt: "At the end of the day, it sure looks like Apple is honestly trying to do something to improve user privacy, and given the alternatives, maybe that's more important than anything else."

Trackbacks

Flo's Weblog | Apple News and more... Alles über Apple und Gadgets am : Weitere Details zu Differential Privacy in iOS 10 und macOS Sierra

Vorschau anzeigen
In der vergangenen Woche hatte ich in einem Kommentar die Pros und Contras zu Apples neuem Datenschutzansatz in iOS 10 und macOS Sierra namens "Differential Privacy" thematisiert. Nun bringen die Kollegen von Recode noch ein bisschen weiteres Licht ins Du

Kommentare

Ansicht der Kommentare: Linear | Verschachtelt

Anonym am :

Sch\366ner Artikel!

Chris am :

Ja, in der Tat!
W\374rde mich \374ber weitere Artikel freuen.

Somaro am :

An einer Stelle bringst Du aber zwei Dinge in Verbindung, die nichts miteinander zu tun haben: Differential Privacy auf der einen Seite und Audioscanning auf Befehle auf der anderen Seite. Beim Differential Privacy werden die Ergebnisse der Dateianalyse (wie bei der neuen Fotos-App) auf eine spezielle Weise anonymisiert an die Apple-Server geschickt. Diese Funktion ist bei der Hey Siri-Funktion nicht machbar. Das "Lauschen" im Wohnzimmer ist das, was die iPhones heute schon können, wenn man es möchte und hat mit der Differential Privacy nichts zu tun. Denn während bei letzterem nur das Ergebnis zu den Servern geschickt wird, wird bei der "Hey Siri"-Funktion das Rohmaterial versendet. Denn zur Audioanalyse sind die Geräte zu schwach.

Stefan am :

Aber das "Hey Siri" wird lokal \374berwacht ... Erst danach wird die Spracherkennung an die Server gesendet.

Kai Engelbrecht am :

Ja schon, aber wenn Hey Siri lokal erkennt, dass es angesprochen wurde, werden anschliessend wie bei jeder Siri-Aktion die eigentlichen Befehle roh an Apple gesendet, dort von der Zentralen Siri Intelligenz verarbeitet und deren Ergebnisse an den Fragenden zur\374ck gesendet. Siri kann nicht autonom lokal arbeiten!

Und bei der hier im Artikel beschriebenen Verschl\374sselung und \334bermittlung geht es darum, die lokal entstandenen Ergebnisse von Aktionen des Benutzers anonymisiert an die Apple-Server zu senden, ohne dass die eigentliche Aktion/Anfrage zuvor an Apple-Server gelangt ist.

Also schon ein Unterschied.

XfrogX am :

Solange ich die Wahl habe alles ganz auszuschalten ist das doch okay.

Wobei es immer so klingt als w\374rden Google oder Facebook die Daten verkaufen. Aber genau das machen sie nicht. Sie bieten nur an selber mit den Daten f\374r die Kunden passend zu werben. Also haben auch die einen gro\337en Willen das die Daten nicht nach au\337en gehen. Und dann ist Vorallem im werbe Gesch\344ft einfach auch wichtig die Daten Nutzern zuzuordnen. Und auch bei anderen Diensten hilft es sicherlich wenn man nicht alle Daten gleich behandelt sondern gewisse Daten als vertrauensw\374rdiger einstufen kann.

Daher sollte man nicht so tun als wenn Apple es nun richtig macht und die anderen verkehrt oder Apple besser ist. Es passt nur besser zu Ihrem System als zu den Systemen der anderen.

Lukas am :

Ist denn jetzt "Hey-Siri" eine lokale Funktion und erst anschlie\337end wird Siri aktiviert und das Gesagte versendet?

Kai Engelbrecht am :

Nach meinem Verst\344ndnis ja.
Alleine nur die Worte 'Hey Siri' werden lokal erkannt und verarbeitet, alle weiteren Dinge gehen dann zur Auswertung und Beantwortung an Apple. Daher wird dieser Sprachfetzen auch lokal trainiert.
Leider kann Siri eben nicht lokal und autark beliebige Worte erkennen, dass miss die Zentrale Siri Intelligenz erledigen.

Bitte korrigiere mich jemand, wenn ich falsch liege!

Lukas am :

Ich meine, wenn hier wirklich ununterbrochen das Audiosignal \374bermittelt werden w\374rde, dann d\374rfte doch der Akku in k\374rzester Zeit in die Knie gehen...

Nicolas am :

Da kannst du einen ganz einfachen Test machen: Schalte dein Internet aus und sag \u201eHey Siri\u201c

MaxK am :

Diese Funktion wird einfach sofort deaktiviert, fertig. Ich deaktiviere ohnehin grunds\344tzlich bei jeder App das Sammeln anonymer Nutzerdaten

Kommentar schreiben

Die angegebene E-Mail-Adresse wird nicht dargestellt, sondern nur für eventuelle Benachrichtigungen verwendet.
Umschließende Sterne heben ein Wort hervor (*wort*), per _wort_ kann ein Wort unterstrichen werden.
Formular-Optionen