Whistleblower erneuert Kritik an Apples Praxis zur Auswertung von Siri-Sprachbefehlen
Im vergangenen Jahr stand Apple in der Kritik, weil man Subunternehmen damit beauftragt hatte, Sprachbefehle an Siri auszuwerten, um auf diese Weise eine Verbesserung beim Sprachverständnis und den Reaktionen zu erzielen. Dies ist zunächst einmal nicht weiter ungewöhnlich und eine gängige Praxis, die auch von anderen Anbietern von Sprachassistenten wie Google, Amazon oder Microsoft angewendet wird. Problematisch war lediglich, dass auf diese Weise die Mitarbeiter der Vertragspartner Zugriff auf die Sprachinhalte hatten, unter denen sich naturgemäß teilweise auch sicherheitskritische, private und illegale Aussagen befinden. Apple reagierte mit einem iOS-Update, in dem man einen Schalter einführte, über den die Nutzer der Auswertung seiner Sprachbefehle verhindern können. Zudem erklärte man, künftig keine Subunternehmen mehr mit der Auswertung der Sprachbefehle zu beauftragen.
Nun kocht das Thema allerdings wieder hoch, da sich ein Whistleblower, der offenbar für einen Vertragspartner von Apple arbeitet oder gearbeitet hat, an die Öffentlichkeit wendet und Apples Praxis an den Pranger stellt. In einem Brief an die Europäische Union erklärt er, dass Apple entgegen seiner Aussage nichts an seiner Praxis geändert habe und die Sprachmitschnitte auch weiterhin von Subunternehmen auswerten lasse. Der gute Mann namens Thomas le Bonniec fordert deswegen Konsequenzen für das Unternehmen.
Dem Guardian zufolge beschwert sich le Bonniec in seinem Brief an die EU darüber, dass nach dem Datenschutzbruch keine Maßnahmen gegenüber Apple ergriffen wurden, obwohl die Bestimmungen in Europa zu den striktesten weltweit gehören. Die österreichischen Kollegen vom Standard haben den Brief hier als PDF veröffentlicht.
Ohne dass ich Apple an dieser Stelle gegen etwaige Verstöße verteidigen möchte, sei dennoch noch einmal darauf hingewiesen, dass die menschliche Auswertung von Sprachassistenten-Befehlen gängige Praxis ist und auch rein maschinell gar nicht möglich wäre. Problematisch ist dabei allerdings vor allem, dass die Akrtivierung der Sprachassistenten auch ungewollt geschehen kann und dann auch private und persönliche Gespräche mitgeschnitten werden können, die nicht nur Apple-Nutzer, sondern auch dessen Freunde, Kinder und Familie betreffen. Auch dies ist ein Grund, warum sich nach wie vor kein "Smart-Speaker" in meinen eigenen vier Wänden befindet und ich auch gerne auf den HomePod verzichte. Mit dem Schalter in den iOS-Einstellungen hat Apple allerdings immerhin eine Maßnahme ergriffen, die man bei anderen Anbietern vergeblich sucht.
Kommentare
Ansicht der Kommentare: Linear | Verschachtelt
Christian S. am :
Zudem würde mich interessieren woher er die Info hat, dass auch Daten ausgewertet werden, wo der Benutzer nicht zugestimmt hat!
Ich glaube nicht dass Apple oder ein anderes Unternehmen dritten Firmen solche Dinge (Kunde hat dem nicht zugestimmt, aber werte mal aus) mitteilt, schon gar nicht einem „einfachen“ Arbeiter.
Das wurde in der jeweiligen Berichterstattung nirgends hinterfragt, aber wir leben derzeit ja in verrückten Zeiten.
Und Bad Apple News bringen immer Klicks (und Geld).
(damit meine ich nicht Flo:))
SOE am :
Der Punkt ist, dass Apple trotz aller damaligen Beteuerungen die angeblich Menschenrechts-wichtigen Daten von dem Billigsten auf dem Markt auswerten ließ und - wenn die Aussagen stimmen - dies auch trotz Entschuldigung und anders lautender Versprechen weiterhin tun lässt.
Bei Google erwartet man nichts anderes, von Microsoft auch nicht. Aber Apple nutzt den Datenschutz als Kaufargument, als Unique Selling Point.
Andere Ansprüche, andere Maßstäbe.
Wildberry am :
WGS am :
Donald am :
Aber das Statement h\366rt man nicht
Also ....
Rolf am :
SOE am :
So etwas gibt Ärger mit der SEC und vor allem den Aktionären. Siehe Tesla mit seinem Musk.