Skip to content

Kinderporno-Diskussion: Apple scannt bereits seit 2019 E-Mails über iCloud

Sollte nicht doch noch ein Umdenken in Cupertino stattfinden, wird man in den USA ab dem Herbst die Fotomediatheken auf den iPhones seiner Nutzer nach kinderpornografischen Inhalten durchsuchen. Soviel sollte nach den Schlagzeilen der vergangenen Wochen klar sein. Schon seit vergangenem Jahr weiß man aber, dass Apple auch seine iCloud-Server nach solchen Inhalten durchsucht. Auch wenn dies damals keine wirklich hohen Wellen geschlagen hat. Nun haben die Kollegen von 9to5Mac noch einmal genauer bei Apple nachgefragt, welche Bereiche denn bislang schon von der Suche nach den CSAM-Inhalten betroffen sind.

Auslöser der Nachfrage war eine Aussage des Apple-Manager Eric Friedman der zuletzt mit der Aussage zitiert wurde: "we are the greatest platform for distributing child porn." Bezogen war dies vor allem darauf, dass die Apple-Server, auch aufgrund der dort herrschenden strengen Datenschutzbestimmungen, offenbar verstärkt von Nutzern und Verbreitern solcher Inhalte genutzt werden. Die Frage ist allerdings, woher Apple dies weiß. Auf die von den Kollegen gestellte Frage gab Apple nun an, dass man bereits seit 2019 über die iCloud-Server verschickte E-Mails nach kinderpornografischen Inhalten durchsuche. Auf einer archivierten Version von Apples Webseite zum Thema Kindersicherheit hieß es einst:

Apple is dedicated to protecting children throughout our ecosystem wherever our products are used, and we continue to support innovation in this space. We have developed robust protections at all levels of our software platform and throughout our supply chain. As part of this commitment, Apple uses image matching technology to help find and report child exploitation. Much like spam filters in email, our systems use electronic signatures to find suspected child exploitation. We validate each match with individual review. Accounts with child exploitation content violate our terms and conditions of service, and any accounts we find with this material will be disabled.

Während man die iCloud-Fotomediatheken und iCloud-Backups der Nutzer bislang nicht durchsucht habe (und dies auch künftig nicht tun wird), werden also bereits seit zwei Jahren schon eingehende und ausgehende iCloud-Mails auf kinderpornografische Anhänge gescannt. Dies ist auch problemlos möglich, da der E-Mail Verkehr nicht verschlüsselt ist. Im Gesamtkontext der aktuellen Diskussion gerät Apple allerdings immer weiter unter Druck, auch wenn die eigentliche Intention natürlich durchaus begrüßenswert ist. Man darf gespannt sein, wie und wann man sich zu dem Thema endlich auch von höhrer Stelle zu Wort melden wird.

Trackbacks

Keine Trackbacks

Kommentare

Ansicht der Kommentare: Linear | Verschachtelt

Anonym am :

Na dann gehts ja \ud83d\ude02\ud83e\udd26\u200d\u2640\ufe0f

SOE am :

2019 ist noch nicht so lange her... irgendwann vorher (2015?) habe ich einen Bericht gelesen, dass Mails mit bestimmten Worten automatisch blockiert und nicht an den Empfänger geleitet werden. Darüber gibt es auch keine Rückmeldung an den Absender.

Aber kurze Frage:
"Während man die iCloud-Fotomediatheken und iCloud-Backups der Nutzer bislang nicht durchsucht habe (und dies auch künftig nicht tun wird)"

Das Durchsuchen der iCloud-Fotomediathek ist doch genau das, was Apple angekündigt hat.
Der Satz in den Klammern wurde rechts überholt.

Flo am :

Nur bedingt. Die Durchsuchung erfolgt auf dem Ger\344t, nicht jedoch in der Mediathek auf den iCloud-Servern. Allerdings geschieht dies nur, wenn die Mediathek auf den Ger\344ten auch aktiviert ist. So, in a way\u2026

Joen am :

Wenn man gmx oder gmail verwendet wird nix gescannt? - oder habe ich das falsch verstanden

SOE am :

In den AGB zur iCloud mit Datum 19. Dezember 2019 behält sich Apple "das Recht vor, jederzeit zu prüfen, ob Inhalte angemessen sind (...) und Apple ist berechtigt, Inhalte jederzeit ohne vorherige Ankündigung nach eigenem Ermessen (...) zu entfernen".

Laut den allgemeinen Google-Nutzungsbedingungen vom 31. März 2021 wird für alle Inhalte eine Lizenzvereinbarung abgeschlossen, "zum Zweck der Betriebes und der Verbesserung der Dienste".
"Dazu gehört auch der Einsatz automatischer Systeme (...) um Spam, Schadsoftware (Malware) oder illegale Inhalte zu erkennen."

GMX weist in seinen aktuellen Datenschutzbedingungen daraufhin, dass sie mit dem Dienst trustedDialog die Mails auf SPAM prüfen. Die allg. Geschäftsbedingungen mit Stand 21.07.2021 nutzen die Formulierung "Kenntnis erhalten", wenn es um rechtswidrige Inhalte geht.

Das heisst, Google und Apple prüfen die Inhalte und entfernen diese auch eigenwillig. GMX nimmt keine Vorabprüfung der Inhalte in Mail und Cloud vor, die über reguläre Antispan-Maßnahmen hinausgehen.

Ahrtaler am :

Vielen Dank f\374r die Infos!

Joen am :

Danke f\374r die Recherge!

Andrer am :

Gruselig
Daher betreibe ich weiterhin meine eigenen Mailserver

itsme am :

Das ist aber nicht der Weisheit letzter Schluss, denn entweder ist Dein Mailserver Sender oder Empf\344nger, aber nicht beides. Und da Du nunmal mit der Welt kommunizieren m\366chtest, landen Deine Mails also auch auf Systemen, auf welche Du keinen Zugriff hast.

Watishierlos am :

Genau. Verschl\374sselung ist alles was man machen kann. Nur ist selbst dieser simple Prozess f\374r viele schon eine H\374rde Leider\u2026

Andrer am :

https://act.eff.org/action/tell-apple-don-t-scan-our-phones

Helmut Warter am :

F\374r mich geht die gesamte Diskussion am Kern des Problems vorbei, n\344mlich an den durch Pornografie betroffenen Kindern!

Deshalb bin ich daf\374r, dass mit modernsten und zeitgem\344\337en Mitteln gegen diese Verbrecher vorgegangen wird. Daher begr\374\337e ich grunds\344tzlich die Entwicklung solcher Werkzeuge.

Es hat immer die M\366glichkeit gegeben - und wird sie immer geben -, dass irgendwer (Brieftr\344ger, Administratoren\u2026) in Papierbriefe oder elektronischen Datenverkehr Einsicht genommen hat. Wie immer ist die Frage, wie man damit umgeht.

Kinderschutz geht da f\374r mich vor Datenschutz! Ich habe da nichts zu verbergen.

Joen am :

Name, Adresse, Geburtsdatum, IBAN bitte
Name der Eltern und deren Daten bitte
Wenn du nix zu verbergen hast, her damit

Nordrocker am :

Bis eines Tages die Polizei klingelt weil du auf Grund von Fehlern pl\366tzlich T\344ter bist. W\344rest nicht der erste dem das passiert.
Oder dein Account wird ohne Vorank\374ndigung gesperrt. Frage mal bei Microsoft Usern wie schnell das geht und wie beschissen das ist wenn der Account gesperrt bleibt auch wenn man nichts verbrochen hat und auch keine Antworten vom Konzern bekommt. Damit sind inzwischen etliche Anw\344lte besch\344ftigt. Gerade auch bei Usern die mehrere Tausend Euros \374ber den Account ausgegeben haben.

Wildberry am :

Nur mal als aktuelles Beispiel was mit \u201agood intentions\u2018 vs. Datenschutz f\374r Probleme erzeugt werden k\366nnen:

https://americanmilitarynews.com/2021/08/taliban-captured-us-facial-recognition-and-eye-scan-database-reports-say/

Die Datenbank kommt in die falschen H\344nde und es sterben m\366glicherweise Menschen, die daraufhin verfolgt werden.

Und sag nicht \u201ain Deutschland passiert sowas nicht\u2018. Denn selbst wenn, es gibt noch ca 180 andere L\344nder, wo genau das ebenfalls passieren kann.

Mio am :

Mir stellt sich weiterhin die Frage, inwiefern Apple \374berpr\374ft und ich eventuell vor einem Problem stehen k\366nnte, wenn ich mein Kind am Strand, oder in der Wanne fotografiere. Solche Fotos kann ich an einer Hand abz\344hlen, dennoch denke ich gerade an ein sehr s\374\337es Foto mit Schaum in den Haaren meines Sohnes in der Badewanne\u2026 niemals sollte damit etwas pornografisches (allein es zu schreiben) festgehalten werden, dennoch ist mein Kind logischerweise nackt in der Wanne \ud83e\udd14\ud83e\udd37\ud83c\udffb\u200d\u2642\ufe0f

Helmut Warter am :

Ok, das verstehe ich, aber da muss man auf die Algorithmen und damit verbundene Konsequenzen warten. Aber zumindest die Verteilung bzw. Freigaben auf \u201espezielle\u201c Ordner w\344ren m.E. dann leicht zu beobachten bzw. viel erreicht. Leider geht\u2018s bei diesem Thema ja nicht prim\344r um Einzelfotos, sondern gro\337e Fotosammlungen.

Nordrocker am :

Du willst ernsthaft einfach erstmal darauf vertrauen das der Algorithmus keine Fehler macht???
Ich staune immer wieder wie viele User Apple einfach blind vertrauen nur weil der Konzern etwas behauptet das keiner wirklich nachvollziehen kann.

Nordrocker am :

Solche Fotos habe ich jetzt direkt aus den iCloud und von allen Apple Ger\344ten vorsorglich gel\366scht.
Familienfotos existieren ab sofort nur noch auf externer Festplatte um dem vorzubeugen durch einen fehlerhaften Algorithmus unschuldig zum T\344ter gemacht zu werden.
Ist bei anderen alles schon passiert.

Anonym am :

Bevor ich jetzt alle privaten Fotos aussortiere \374berlege ich lieber,mir wieder ein normales Nokia Handy zu benutzen. Damit hab ich weniger Umst\344nde

Joen am :

Ich frage mich, ob man nicht besser das Cloudabo l\366schen soll und die Bilder auf eine Syno legen.
Da ist der Datenschutz besser
Apple ist einfach nur mehr kotzig - was ist aus dem Betrieb blo\337 geworden.

Bogs am :

Bitte geht in eure sicheren 4 W\344nde mit euren Bildern, Der beste Beitrag zu Gunsten missbrauchter Kinder! Apple wird mit den Verlusten locker leben k\366nnen und quersubventionieren. Ich bin deshalb sehr beeindruckt, dass Apple das durch ziehen will, trotz vieler Zweifel\u2026

Kommentar schreiben

Die angegebene E-Mail-Adresse wird nicht dargestellt, sondern nur für eventuelle Benachrichtigungen verwendet.
Umschließende Sterne heben ein Wort hervor (*wort*), per _wort_ kann ein Wort unterstrichen werden.
Formular-Optionen