Kinderporno-Diskussion: Apple scannt bereits seit 2019 E-Mails über iCloud
Sollte nicht doch noch ein Umdenken in Cupertino stattfinden, wird man in den USA ab dem Herbst die Fotomediatheken auf den iPhones seiner Nutzer nach kinderpornografischen Inhalten durchsuchen. Soviel sollte nach den Schlagzeilen der vergangenen Wochen klar sein. Schon seit vergangenem Jahr weiß man aber, dass Apple auch seine iCloud-Server nach solchen Inhalten durchsucht. Auch wenn dies damals keine wirklich hohen Wellen geschlagen hat. Nun haben die Kollegen von 9to5Mac noch einmal genauer bei Apple nachgefragt, welche Bereiche denn bislang schon von der Suche nach den CSAM-Inhalten betroffen sind.
Auslöser der Nachfrage war eine Aussage des Apple-Manager Eric Friedman der zuletzt mit der Aussage zitiert wurde: "we are the greatest platform for distributing child porn." Bezogen war dies vor allem darauf, dass die Apple-Server, auch aufgrund der dort herrschenden strengen Datenschutzbestimmungen, offenbar verstärkt von Nutzern und Verbreitern solcher Inhalte genutzt werden. Die Frage ist allerdings, woher Apple dies weiß. Auf die von den Kollegen gestellte Frage gab Apple nun an, dass man bereits seit 2019 über die iCloud-Server verschickte E-Mails nach kinderpornografischen Inhalten durchsuche. Auf einer archivierten Version von Apples Webseite zum Thema Kindersicherheit hieß es einst:
Apple is dedicated to protecting children throughout our ecosystem wherever our products are used, and we continue to support innovation in this space. We have developed robust protections at all levels of our software platform and throughout our supply chain. As part of this commitment, Apple uses image matching technology to help find and report child exploitation. Much like spam filters in email, our systems use electronic signatures to find suspected child exploitation. We validate each match with individual review. Accounts with child exploitation content violate our terms and conditions of service, and any accounts we find with this material will be disabled.
Während man die iCloud-Fotomediatheken und iCloud-Backups der Nutzer bislang nicht durchsucht habe (und dies auch künftig nicht tun wird), werden also bereits seit zwei Jahren schon eingehende und ausgehende iCloud-Mails auf kinderpornografische Anhänge gescannt. Dies ist auch problemlos möglich, da der E-Mail Verkehr nicht verschlüsselt ist. Im Gesamtkontext der aktuellen Diskussion gerät Apple allerdings immer weiter unter Druck, auch wenn die eigentliche Intention natürlich durchaus begrüßenswert ist. Man darf gespannt sein, wie und wann man sich zu dem Thema endlich auch von höhrer Stelle zu Wort melden wird.
Kommentare
Ansicht der Kommentare: Linear | Verschachtelt
Anonym am :
SOE am :
Aber kurze Frage:
"Während man die iCloud-Fotomediatheken und iCloud-Backups der Nutzer bislang nicht durchsucht habe (und dies auch künftig nicht tun wird)"
Das Durchsuchen der iCloud-Fotomediathek ist doch genau das, was Apple angekündigt hat.
Der Satz in den Klammern wurde rechts überholt.
Flo am :
Joen am :
SOE am :
Laut den allgemeinen Google-Nutzungsbedingungen vom 31. März 2021 wird für alle Inhalte eine Lizenzvereinbarung abgeschlossen, "zum Zweck der Betriebes und der Verbesserung der Dienste".
"Dazu gehört auch der Einsatz automatischer Systeme (...) um Spam, Schadsoftware (Malware) oder illegale Inhalte zu erkennen."
GMX weist in seinen aktuellen Datenschutzbedingungen daraufhin, dass sie mit dem Dienst trustedDialog die Mails auf SPAM prüfen. Die allg. Geschäftsbedingungen mit Stand 21.07.2021 nutzen die Formulierung "Kenntnis erhalten", wenn es um rechtswidrige Inhalte geht.
Das heisst, Google und Apple prüfen die Inhalte und entfernen diese auch eigenwillig. GMX nimmt keine Vorabprüfung der Inhalte in Mail und Cloud vor, die über reguläre Antispan-Maßnahmen hinausgehen.
Ahrtaler am :
Joen am :
Andrer am :
Daher betreibe ich weiterhin meine eigenen Mailserver
itsme am :
Watishierlos am :
Andrer am :
Helmut Warter am :
Deshalb bin ich daf\374r, dass mit modernsten und zeitgem\344\337en Mitteln gegen diese Verbrecher vorgegangen wird. Daher begr\374\337e ich grunds\344tzlich die Entwicklung solcher Werkzeuge.
Es hat immer die M\366glichkeit gegeben - und wird sie immer geben -, dass irgendwer (Brieftr\344ger, Administratoren\u2026) in Papierbriefe oder elektronischen Datenverkehr Einsicht genommen hat. Wie immer ist die Frage, wie man damit umgeht.
Kinderschutz geht da f\374r mich vor Datenschutz! Ich habe da nichts zu verbergen.
Joen am :
Name der Eltern und deren Daten bitte
Wenn du nix zu verbergen hast, her damit
Nordrocker am :
Oder dein Account wird ohne Vorank\374ndigung gesperrt. Frage mal bei Microsoft Usern wie schnell das geht und wie beschissen das ist wenn der Account gesperrt bleibt auch wenn man nichts verbrochen hat und auch keine Antworten vom Konzern bekommt. Damit sind inzwischen etliche Anw\344lte besch\344ftigt. Gerade auch bei Usern die mehrere Tausend Euros \374ber den Account ausgegeben haben.
Wildberry am :
https://americanmilitarynews.com/2021/08/taliban-captured-us-facial-recognition-and-eye-scan-database-reports-say/
Die Datenbank kommt in die falschen H\344nde und es sterben m\366glicherweise Menschen, die daraufhin verfolgt werden.
Und sag nicht \u201ain Deutschland passiert sowas nicht\u2018. Denn selbst wenn, es gibt noch ca 180 andere L\344nder, wo genau das ebenfalls passieren kann.
Mio am :
Helmut Warter am :
Nordrocker am :
Ich staune immer wieder wie viele User Apple einfach blind vertrauen nur weil der Konzern etwas behauptet das keiner wirklich nachvollziehen kann.
Nordrocker am :
Familienfotos existieren ab sofort nur noch auf externer Festplatte um dem vorzubeugen durch einen fehlerhaften Algorithmus unschuldig zum T\344ter gemacht zu werden.
Ist bei anderen alles schon passiert.
Anonym am :
Joen am :
Da ist der Datenschutz besser
Apple ist einfach nur mehr kotzig - was ist aus dem Betrieb blo\337 geworden.
Bogs am :