Skip to content

Weitere Informationen zu Apples neuen Technologien zum Schutz von Kindern

Apples gestrige Ankündigung neuer Funktionen für einen besseren Schutz von Kindern auf seinen Geräten hat für eine Menge Aufsehen und Wirbel gesorgt. Inzwischen hat das Unternehmen mit ein paar weiteren Informationen und Klarstellungen nachgelegt. Eine der neuen Funktionen ist das Abgleichen von lokal auf einem iPhone oder iPad gespeicherten Fotos mit Hashwerten, um auf diese Weise Aufnahmen von sexuellem Missbrauch von Kindern zu entdecken. War dies der Fall, werden die betroffenen Bilder für den Nutzer unsichtbar markiert, bevor sie auf iCloud Fotos hochgeladen werden. Im Falle von vermehrten Erkennungen auf einem Account wird dieser gesperrt und der Nutzer von Apple an die zuständigen Behörden gemeldet. Hierbei handelt es sich um eine automatische Funktion, die vom Nutzer nicht deaktiviert werden kann. Allerdings hat Apple nun den Kollegen von MacRumors gegenüber bestätigt, dass die Erkennung nicht durchgeführt wird, wenn iCloud Fotos deaktiviert ist.

Neben dem Abgleich der Fotos mit den Hashwerten hat Apple auch "Communication Safety" für iMessage angekündigt. Hierbei werden Bilder mit potenziell anzüglichen Inhalten erkannt und Minderjährige und deren Eltern beim Empfang selbiger infomiert, bevor sie angezeigt werden. Dies hat selbstverständlich auch bereits Datenschutzbedenken ausgelöst, da Apple offenbar die über iMessage verschickten Bilder scannt. Während auch dies lediglich auf Basis von Hashwerten geschehen soll, hat Apple hier noch einmal für weitere Aufklärung gesorgt. So wird es sich bei der Funktion um ein optionales Feature handeln, welches ausschließlich auf Accounts von Kindern angewendet wird und das von den Eltern explizit in der Familienfreigabe unter iCloud aktiviert werden muss. Ist dies der Fall, wird das empfangene Bild zunächst verschwommen angezeigt und die folgende Meldung eingeblendet:

"Sensitive photos and videos show the private body parts that you cover with bathing suits,. It's not your fault, but sensitive photos and videos can be used to hurt you."

Anschließend kann das Kind auswählen, ob das Foto dennoch angezeigt werden soll. Für Kinder unter 13 Jahren können die Eltern entscheiden, ob sie darüber informiert werden wollen, wenn ihr Sprössling das Bild dennoch sehen möchte. Hierzu informiert Apple mit dem folgenden Text:

"If you decide to view this, your parents will get a notification to make sure you're OK."

Auch bei "Communication Safety" setzt Apple bei der Erkennung der Bildinhalte auf Maschinenlernen. Die Verarbeitung findet auch hier komplett lokal auf dem Gerät statt. Da die iMessage-Nachrichten nach wie vor Ende-zu-Ende verschlüsselt sind, erhält Apple keinen Zugriff auf die verschickten Inhalte.

Wie zu erwarten haben sich inzwischen auch verschiedene Sicherheits- und Datenschutzexperten zu dem Thema zu Wort gemeldet (via Financial Times). Vor allem erwarten die Experten, dass Apples Schirtt dazu führen wird, dass auch andere Technologiekonzerne nachziehen werden, womit ganze Dämme brechen und die Funktion auch auf andere Bereiche ausgeweitet werden könnten. In der Tat nutzen unter anderem bereits Google, Twitter, Microsoft und Facebook entsprechende Hashwert-Technologien, um Bilder zu erkennen, auf denen Kindesmissbrauch zu sehen ist. Auch Apple nutzt entsprechende Technologien bereits. So hatte man beispielsweise 2019 seine Datenschutzbestimmungen dahingehend angepasst, dass auf iCloud hochgeladene Inhalte auf potenziell illegale Inhalte hin prüfen würde, darunter auch Inhalte auf denen ser sexuelle Missbrauch von Kindern zu sehen ist.

Bereits vor der offiziellen Ankündigung von Apple hatte der Sicherheitsforscher Matthew Green von der Johns Hopkins University in einer Reihe von Tweets seine starken Bedenken gegenüber dem automatischen Scannen der Bilder gegen Hashwerte zum Ausdruck gebracht. Vor allem sieht er die Gefahr, dass das Erkennen von sexuellem Missbrauch künftig auch auf andere Bereiche ausgeweitet werden könnte und dabei unter anderem auch dem potenziellen Erkennen von Zeichen von Aktivisten, Regierungskritikern und anderen Personengruppen Tür und Tor öffne. Zudem führte Green auch bereits gestern Nachmittag an, dass damit künftig auch verschlüsselte Inhalte abgeglichen werden könnten. Dies wird Apple dann auch bereits tun, wenn die über iMessage von Kindern erhaltenen Bilder gegen Nacktheit und andere anzügliche Inhalte gescannt werden. Zwar geschieht dies lokal, allerdings könnten entsprechende Erkennungen anschließend auch weiterführend verarbeitet werden.

Darüber hinaus gab Green zu bedenken, dass es bei der automatischen Erkennung auf Basis von Hashwerten immer zu sogenannten "False-Positives" kommen kann. Zudem ließen sich bewusst Bilder verschicken, die den Hashwerten der bedenklichen Inhalte entsprechen, um Nutzern zu schaden. Apple hält dem entgegen, dass man verschiedene Technologien verwende, um diese Falscherkennungen und Missbräuche so weit es geht zu vermeiden.

Trackbacks

Keine Trackbacks

Kommentare

Ansicht der Kommentare: Linear | Verschachtelt

Hartmut am :

Egal in welchen Bereich man schaut, Datenschutz, pers\366nliche Freiheit oder Intimsph\344re werden unter dem Deckmantel von Terror, Hassrede oder eben hier Kindesmissbrauch suggestive abgebaut. W\344hrend dies f\374r alle Nutzer gilt, werden Terroristen und Kindersch\344nder L\366sungen finden. Da d\374rfte es wohl schon reichen, eben solche Bilder nicht in "Fotos" abzulegen. IOS entwickelt sich in Richtung Android. Warum denke ich gerade an Endzeitfilme ...

SOE am :

Toll, es ist also noch viel schlimmer als ich dachte.
Laut Heise wird sogar bereits beim ersten Treffer der Account gesperrt und die Behörden informiert.

Nichts von wegen "Weitere Datenänderungen oder Löschungen werden blockiert" - nein, komplette Kontosperrung.

Genau das, was ich gestern sagte:
Vorverurteilung, noch bevor überhaupt die Behörde den Vorwurf als "seriös" eingestuft hat.

Was bedeutet die Kontosperrung wohl für Menschen, die beruflich auf die iCloud angewiesen sind? Welche vertrauensvoll keine Kopie ihrer Daten auf dem Computer haben? Die Kredite über die AppleCard laufen lassen?

Kollateralschaden, was?

Tom am :

Heute sind es die Kinder
Morgen ist es Industriespionage und \344hnliches

Die Kriminellen wird es freuen.
Somit kann man auch fein Bilder mit entsprechendem Hash versenden, um andere in Schwierigkeiten zu bringen

Da wird leider vieles kriminelles aus der Situation passieren

Markus am :

Eine absolute Frechheit was Apple da vorhat. Durch diesen Schwachsinn wird nicht ein einziger Missbrauchsfall verhindert aber die B\374chse der Pandora ge\366ffnet. Heute ist es Kindesmissbrauch, morgen sind es Urheberrechtsverletzungen und irgendwann dann politische Gesinnung etc.
Es ist mir v\366llig schleierhaft wie so etwas auch nur im Ansatz auf Zustimmung sto\337en kann...

B\344r am :

Lol, der traum vom netz in dem deine daten sicher sind ist anscheinend immer noch nicht ausgetr\344umt. das ist wie geld auf der bank, da hat auch ein anderer am ende des tages den master key zum tresor. bilder sind nur sicher auf ner offline digicam aber doch net in irgendeiner cloud. wenn wir das hinter uns lassen ist der ansatz zum selbstschutz f\374r meinen 13 j\344hrigen sohn doch eine \374berlegung wert.

SOE am :

Vielleicht wird das nicht klar:
Die Prüfung der Bilder erfolgt auf dem iPhone.
Sowohl für die iCloud Photos, wie auch für iMessage.

Das heisst, über das Thema "unsicheres Netz" sind wir hinaus. Bist du Amerikaner, brauchst du ab Herbst keine Cloud mehr, damit deine Bilder auf dem iPhone überwacht werden.

B\344r am :

Ja, bin ich\u2026ich seh das iphone nicht als lokal\u2026f\374r mich beginnt das netz sobald ich vor einen ans internet angeschlossen device sitze\u2026

gerry am :

Wer kann sich noch an diese Werbung diese verlogenen Konzernes erinnern?
https://i2.wp.com/9to5mac.com/wp-content/uploads/sites/6/2019/01/DwGoq2uV4AA_Aov.jpg-large.jpeg?w=2500undquality=82undstrip=allundssl=1

Markus am :

@B\344r: Sorry, es ist deine Aufgabe als Erziehungsberechtigter deinen Sohn zu sch\374tzen und nicht die von Apple. Au\337erdem soll mir mal bitte jemand schl\374ssig erkl\344ren wie das unter Generalverdacht stellen von Millionen unbescholtenen Usern auch nur ein einziges Kind sch\374tzen soll. Es ist wie beim Kopierschutz der Medienindustrie: G\344ngelung der ehrlichen K\344ufer und die b\366sen Buben lachen sich was.

Kommentar schreiben

Die angegebene E-Mail-Adresse wird nicht dargestellt, sondern nur für eventuelle Benachrichtigungen verwendet.
Umschließende Sterne heben ein Wort hervor (*wort*), per _wort_ kann ein Wort unterstrichen werden.
Formular-Optionen