Es vergeht derzeit kaum noch ein Tag, ohne den Apples neue Kinderschutzfunktionen thematisiert werden, die im Herbst mit iOS/iPadOS 15, macOS Monterey und Co. kommen werden. Nun hat sich auch Apples Software-Chef Craig Federighi in einem Interview mit dem Wall Street Journal zu Wort gemeldet und die geplanten Funktionen versucht zu erklären. Grundsätzlich ist man sich bei Apple offenbar der Tatsache bewusst, dass es keine gute Idee war, die drei Features gemeinsam anzukündigen, da hierdurch auch Maßnahmen und ihre Umsetzung vermischt wurden, was nicht der Realität entspräche. Die Kommunikation hätte laut Federighi deutlich besser laufen müssen.
So wahnsinnig viel Neues konnte Federighi in dem Interview allerdings auch nicht erzählen. Er betonte beispielsweise erneut, dass das Scannen der Benutzerfotos auf kinderpornografische Inhalte nur dann vorgenommen werde, wenn diese auf iCloud hochgeladen werden. Ist iCloud Fotos deaktiviert, ist auch der Scan deaktiviert. Dies hätte man deutlicher kommunizieren müssen. Man sei bei Apple weiterhin fest davon überzeugt, dass der geplante Weg der richtige sei, dass er jedoch in der Öffentlichkeit nicht korrekt verstanden werde. Noch einmal betonte Federighi, dass die Alarmglocken nicht bei wenigen übereinstimmenden Hashwerten anspringen würde, sondern erst nach Erreichen eines bestimmten Schwellwertes. Anschließend würde eine manuelle Überprüfung der Bilder durch Apple erfolgen und erst danach würden in einem bestätigten Fall der iCloud-Account des Nutzers deaktiviert und die zuständigen Behörden informiert werden.
Vor allem der Schwellwert war bisher ein Mysterium in dieser Beziehung. Federighi ließ nun verlauten, dass dieser irgendwo um die 30 übereinstimmenden Hashwerte liegen würde. Dies wurde auch in einem neuen Dokument bestätigt, welches Apple zur weiteren Aufklärung veröffentlicht hat. Beim manuellen Review würden die handverlesenen Apple-Mitarbeiter auch nur die als auffällig markierten Bilder zu Gesicht bekommen, nicht jedoch alle anderen Bilder des Nutzers.
In dem oben verlinkten Dokument erklärt Apple zudem, dass die Datenbank mit Hashwerten, gegen die die Bilder abgeglichen werden, mit Inhalten gefüllt ist, die von mindestens zwei Organisationen zur Kindersicherheit eingereicht wurden. Darüber hinaus wird Apple auch noch ein Support-Dokument veröffentlichen, in dem man auch den Root-Hash der verschlüsselten CSAM-Datenbank enthalten sein wird, die ab Herbst mit iOS 15 und Co. auf die Geräte der Nutzer ausgerollt wird. Hiermit kann sichergestellt werden, dass die Datenbank auf dem Gerät auch tatsächlich die ist, die Apple für den Kinderschutz vorgesehen hat. Der Bloomberg-Kollege Mark Gurman ergänzt, dass Apple auch noch ein externes Audit zur geplanten Technologie durchführen lassen wird, welches die Sicherheit der Nutzerdaten bestätigen soll.
Doch zurück zu Federighi. Angesprochen auf eine mögliche Hintertür, die Apple mit der Funktion in seine Systeme auch für andere Anwednungsfälle einbauen würde, widersprach der Software-Chef vehement und wiederholte, dass vor allem durch die mehrstufige automatische und manuelle Überprüfung der Fälle ein Missbrauch der Funktionen ausgeschlossen sei. Man werde auch künftig Behörden keinen weiterreichenden Zugriff auf die Daten seiner Nutzer gewähren.
Eine gänzlich andere Funktion sei hingegegn die Überprüfung von über die Nachricten-App auf dem iPhone empfangenen und versendeten Medien. Diese werden zwar ebenfalls auf potenziell anzügliche Inhalte untersucht, dies habe allerdings nichts mit der oben erläuterten Funktion zu tun. Vielmehr trägt man damit der Sorge vieler Eltern Rechnung, ihre Kinder könnten auf diese Weise belästigt werden. Diese Funktion ist ausschließlich für Kinder unter 13 Jahren aktiviert und auch nur dann, wenn diese einen Account im Rahmen der Familienfreigabe besitzen. Dank der nach wie vor bestehenden Ende-zu-Ende Verschlüsselung von iMessage, seien hier keine Gefahren zu erwarten. Apple sei es laut Federighi viel mehr gelungen, die Sicherheit der Kinder und den Datenschutz dank der genutzten Technologien unter einen Hut zu bekommen.