Skip to content

Blockbuster fürs Wochenende: "Hotel Transsilvanien 3" für € 0,99 leihen, "Jungleland" für € 6,99 kaufen

Apple hat zusätzlich zu seinem bereits liebgewonnenen "Movie Mittwoch" nun auch den "Blockbuster fürs Wochenende" ins Leben gerufen. Dabei wird jedes Wochenende ein ausgewählter Film aus dem iTunes-Sortiment für 24 Stunden zum Sonderpreis von nur € 0,99 in HD-Qualität zum Leihen angeboten. In dieser Woche handelt es sich um den Animationsfilm Hote Transsilvanien 3 - Ein Monster Urlaub, den man zum Sonderpreis von € 0,99 erhält. Nachdem man den Leih-Film geladen hat, kann er innerhalb von 30 Tagen angeschaut werden. Wie immer bei geliehenen Filmen aus dem iTunes Store gilt: Hat man hiermit einmal begonnen, muss man ihn innerhalb von 48 Stunden beenden.

Darüber hinaus lässt sich das Kampfsport-Drama Jungleland nur über das Wochenende zum Preis von € 6,99 käuflich im iTunes Store erwerben. Einmal gekaufte Filme lassen sich jederzeit erneut aus dem iTunes Store herunterladen und sind auf allen verbundenen Geräten uneingeschränkt nutzbar.

Apple veröffentlicht Clip zum Start der neuen Apple TV+ Comedy-Serie "Mr. Corman"

Apple hat mal wieder einen neuen "First Look" Clip für einen demnächst startenden Apple TV+ Inhalt auf seinem YouTube-Kanal veröffentlicht. Dabei handelt es sich um die Comedy-Serie "Mr. Corman", in der Joseph Gordon-Levitt die Hauptrolle spielt und auch als Produzent agiert und die ab heute auf Apple TV+ zu sehen ist. So stehen inzwischen die ersten beiden der insgesamt zehn Folgen der ersten Staffel zum Streamen über Apple TV+ zur Verfügung. Weitere Folgen werden im gewohnten Wochenrhythmus jeweils freitags ergänzt. Inhaltlich geht es in "Mr. Corman" um einen gleichnamigen Grundschullehrer in Los Angeles und dessen Leben innerhalb und außerhalb der Schule.



YouTube Direktlink

Erstes Funktions-Update seit Jahren: WeatherPro erhält Widget unter iOS 14

Wer heute in die App-Updates auf seinem iPhone schaut und in der Vergangenheit in Sachen Wetter-App auf den einstigen Platzhirschen WeatherPro (€ 0,99 im AppStore) gesetzt, erlebte eine kleine Überraschung. Dort findet man nämlich aktuell eines der inzwischen rar gewordenen Updates für die App. Ein kurzer Blick zurück: Über Jahre hinweg war dies die Wetter-App meines Vertrauens auf dem iPhone, dem iPad und dem Mac und auch der unangefochtene Platzhirsch im deutschen AppStore. Noch heute steht die App hier auf Platz 1 unter den Wetter-Apps und das, obwohl die App seit Jahren nicht mehr regelmäßig aktualisiert wird. Vor einiger Zeit wurde das für die App verantwortliche deutsche Unternehmen MeteoGroup vom US-Konzern DTN übernommen und damit auch WeatherPro. Im September verkündeten dann die neuen Besitzer, dass die damals aktuelle Version zwar weiter genutzt werden könne, jedoch künftig keine neuen Funktionen mehr integriert werden würden. Stattdessen plant man bei DTN die Entwicklung einer eigenen App, die dann auch international im AppStore verfügbar sein soll. Im Dezember folgte dann eine kleine Rolle rückwärts, als die neuen Besitzer von WeatherPro verlauten ließen, dass man sich nun doch für die Weiterentwicklung der App engagieren würde.

Ein Schritt in diese Richtung könnte nun auch das Update auf Version 4.9.3 sein, welches WeatherPro seit Monaten auch erstmals mit einer neuen Funktion ausstattet. So ist in dem aktuellen Update ein Widget für iOS 14 mit an Bord, welches sich zudem in einem etwas anderen Design präsentiert als man dies aus der Haupt-App gewohnt ist. Möglicherweise deutet dies auf die schon länger ersehnte Version 5 und damit einen Neustart für die App hin. Bei dem Widget hat man die Wahl, ob man auf dem Display eine stündliche oder eine tägliche Vorhersage angezeigt haben möchte. Unterschiedliche Größen, wie man es von anderen Apps gewohnt ist, werden jedoch nicht angeboten.

Weitere Informationen zu Apples neuen Technologien zum Schutz von Kindern

Apples gestrige Ankündigung neuer Funktionen für einen besseren Schutz von Kindern auf seinen Geräten hat für eine Menge Aufsehen und Wirbel gesorgt. Inzwischen hat das Unternehmen mit ein paar weiteren Informationen und Klarstellungen nachgelegt. Eine der neuen Funktionen ist das Abgleichen von lokal auf einem iPhone oder iPad gespeicherten Fotos mit Hashwerten, um auf diese Weise Aufnahmen von sexuellem Missbrauch von Kindern zu entdecken. War dies der Fall, werden die betroffenen Bilder für den Nutzer unsichtbar markiert, bevor sie auf iCloud Fotos hochgeladen werden. Im Falle von vermehrten Erkennungen auf einem Account wird dieser gesperrt und der Nutzer von Apple an die zuständigen Behörden gemeldet. Hierbei handelt es sich um eine automatische Funktion, die vom Nutzer nicht deaktiviert werden kann. Allerdings hat Apple nun den Kollegen von MacRumors gegenüber bestätigt, dass die Erkennung nicht durchgeführt wird, wenn iCloud Fotos deaktiviert ist.

Neben dem Abgleich der Fotos mit den Hashwerten hat Apple auch "Communication Safety" für iMessage angekündigt. Hierbei werden Bilder mit potenziell anzüglichen Inhalten erkannt und Minderjährige und deren Eltern beim Empfang selbiger infomiert, bevor sie angezeigt werden. Dies hat selbstverständlich auch bereits Datenschutzbedenken ausgelöst, da Apple offenbar die über iMessage verschickten Bilder scannt. Während auch dies lediglich auf Basis von Hashwerten geschehen soll, hat Apple hier noch einmal für weitere Aufklärung gesorgt. So wird es sich bei der Funktion um ein optionales Feature handeln, welches ausschließlich auf Accounts von Kindern angewendet wird und das von den Eltern explizit in der Familienfreigabe unter iCloud aktiviert werden muss. Ist dies der Fall, wird das empfangene Bild zunächst verschwommen angezeigt und die folgende Meldung eingeblendet:

"Sensitive photos and videos show the private body parts that you cover with bathing suits,. It's not your fault, but sensitive photos and videos can be used to hurt you."

Anschließend kann das Kind auswählen, ob das Foto dennoch angezeigt werden soll. Für Kinder unter 13 Jahren können die Eltern entscheiden, ob sie darüber informiert werden wollen, wenn ihr Sprössling das Bild dennoch sehen möchte. Hierzu informiert Apple mit dem folgenden Text:

"If you decide to view this, your parents will get a notification to make sure you're OK."

Auch bei "Communication Safety" setzt Apple bei der Erkennung der Bildinhalte auf Maschinenlernen. Die Verarbeitung findet auch hier komplett lokal auf dem Gerät statt. Da die iMessage-Nachrichten nach wie vor Ende-zu-Ende verschlüsselt sind, erhält Apple keinen Zugriff auf die verschickten Inhalte. "Weitere Informationen zu Apples neuen Technologien zum Schutz von Kindern" vollständig lesen

Video zeigt Prototyp der legendären AirPower-Ladematte in Aktion

Die Ankündigung, Verschiebung und letztliche Einstellung der Arbeit an der kabellosen Universal-Ladematte AirPower muss wohl als einer der größeren Fehlschläge in der jüngeren Apple-Vergangenheit einsortiert werden. Ursprünglich gemeinsam mit dem iPhone X vorgestellt, sollte die Ladematte in der Lage sein, gleichzeitig ein iPhone, eine Apple Watch und ein AirPods-Ladecase kabellos aufzuladen und zwar unabhängig davon, wo man die Geräte auf der Matte ablegte. Eine Ankündigung, die großes Staunen auslöste, an der die Apple-Ingenieure allerdings letzendlich, wohl aufgrund einer zu starken Hitzeentwicklung scheiterten. Allerdings gab es in den vergangenen Monaten immer mal wieder Meldungen, dass das Projekt doch noch nicht komplett gestorben sei und ein kleines Team nach wie vor daran forschte.

Nun ist ein Video aufgetaucht, in dem offenbar ein funktionierender AirPower-Prototyp zu sehen ist. Das auf der Ladematte platzierte iPhone zeigt dabei auf dem Display eine Animation an, die den Start des Ladevorgangs indiziert. Wären weitere kompatible Geräte auf der Matte platziert worden, hätte das iPhone-Display auch entsprechende Ladestandsanzeigen für diese Geräte angezeigt.

Apple sichert sich Rechte am Spionage-Thriller "Argylle" und setzt "Physical" in zweiter Staffel fort

Thriller-Fans dürfen sich auf einen weiteren Neuzugang für Apple TV+ freuen. Wie die Kollegen von Deadline berichten, hat sich Apple die Rechte an "Argylle" einem Spionage-Thriller von Matthew Vaughn gesichert und sich diese satte 200 Millionen Dollar kosten lassen haben. Der Film basiert auf dem  kommenden Roman der Schriftstellerin Ellie Conway über den besten Spion der Welt (war dies nicht eigentlich James Bond?) und dessen Aufträge auf der ganzen Welt. Die Dreharbeiten sollen noch in diesem Jahr beginnen und Henry Cavill in der Hauptrolle sehen. Ebenfalls unter der Besetzung befinden sollen sich die Sängerin Dua Lipa, Wrestling-Star John Cena, die Hollywood-Stars Samuel L. Jackson, Sam Rockwell, und Bryan Cranston und viele mehr. Ein konkreter Starttermin steht allerdings noch nicht fest.

Darüber hinaus hat Apple bekanntgegeben, dass die beliebte Hit-Serie "Physical" um eine zweite Staffel verlängert wird. "Physical" spielt im San Diego der 1980er Jahre. Im Mittelpunkt der Story steht Sheila Rubin (gespielt von Rose Byrne), eine pflichtbewusste Hausfrau, die die politischen Ambitionen ihres Ehemanns unterstützt. Dabei entwickelt sie einen Faible für Fitness und beginnt damit, Workout-Videos zu erstellen und diese zu vermarkten. Dabei spielt die Serie auf witzige Weise mit dem kalifornischen Aerobics-Boom der 80er Jahre. Bei den Nutzern kam die erste Staffel ausgesprochen gut an, weswegen die Fortsetzung der schwarzen Komödie keine große Überraschung ist.

Mit iOS 15, macOS Monterey und Co.: Apple kündigt neue Funktionen zum Schutz von Kindern an

Die früher am heutigen Tag durchgesickerten Informationen zum Thema Kindersicherheit sind nun offiziell. Auf einer neuen Webseite hat Apple dabei auch Informationen zu dem vorhin thematisierten Abgleich von Fotos auf dem iPhone, iPad und Mac mit Hashwerten zur Erkennung von Kindesmissbrauch bekanntgegeben. Dieser wird allerdings nur ein Teil einer größer angelegten Offensive zum Thema Kindersicherheit sein, die zunächst ausschließlich in den USA, später aber auch in anderen Regionen, mit iOS 15, iPadOS 15 und macOS Monterey umgesetzt wird.

Mit einbezogen wird dabei auch iMessage, welches mit einer "Communication Safety" Funktion ausgestattet wird, die Kinder und ihre Eltern warnt, sobald sexuell anzügliche Fotos empfangen werden. Die Erkennung funktioniert auch in diesem Fall auf Basis von Maschinenlernen und findet komplett lokal auf dem Gerät statt. Sollte die Funktion anspringen, wird das empfangene Bild automatisch verschwommen dargestellt und eine entsprechende Meldung angezeigt. Sind die entsprechenden Schalter in der Familienfreigabe aktiviert, können sich auch Eltern über den Empfang eines solchen Bildes informieren lassen.

Ebenfalls mit iOS 15 und iPadOS 15 wird Apple die heute Nachmittag thematisierte automatische Erkennung von Bildern mit sogenanntem "Child Sexual Abuse Material" (CSAM), als Darstellungen von sexuellem Missbrauch von Kindern umsetzen. Wurden mehrere solcher Bilder in einem Account entdeckt, meldet Apple dies an das National Center for Missing and Exploited Children (NCMEC), eine Non-Profit -Organisation, die mit den Strafverfolgungsbehörden in den USA zusammenarbeitet. Dabei betont Apple, dass man auch bei der CSAM-Erkennung den Datenschutz in den Mittelpunkt stelle. Wie bereits berichtet, wird die Erkennung der Bilder auf Basis von Hashwerten aus der Datenbank der NCMEC und anderen Organisationen für den Schutz des Kindeswohls durchgeführt. Die dabei zum Einsatz kommende Technologie hört auf den Namen "NeuralHash" und vergleicht Hashwerte von Bildern auf denen Kindesmissbrauch zu sehen ist mit denen auf den Geräten. Hierzu schreibt das Unternehmen in einem neuen Whitepaper:

"The main purpose of the hash is to ensure that identical and visually similar images result in the same hash, while images that are different from one another result in different hashes,. For example, an image that has been slightly cropped, resized or converted from color to black and white is treated identical to its original, and has the same hash."

Die Bilderkennung wird wie gesagt auf dem Gerät selbst durchgeführt, bevor die Fotos auf iCloud Fotos hochgeladen werden. Wurde dabei eine Übereinstimmung festgestellt, wird das Bild entsprechend gekennzeichnet und anschließend hochgeladen. Wurde eine nicht näher benannte Anzahl von Übereinstimmungen bei einem Account festgestellt, werden diese manuell überprüft, der betroffene iCloud-Account deaktiviert und eine Meldung an das NCMEC getätigt. Zwar macht Apple zu dem Vorgang keine konkreten Angaben, versichert aber, dass man für einen "extremely high level of accuracy" sorgen und sogenannte "False-Positives" so weit es geht minimieren werde. Sämtliche Informationen hierzu lassen sich einer veröffentlichten technischen Dokumentation und der neuen Child Safety Webseite entnehmen.

Als dritte Maßnahme wird Apple Anpassungen bei Siri und der Spotlight-Suche auf all seinen Geräten vornehmen, um weiter sicherzustellen, dass sich Eltern und ihre Kinder sicher im Internet bewegen können und schnelle Hilfe in unsicheren Situationen erhalten. Beispielsweise werden entsprechende Ressourcen angeboten, wenn Nutzer Siri fragen, wie und wo sie Kindesmissbrauch melden können.

Wie bereits weiter oben erwähnt, werden sämtliche Neuerungen in diesem Herbst mit iOS 15, iPadOS 15, watchOS 8 und macOS Monterey eingeführt. Dies gilt  zunächst ausschließlich für die USA, soll jedoch schrittweise auch auf andere Regionen ausgeweitet werden.

Apple soll künftig angeblich Fotos auf dem iPhone auf Kindesmissbrauch prüfen

Puh, schwieriges Thema... Schon seit einiger Zeit ist das iPhone ja bekanntermaßen in der Lage, die lokal gespeicherten Fotos auf deren Inhalte zu analysieren und dabei beispielsweise Objekte oder auch Gesichter zu erkennen. Diese Funktion wird ab morgen offenbar weiter ausgebaut. So berichtet der Sicherheitsforscher und Professor an der Johns Hopkins University Matthew Green, dass Apple ab morgen das iPhone in die Lage versetzen wird, die auf ihm lagernden Bilder auch auf darauf möglicherweise zu sehenden Kindesmissbrauch zu überprüfen. Für die auf die iCloud-Server hochgeladenen Bilder gilt dies bereits seit einiger Zeit.

Die Überprüfung auf dem iPhone soll dadurch geschehen, dass Hashwerte von bekannten Missbrauchs-Fotos an das iPhone gesendet werden und die darauf gespeicherten Fotos damit dann abgeglichen werden. Auf den ersten Blick sicherlich ein sinnvoller und begrüßenswerter Schritt, der auf der anderen Seite allerdings auch durchaus negative Nachwirkungen haben kann.

So sind die Hashwert-Abgleiche keinesfalls eine sichere Methode, um die Bilder zu checken, so dass es durchaus wahrscheinlich ist, dass es vermehrt zu sogenannten False-Positives kommen kann, also Meldungen einer Erkennung, obwohl auf dem Foto komplett harmlose Motive zu sehen sind. Dies wiederum könnte dann zu Beschuldigungen von Personen führen, die sich eigentlich gar nichts zu schulden haben kommen lassen. Gerade beim Thema sexueller Missbrauch von Kindern ein mehr als dünnes Eis. Wie Green zu bedenken gibt, ist es zudem möglich, Bilder bewusst so zu manipulieren, dass der Erkennungs-Algorithmus Alarm schlägt. Möchte man jemandem also etwas anhängen und verfügt über die entsprechenden Möglichkeiten, wäre auch dies möglich.

Eine große Gefahr sieht der Sicherheitsexperte außerdem darin, dass das sogenannte "digital fingerprinting" von Behören und totalitären Regimen auch dazu genutzt werde könnte, um nicht nur Kinderpornografie zu entdecken, sondern auch beliebige andere Inhalte. Wird also die entsprechende Infrastruktur auf Basis der Hashwerte auf den Geräten erst einmal eingerichtet, könnte man hiermit beispielsweise auch andere Inhalte auf dem iPhone, wie beispielsweise die eigentlich Ende-zu-Ende verschlüsselten iMessage-Nachrichten mit entsprechenden Informationen abgleichen und diese somit mehr oder weniger ausspionieren. Ein Thema, welches gerade auch im Rahmen der Diskussion um die Pegasus-Spyware heiß diskutiert wurde.

Zu bedenken gilt es dabei aktuell noch, dass sich Apple offiziell zu dem Thema noch gar nicht geäußert hat, es sich momentan also nur um ein Gerücht handelt. Sollte das Thema jedoch tatsächlich umgesetzt werden, fordert Green, dass Apple die verwendeten Algorithmen offenlegt, um sie von unabhängigen Stellen auf Herz und Nieren prüfen zu lassen. Allerdings äußert Green auch Bedenken, ob Apple das Thema überhaupt öffentlich bekannt machen wird.