Apple wird seine Kinderschutzfunktion zur Erkennung von Nacktheit in der Nachrichten-App für iOS 15.2 vorantreiben, aber Eltern müssen sie aktivieren.
Als Apple seine Kinderschutzfunktionen zum ersten Mal enthüllte, stießen sie auf ziemlich kritische Reaktionen, was zu einer Verzögerung der geplanten Einführung führte. Das größte Datenschutzproblem – Apple scannt iCloud-Fotos nach Child Sexual Abuse Material (CSAM) – ist noch in der Warteschleife, aber laut Bloomberg soll das Messages-Update mit iOS 15.2 veröffentlicht werden. Apple sagt jedoch, dass es standardmäßig nicht eingesch altet sein wird und dass die Bildanalyse auf dem Gerät stattfinden wird, sodass es keinen Zugriff auf potenziell sensible Materialien hat.
Laut Apple verwendet die Funktion nach ihrer Aktivierung maschinelles Lernen auf dem Gerät, um zu erkennen, ob gesendete oder empfangene Fotos in Nachrichten anstößiges Material enth alten. Dadurch werden möglicherweise anstößige eingehende Bilder unkenntlich gemacht und das Kind gewarnt oder gewarnt, wenn es etwas sendet, das anstößig sein könnte.
In beiden Fällen hat das Kind auch die Möglichkeit, einen Elternteil zu kontaktieren und ihm zu sagen, was los ist. In einer Liste der häufig gestellten Fragen gibt Apple an, dass das Kind bei Kinderkonten unter 12 Jahren gewarnt wird, dass ein Elternteil kontaktiert wird, wenn es explizites Material ansieht/sendet. Bei Kinderkonten zwischen 13 und 17 Jahren wird das Kind vor dem potenziellen Risiko gewarnt, die Eltern werden jedoch nicht kontaktiert.
In denselben häufig gestellten Fragen besteht Apple darauf, dass keine der Informationen an Dritte weitergegeben werden, einschließlich Apple, Strafverfolgungsbehörden oder dem NCMEC (National Center for Missing & Exploited Children).
Diese neuen Kindersicherungsoptionen für Nachrichten sollten im kommenden iOS 15.2-Update verfügbar sein, das laut Macworld voraussichtlich irgendwann in diesem Monat veröffentlicht wird.