schaf am 06. August 2021 um 12:39 |  2 Kommentare | Lesezeit: 1 Minuten

Apple scannt iPhones künftig auf Darstellungen von Kindesmissbrauch

Betroffen sind vorerst nur Nutzer in den USA. Sicherheitsforscher und Aktivisten warnen, dass dieser Vorstoß das Tor für staatliche Überwachung öffnen könnte

Auf der Suche nach Missbrauchsdarstellungen von Kindern wird Apple in Zukunft die Geräte aller iPhone-User scannen - sofern sie iCloud aktiviert haben. Diese umstrittene neue Schutzfunktion ist Teil eines Pakets, das der Konzern am Donnerstag ankündigte. Zusätzlich erhält die iMessage-App eine ausgebaute Sicherheitsfunktion, mit der Kinder vor pornografischen Inhalten gewarnt werden. Außerdem sollen User vom Sprachassistenten Siri bessere Hilfestellung in Notsituationen erhalten. Betroffen sind vorerst nur Geräte in den USA, allerdings dürfte eine Ausweitung auf weitere Länder nur eine Frage der Zeit sein. Aktivisten und Sicherheitsforscher zeigen sich alarmiert.

Die Erkennung von Kindesmissbrauchsdarstellungen, also sogenanntem Child Sexual Abuse Material (CSAM), soll künftig mittels lokalem Scan des Geräts umgesetzt werden. Vor dem Upload in die iCloud werden Fotos dann mit einer Datenbank bekannter Hashes - also der Content-ID von Bilddateien - abgeglichen. Übereinstimmungen werden an das National Center for Missing and Exploited Children (NCMEC) gemeldet, dieses arbeitet eng mit den US-Strafverfolgungsbehörden zusammen.

Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 3.2/5 (12 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(2)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar angestimmt...

;-)

Top