NeuralHash: Apple beantwortet Fragen zur Privatsphäre
Hintergrund

NeuralHash: Apple beantwortet Fragen zur Privatsphäre

Bald scannt Apple auf deinem Smartphone nach Bildern von Kindesmissbrauch und übermittelt Daten an Behörden. Im Nachgang des initialen Aufschreis der Netzgemeinde gibt der Konzern aus Cupertino Auskunft.

Die Funktion NeuralHash hat in den vergangenen Tagen für Aufsehen gesorgt. In einem zweiten Whitepaper beantwortet Apple nun Fragen und stellt sich der Kritik der Datenschützer und Nutzer ihrer Produkte.

  • Hintergrund

    Apple NeuralHash gegen Privatsphäre: Die Büchse der Pandora wird geöffnet

    von Dominik Bärlocher

Datenschützer sind entsetzt. User auch.

«Was auf deinem iPhone ist, bleibt auf deinem iPhone»* * Naja, ausser Apple findet deine Photos gerade «interessant», gewichtet nach Kriterien, die natürlich nur die «bösen» Bilder als «interessant» flagt... Ganz sicher. Onkel Apple ist ja einer der Guten. (Und wenn du was anderes behauptest, werden halt vielleicht «aus Versehen» deine Nudes geleakt)
Rem3_1415926, Kommentarspalte, digitec.ch

Dieser Kritik und ähnlichen Argumenten tritt Apple gegenüber. Die wichtigsten Fragen und Antworten findest du hier. Aber: Das sechsseitige Whitepaper ist lesenswert, wenn du verstehen willst, wie sich Apple trotz Umgehung der eigenen Verschlüsselung und Violation der Privatsphäre seiner Nutzer nach wie vor als Datenschützer sieht.

Worum geht es im Whitepaper?

In einer kommenden Version von iOS 15 werden zwei Features zum Schutz von Kindern ausgerollt. Diese Funktionen werden vorerst nur in den USA funktionieren. Zu einem weltweiten Rollout hat Apple noch nichts gesagt. Diese zwei Features heissen:

  1. Communication Safety in Messages
  2. NeuralHash

Wenn du über diese beiden Systeme im Bild bist, dann spring zum Zwischentitel «Apple beantwortet Fragen zu Communication Safety in Messages» und lies dort weiter. Nach den folgenden zwei Titeln geht es um einen technischen Überblick und eine Mini-Analyse des Features «Communication Safety in Messages».

NeuralHash im Überblick

NeuralHash gleicht Bilder auf deinem iPhone oder deinem iPad mit Daten ab, die Kindesmissbrauch zeigen. Dies geschieht auf deinem Gerät, also vor dem Upload in die iCloud. Damit umgeht Apple die eigene Verschlüsselung der iCloud Backups und kann sie trotzdem wahren.

Die Datenbasis für die Analyse auf deinem Smartphone oder Tablet werden vom National Centre for Missing and Exploited Children (NCMEC) und anderen Kinderschutzorganisationen zur Verfügung gestellt. Und es ist auch diese Organisation, die sich mit den Autoritäten in Verbindung setzen wird, sollte ein Verdacht bestätigt werden. Denn wenn NeuralHash eine ausreichende Anzahl Bilder erkennt, die Kindesmissbrauch zeigen, dann werden die Bilder entschlüsselt an Apple übermittelt. Dort werden sie von Menschen gesichtet und wenn der Verdacht sich bestätigt, das NCMEC alarmiert.

Die Bilder auf deinem Gerät werden mit von Apples eigenem Hashing-System NeuralHash generierten Zahlenwerten, die Bilddaten abstrahieren, abgeglichen. Diese Zahlenwerte werden Hash genannt. Bisher hat Apple noch nicht gesagt, dass NeuralHash auch neu generiertes Material auf Nacktheit überprüft.

Communication Safety in Messages im Überblick

Communication Safety in Messages ist eine Funktion, die für die «Messages»-App deines iPhones oder deines iPads kommt. Es ist ein optionales Tool für Eltern zum Schutz ihrer Kinder. Wenn die Funktion eingeschaltet ist, dann ist es einem Kind nicht möglich, Nacktbilder zu versenden oder zu empfangen.

  • Hintergrund

    Nackt-Selfies: So schickst du deine Nacktbildli sicher durchs Netz

    von Dominik Bärlocher

Die Funktion bedingt, dass der Account, der keine Nudes versenden oder empfangen darf, in einem Family Sharing Account verwaltet wird. Wie schon NeuralHash, analysiert Communication Safety in Messages Daten direkt auf dem Phone. Allerdings werden im Gegensatz zu NeuralHash keine Daten an Apple übermittelt, sollte das System Alarm schlagen.

Wenn Communication Safety in Messages ein Nacktbild entdeckt, dann wird dieses verschwommen dargestellt, das Kind wird gewarnt und es werden ihm «hilfreiche Ressourcen», also Tipps, zur Verfügung gestellt. Dazu zeige das iPhone oder das iPad eine Message an, dass es okay sei, wenn das Kind das Bild nicht sehen wolle.

Zusätzlich ist es möglich, dass die Eltern «junger Kinder» informiert werden, wenn ihr Kind über Messages Nacktbilder sendet oder empfängt.

Communication Safety in Messages greift nur dann ein, wenn die Bilder über die App «Messages» transferiert werden. WhatsApp, Signal, Threema, Snapchat, TikTok, Instagram und alle anderen Messaging Apps sowie Safari und Co. werden nicht von Communication Safety in Messages überwacht.

Communication Safety in Messages beweist, dass Apple in der Lage ist, Bildmaterial nicht nur auf bereits existierende Daten zu prüfen. Der Konzern kann neu generierte Nacktbilder erkennen, die noch in keiner Datenbank existieren.

Apple beantwortet Fragen zu Communication Safety in Messages

In einem am 9. August 2021 veröffentlichten PDF begegnet Apple der Kritik der Öffentlichkeit und erklärt, wie die beiden Features zum Schutz des Kindeswohls funktionieren.

Die folgenden Fragen und Antworten sind dem PDF entnommen und der Lesbarkeit wegen gekürzt. Ich empfehle dir trotzdem, die sechs Seiten aus Cupertino zu lesen.

Verwenden NeuralHash und Communication Safety in Messages dieselbe Technologie?

Nein, die Features sind weder identisch noch verwenden sie dieselbe Technologie.

  • Communication Safety in Messages ist in der Lage, neu generierte Daten auf ihren Inhalt zu analysieren und darauf zu reagieren.
  • NeuralHash gleicht Daten auf dem iPhone mit Bildern in einer Datenbank ab. Sollte NeuralHash Alarm schlagen, werden die Daten entschlüsselt and Apple übermittelt. Dort bestätigt ein Mensch den Verdacht und übermittelt die Daten ans NCMEC. Dieses wird sich mit «Behörden weltweit» in Verbindung setzen.

Wer kann Communication Safety in Messages verwenden?

Die Funktion, die in Messages existiert, mit dem Namen Communication Safety in Messages kann nur auf Accounts angewendet werden, die in einem Family Sharing Account integriert sind. Eltern oder Erziehungsberechtigte müssen das Feature aktivieren. Es ist nicht standardmässig aktiv.

Notifications bei Empfang oder versuchtem Versand von Nacktbildern ist nur bei Kindern möglich, die 12 Jahre alt oder jünger sind.

Übermittelt Communication Safety in Messages Daten an Apple, die Polizei oder Behörden?

Nein, Apple hat keinen Zugriff auf Daten in Messages. Communication Safety in Messages übermittelt keine Daten an Apple, das NCMEC oder die Polizei.

NeuralHash hingegen schon. Aber: NeuralHash interagiert nicht mit Communication Safety in Messages.

Bricht Communication Safety in Messages die End-to-End Encryption in Messages?

Nein. Die Privatsphärenversprechen, die Apple in Messages macht, werden bei der Verwendung von Communication Safety in Messages nicht verletzt. Apple erhält keinen Einblick in Messages, die in der App «Messages» versendet und empfangen werden.

Communication Safety in Messages ist ein vollautomatisches System, das Eltern oder Erziehungsberechtigte bewusst einschalten müssen.

Hilft Communication Safety in Messages Kinder, die im Eigenheim Missbrauch erfahren?

Nein. Communication Safety in Messages analysiert Bilder nur auf Inhalt, der «explizit sexuell» ist. Alle andere Kommunikation ist nicht betroffen.

Aber Apple wird Siri und Search dahingehend mit Ressourcen versorgen, dass Opfer oder bekannte eines Opfers mehr Hilfestellung erhalten.

Apple beantwortet Fragen zu NeuralHash

Da NeuralHash und Communication Safety in Messages zwei unterschiedliche Features sind, gelten andere Regeln und Massstäbe für NeuralHash.

Apple nennt NeuralHash auch «CSAM Detection», wobei CSAM für «Child Sexual Abuse Material» steht. Kurz: Pornografische Inhalte mit Kindern.

Scannt Apple alle Bilder auf meinem iPhone?

Nein. CSAM Detection scannt nur Bilder, die der Nutzer auf iCloud hochladen will.

CSAM Detection schlägt nur in folgenden Fällen an:

  • Wenn auf einem Gerät mehrere kinderpornografische Inhalte gefunden werden
  • Wenn diese Inhalte der Datenbank des NCMEC bekannt sind

Wenn ein Nutzer iCloud Photos nicht aktiviert hat, dann ist auch NeuralHash alias CSAM Detection nicht aktiviert.

Werden Kinderporno-Bilder auf mein iPhone geladen und mit Bildern auf meinem iPhone abgeglichen?

Nein. Bilder mit CSAM-Inhalt werden nicht auf dem Gerät gespeichert. Apple abstrahiert Bilder in der Datenbank des NCMEC und macht sie zu Zahlenwerten. Diese Zahlenwerte werden Hash genannt. Es ist nicht möglich, diese Hashes wieder zu den Bildern zu machen, auf denen sie basieren.

Wieso tut Apple das jetzt?

Apple sieht es als grosse Herausforderung an, die Privatsphäre ihrer Nutzer zu wahren und gleichzeitig das Kindeswohl zu schützen. Mit NeuralHash, auch CSAM Detection genannt, kann Apple in Erfahrung bringen, welche Accounts mehrere Inhalte mit Kinderpornografie in der iCloud speichern.

Apple sieht nicht, was lokal auf dem iPhone passiert.

Produkte mit derselben Funktion anderer Hersteller scannen alle Bilder auf dem Gerät, sagt Apple. Das sei ein Privatsphärenrisiko für alle Nutzer. Daher sei NeuralHash eine bessere Lösung, da Apple keinen Einblick in andere Inhalte hat.

Kann NeuralHash, auch CSAM Detection genannt, eingesetzt werden, andere Dinge und nicht nur Kinderpornografie zu erkennen?

Apple hat die Prozesse hinter NeuralHash, auch CSAM Detection genannt, so konzipiert, dass das System nicht für andere Zwecke gebraucht werden kann. Die Datenbanken zum Abgleich mit den Photos, die auf iCloud hochgeladen werden, werden vom NCMEC und anderen Kinderschutzorganisationen zur Verfügung gestellt.

Es werden keine automatischen Reports an Polizei oder andere Behörden gemacht.

In den meisten Ländern ist es ein Verbrechen, Kinderpornografie zu besitzen. Apple ist dazu verpflichtet, entsprechendes Bildmaterial den Behörden zu melden.

Können Regierungen Apple dazu zwingen, NeuralHash auf andere Inhalte anzusetzen?

Apple stellt sich kategorisch gegen jegliche Anfragen in dieser Richtung. NeuralHash sucht nur nach Kinderpornografie in der iCloud, die von Experten des NCMEC und anderen Kinderschutzorganisationen als solche deklariert wurde.

Apple ist in der Vergangenheit oft von Regierung und Behörden aufgefordert worden, Massnahmen zu ergreifen, die die Privatsphäre der User verletzen oder schwächen. Apple hat diese kategorisch abgelehnt.

Apple stellt sich weiterhin gegen solche Anfragen.

Bevor Daten ans NCMEC übermittelt werden, werden Alarmmeldungen von NeuralHash, auch CSAM Detection genannt, von einem Menschen bei Apple überprüft.

Können die Datenbanken des NCMEC und anderen Kinderschutzorganisationen so manipuliert werden, dass andersartige Bilder erkannt und gemeldet werden?

Apple hat Massnahmen ergriffen, die es verunmöglichen sollen, dass Datenbanken mit nicht-kinderpornografischen Bildern versehen werden, damit NeuralHash Alarm schlägt. Die Daten, auf deren Basis der Abgleich mit den Fotos geschieht, sind vom NCMEC und anderen Kinderschutzorganisationen verifiziert.

Diese von Kinderschutzorganisationen zur Verfügung gestellten Datenbanken werden in Zahlenwerte, Hashes genannt, abstrahiert und auf jedem iPhone und iPad gespeichert. Es ist so nicht möglich, einzelne Personen mit NeuralHash zu überwachen.

Bevor das NCMEC informiert wird, werden Bilder bei Apple von einem Menschen überprüft. Spätestens dieser Mensch erkennt, dass da keine Kinderpornografie im Bild ist und es wird keine Meldung gemacht.

Wird CSAM Detection fälschlicherweise Unschuldige der Polizei melden?

Nein. Apple hat NeuralHash so geschaffen, dass die Wahrscheinlichkeit eines Fehlalarms extrem niedrig ist. Pro Jahr, so schätzt Apple, ist eine Meldung in einer Billion falsch.

Da zusätzlich ein Mensch eine Überprüfung vornimmt, werden diese Falschmeldungen spätestens dort auffallen und es wird keine Meldung ans NCMEC gemacht.

Daher führen Angriffe und Systemfehler nicht dazu, dass Unschuldige dem NCMEC oder den Behörden gemeldet werden.

Das Fazit

Das Whitepaper aus dem Hause Apple ist klar so geschrieben, dass die Wogen geglättet werden sollen. Es zielt darauf ab, dass sich die Menschen wieder sicher fühlen und ihre Privatsphäre nicht in Gefahr sehen sollen.

Die Sicherheit trügt.

Eine Frage der Technologie, nicht der Kindersicherheit

Fakt ist, dass Apple ein System auf die Menschheit loslässt, das deine Bilder analysieren kann und ohne das Wissen der User diese übermittelt. Es ist einfach, diesen Dialog mit dem Argument «Dann bist du auf der Seite der Kinderpornografen» im Keim zu ersticken. Im Rahmen der Diskussion um die Technologie NeuralHash darf dieses Argument nicht gelten.

Apple verneint nicht, dass NeuralHash auf andere Daten angesetzt werden kann. Es ist technologisch möglich, dass NeuralHash auf Hijabs, Penise, Katzen oder Transsexuelle angesetzt wird. Dort liegt die Gefahr. Dass sich jemand allen Ernstes gegen die Förderung des Kindeswohls stellt, ist absurd. Aber es ist vernünftig, dass sich Menschen gegen die Technologie hinter dieser Massnahme aussprechen.

Technologischer Wandel

Apple beweist, dass sie mit Communication Safety in Messages in der Lage sind, transferierte Daten in Echtzeit zu analysieren. Auch wenn NeuralHash das nicht tut, heisst das nicht, dass das immer so bleiben wird. Mechanismen, die in Communication Safety in Messages greifen, können leicht in NeuralHash integriert werden. Die Gründe, weshalb das noch nicht geschehen ist, könnten sein:

  • Apple hat die Manpower nicht, alle Meldungen von Menschen sichten zu lassen.
  • iPhones und iPads sind noch nicht leistungsfähig genug, diese Analyse in Echtzeit mit dem Rattenschwanz der Meldung vorzunehmen.
  • Apple will das nicht.
  • Die Bilderkennung von Communication Safety in Messages ist noch nicht verlässlich genug, um auf Daten ausserhalb von Messages losgelassen zu werden.

Die Sicherheit der Partner

Ferner ist securitymässig noch ein Faktor hinzugekommen: Apple mag nur schwer zu knackende Server haben, selbst wenn Apple längst nicht so sicher ist, wie der Konzern sich gerne darstellt. Das aber mag längst nicht auf die Server der externen Partner zutreffen.

  • Hintergrund

    Pegasus: Es gibt keinen Schutz, aber Vorsichtsmassnahmen

    von Dominik Bärlocher

Sind deren Daten genauso gut abgesichert wie die von Apple? Können die externen Datenbanken so manipuliert werden, dass sie auch andere Dinge aufspüren? Apple verneint das nicht. Der Konzern beruft sich da auf den letzten Faktor, der das verlässlich tun kann: Der Mensch. Das dürfte auch der Grund sein, weshalb Apple ein menschliches Review eingeführt hat. Eine letzte Bastion gegen den Missbrauch eines Systems, auf das Exekutiven einer jeden Regierung scharf sind.

Eine Frage des Vertrauens

Würden Communication Safety in Messages und NeuralHash verschmelzen, dann könnte das System im Wesentlichen auf alles angesetzt werden. Sei es, um Frauen im Iran aufzuspüren, die keinen Hijab tragen, oder einfach nur um die weltgrösste Sammlung an Katzenbildern zu erstellen. All das kann ohne deinen Einblick, ohne deine Einwilligung und ohne dein Zutun geschehen. Das darf nicht geschehen.

Unternehmen sind nicht absolut und nachhaltig immun gegen Interferenzen einer Regierung. Am Ende muss Apple, wie jedes andere Unternehmen, eine Rechnung anstellen: Kann es sich der Konzern leisten, einen ganzen politischen Raum – zum Beispiel ein Land oder die EU – als Markt zu verlieren, wenn einer Bestimmung einer Regierung nicht folge geleistet wird? Ein plakatives Beispiel: Ist Apple bereit, auf den Markt China zu verzichten, würde die chinesische Regierung verlangen, dass NeuralHash auf Uiguren angesetzt wird?

Apple verspricht aktuell zwar, dass solche Anfragen kategorisch abgelehnt werden. Aber es gibt keine Garantie dafür, dass das so bleibt. Ein künftiges Management muss nicht gleich handeln, wie es das heutige tut.

Eine vernünftigere Massnahme

Communication Safety in Messages erinnert zwar stark an die Folge «Arkangel» der dystopischen Fernsehserie «Black Mirror», ist aber ein vernünftigerer Approach zur Erhaltung des Kindeswohls. Eltern treten die Verantwortung nicht an eine Maschine ab oder an einen Konzern, der pauschal einfach das Vertrauen voraussetzt. Dieses kann nicht nachhaltig oder pauschal gegeben werden, denn wirtschaftliche Interessen stellen immer einen nicht zu unterschätzenden Faktor im Handeln eines Unternehmens dar.

Dass Eltern ein Feature zum Schutz ihrer Kinder erhalten, ist vernünftig. Dass das Feature nicht pauschal aktiviert ist, ebenfalls. Es zwingt Eltern dazu, sich im Rahmen der Erziehung des Nachwuchses im Kontext der eigenen Familie, die Frage zu stellen, ob Communication Safety in Messages etwas ist, das sie wollen.

Es gibt der Familie Macht und Entscheidungsfreiheit. Denn die Erziehung des eigenen Nachwuchses darf nicht in die Hände von wirtschaftlich getriebenen internationalen Grosskonzernen gegeben werden. Egal, wie nett diese zum aktuellen Zeitpunkt wirken.

Die Frage nach dem «Warum?»

Apple lässt sich mit dem Whitepaper tiefer in die Karten blicken als sonst. Dennoch beantwortet es nicht die Frage, weshalb Apple NeuralHash einführt. Die Antworten im PDF sind schwurbelig und gehen nicht einmal ansatzweise auf die Gründe für die Existenz NeuralHashes ein.

Oder doch?

Auf Seite 2 des Whitepapers beantwortet Apple die Frage nach den Unterschieden zwischen NeuralHash, auch CSAM Detection genannt, und Communication Safety in Messages unter anderem mit dem Statement, dass der Besitz von Kinderpornografie in den meisten Ländern illegal ist. Zwischen den Zeilen gelesen ist es möglich, folgende Fragen herauszulesen:

Macht sich Apple strafbar, wenn Kinderpornografie in der iCloud gespeichert wird? Geht es am Ende nur darum, dass Apple selbst rechtlich nicht zur Rechenschaft gezogen werden kann?

43 Personen gefällt dieser Artikel


User Avatar
User Avatar

Journalist. Autor. Hacker. Ich bin Geschichtenerzähler und suche Grenzen, Geheimnisse und Tabus. Ich dokumentiere die Welt, schwarz auf weiss. Nicht, weil ich kann, sondern weil ich nicht anders kann.


Diese Beiträge könnten dich auch interessieren

Kommentare

Avatar