Posts Tagged ‘neuralMatch’

Ein offener Brief an Tim Cook zu neuralMatch

8. August 2021

Seitdem ich mich mit Computer beschäftigte, bin ich ein Apple Fanboy. Ich gehörte zur Installed Base der alten Zeit, fühlte mich bei den Crazy Ones angesprochen und bin mit Apple großgeworden. Ich verteidigte Apple gegen kommerzielle Dosen-Front und datenraubende Android. Aber ich verstehe den aktuellen Vorstoß von Apple in Richtung Foto-Analyse nicht. Ich fordere: Tim Cook, erkläre es uns!
Als Papa von zwei Kindern unterstützte ich den Kampf gegen Kinderpornografie. Kindsmissbrauch ist ein absolut ekelhaftes Verbrechen und gehört drakonisch bestraft. Es heißt von Apple, die geplante Maßnahme der Foto-Analyse sei unzureichend kommuniziert und zu wenig erklärt. Dann bitte lieber Tim Cook: Erklär es uns, aber dalli dalli.

Ein Teil meiner iPhone-Sammlung.

Was wissen wir: iPhones und iPads sollen künftig kinderpornografische Bilder auf dem Gerät erkennen und den Behörden melden. Die Software kommt zum Einsatz, wenn User ihre Fotos in die iCloud zum Backup hochladen. Die neue Funktion heißt „neuralMatch“ und soll ab Herbst zunächst in den USA auf allen iPhones aktiviert werden. Laut Apple kann sie eindeutig kinderpornografische Bilder erkennen. Findet die Apple Software „neuralMatch“ Fotos, die auf Kinderpornografie hindeuten, sollen sie von einem Apple-Mitarbeiter überprüft werden. Ist das Ergebnis eindeutig, meldet Apple den Vorfall den Behörden. Das System vergleicht Bilder mit einer speziellen Datenbank.
Laut Apple schlägt der Software-Algorithmus nicht Alarm, wenn Kinder in der Badewanne sitzen oder am Strand herumspringen.


Nun zur Kritik: Datenschützer in aller Welt und vor allem in den USA sind entsetzt. Und auch ich fühle mich unwohl. Software neigt zu Fehlern und kann missbraucht werden: Wird Überwachung damit Tür und Tor geöffnet? Snowden spricht von „Massenüberwachung in der ganzen Welt“.
In meinen Seminaren habe ich immer vom Schutz der Privatsphäre durch Apple erzählt. Und das tue ich auch weiter. 2015 gab es den Fall, dass das FBI Apple gebeten hat, das iPhone eines Terroristen aus San Bernardino zu knacken, was Tim Cook abgelehnt hat. In jeder Keynote wird das Thema Privatsphäre von Apple hochgehalten und betont. Und das halte ich auch für absolut richtig.
Das Vorhaben um die Software neuralMatch verunsichert mich dagegen. Ist meine Privatsphäre in Gefahr? Wie geht es weiter, wenn der Geist erst einmal aus der Flasche ist? Werden Diktatoren in ferner Zukunft durch die Technik Zugriff auf meine Fotos erhalten?

Der amerikanische Moralansatz in Bezug auf nackter Haut ist ein anderer als der europäische – und hier meine ich ausdrücklich nicht Kinderpornografie. Kinderpornografie Ist ein Verbrechen, daran gibt es nichts zu rütteln. Aber will ich, dass der Apple Algorithmus hier Zugriff auf Fotos in meiner Fotobibliothek hat? Wo ist die Grenze? Ein Algorithmus wird von einem Programmierer geschaffen und diese Programmierer haben ein gewissen Moral- und Kulturverständnis. Und der Algorithmus kann auch total daneben liegen.
Das bekannte Beispiel der Google Bildersuche 2015 nach Gorilla waren so ein Fall, wie sich der Algorithmus irren kann und auf einmal Menschen mit dunkler Hautfarbe bei dem Stichwort Gorilla anzeigte. Nun Apple hat hier den Menschen als Grenze eingezogen und überlässt es nicht dem Algorithmus von neuralMatch allein. Aber reicht das aus?

Es existiert ein internes Mitarbeiter-Memo. Hier betont ein Apple-Softwareverantwortlicher, dass man die neuen Funktionen besser erklären müsse, um den Missverständnissen zu begegnen. Dann mal los Tim Cook: Erklär es uns? Ausführlich, in aller Ruhe, ohne Marketingsprech und hurtig, ganz schnell.
Und mein persönlicher Tipp: Legt neuralMatch zu den Akten.