Eine Analyse von Tom J. Wellbrock
Die Kommunikation mit dem Arzt geht niemanden etwas an. Theoretisch. Aber in der Praxis wird diese Regel immer weiter aufgeweicht, wie zwei Väter in den USA feststellen mussten. Nachdem sie sich Sorgen um ihre Kinder gemacht hatten, schickten sie auf Wunsch des Kinderarztes Fotos der Genitalbereiche des Nachwuchses an die Arztpraxis. Und zwar via Google. Für die von Google eingesetzte Künstliche Intelligenz (KI) deuteten diese Bilder auf sexuellen Missbrauch der Kinder hin.
Das Missverständnis war schnell aufgeklärt, die polizeilichen Ermittlungen wurden zeitnah eingestellt. Doch zu Ende war die Geschichte damit nicht, denn Google sperrte beiden Vätern sämtliche Konten und Dienste. Da beide Android-Handys benutzten, waren auch diese nach der Sache faktisch wertlos. Dadurch wurde den Männern nicht nur ein Großteil ihrer digitalen Teilhabe gesperrt, sie verloren darüber hinaus Fotos und andere Daten aus ihrem gesamten Leben.
Zunächst die Eigenverantwortung
Die Tatsache, dass KI die Fotos der beiden Väter als potenziellen Kindesmissbrauch eingeschätzt hat, sollte in erster Linie zu höchster Vorsicht führen. Denn (so in diesem Fall) Google sichtet offenbar sämtliche Inhalte, die Menschen speichern, hochladen oder versenden. Da die Fotos der Kinder aufgrund der Genitalbereiche brisant waren, hätten die Väter sie verschlüsselt versenden müssen.
Auf der anderen Seite ist diese Art des Umgangs mit Missbrauch eine Generalerlaubnis, auf alle Daten von Nutzern zuzugreifen, wenn auch nur ansatzweise die Gefahr besteht, es könnte sich um Kindesmissbrauch handeln. Auch die Großeltern am Strand oder im Garten, die ihre planschenden Enkel beim Bauen einer Burg oder dem Spielen im Planschbecken fotografieren, sind mögliche “Täter”, wenn die KI entdeckt, dass die Kinder wenig oder nichts anhaben. Das freudige Versenden von Oma und Opa an die Eltern der Kleinen kann also fatale Konsequenzen haben.
Einer der beiden oben genannten Väter verlor nach dem Irrtum Googles nicht nur sein Mailaccount und sein vollständiges Adressbuch, auch sämtliche Fotos seines Sohnes, die er gespeichert hatte, waren verloren. Schwierigkeiten bekam der Mann auch, nachdem sein alter, mit Google abgeschlossener Handyvertrag gekündigt worden war. Andere Internetdienste hinderten ihn daran, sich in ihre Angebote einzuloggen, weil er seine Handynummer nicht mehr verwenden konnte. Ein nicht unerheblicher Teil seines digitalen Lebens hatte ihm von nun an den Zugang versperrt, er war ausgeschlossen. Wegen eines scheinbar harmlosen Fehlers.
EU-Verpflichtung für Dienste
Die Idee der Chatkontrolle ist nicht neu, sie wird immer wieder diskutiert, verworfen, weiterentwickelt und erneut diskutiert. Doch die aktuellen Pläne sind weit fortgeschritten, dass diesmal die Realisierung erfolgt ist sehr wahrscheinlich. Und so richtig und wichtig der Kampf gegen Kinderpornografie und Kindesmissbrauch ist, so fragwürdig ist die anlasslose und massenhafte Überwachung nahezu aller Bürger. Insbesondere, wenn man bedenkt, dass die betroffenen IT-Unternehmen verpflichtet werden, tätig zu werden. Diese Verpflichtung führt im Zweifel eher zu etlichen Aktionen zu viel als zu einer zu wenig. Das zeigt sich unter anderem daran, dass Google die Sperrung der bereits genannten Väter nicht wieder aufgehoben hat, das Unternehmen weigert sich schlicht.
Mit Algorithmen gegen Straftaten?
Die EU plant unter dem griffigen Namen “Verordnung zur Festlegung von Vorschriften zur Verhütung und Bekämpfung des sexuellen Missbrauchs von Kindern” das Durchleuchten von Messengern, Mails und sozialen Netzwerken. Das soll mittels Algorithmen, die Bildmaterial anhand eines Hashwertes durchstöbern sollen, geschehen. Stößt die KI auf ein bekanntes Bild, auf dem Kindesmissbrauch zu sehen ist, kann sie alle anderen Bilder abgleichen. Um die Trefferquote zu erhöhen, soll “Machine Learning” eingesetzt werden, also selbstständiges Lernen der KI.
Konzerne wie Snapchat, Google, Facebook und Microsoft benutzen schon länger Instrumente wie die PhotoDNA zur Überwachung. Dies betrifft jedoch nur unverschlüsselte Daten und folgt dem Prinzip der Freiwilligkeit. Das will die EU in dieser Form abschaffen und die Unternehmen zur Überwachung zwingen, was auch entsprechende Meldungen bei Verdachtsfällen bedeutet. Zu Beginn dieses Textes wurde bereits geschildert, wie schnell ein solcher “Verdachtsfall” entstehen kann.
Natürlich ist der Anspruch, sexuellen Missbrauch an Kindern aufzudecken, entsprechende Inhalte zu entfernen und die Taten zu melden, vernünftig und richtig. Wenn dabei jedoch jeder Bürger Gefahr läuft, selbst zum “Täter” zu werden, nur weil die KI etwas falsch interpretiert und das IT-Unternehmen aus Furcht vor Konsequenzen Sperren verhängt und nicht wieder aufhebt, gerät durch diese letztlich anlasslose Überwachung etwas Grundsätzliches aus dem Ruder.
Theorie …
Folgende Aufgaben kommen auf die IT-Unternehmen zu, wenn die EU-Verordnung (die dann auch über nationalen Gesetzen steht) Wirklichkeit wird:
- Zunächst sollen Messenger- und Hostingdienste prüfen, ob sie selbst für das Verbreiten verbotener Inhalte genutzt werden können. Im nächsten Schritt ist eine verpflichtende Risikominderung notwendig.
- Nationale Behörden sollen als Ansprechpartner fungieren, die die Dienste benennen. Wenn die Behörden ein Risiko feststellen, können sie nach Antrag anordnen, das Material zu Kindesmissbrauch oder Cyber-Grooming aufzuspüren.
- Sobald Anbieter sexuellen Missbrauch entdecken, müssen sie diesen an das EU-Zentrum für Fragen des sexuellen Missbrauchs melden.
- Entsprechendes Material muss umgehend entfernt werden. Kommen die Dienste dem nicht nach, können die nationalen Behörden dies per Anordnung veranlassen. Wenn kinderpornografisches Material nicht gelöscht werden kann, muss es durch den Zugangsprovider gesperrt werden.
- Apps, die den Tätern die Möglichkeit bieten, über diese mit Kindern in Kontakt zu treten, müssen von App-Stores gelöscht werden.
Wie genau und mit welcher Technologie diese hehren Ziele umgesetzt werden sollen, verrät die EU nicht.
… und Praxis
Der Einsatz von KI zum Aufstöbern von Kindesmissbrauch beruht auf dem Prinzip Versuch und Irrtum. Das führt zu einer erheblichen Anfälligkeit für Fehler. Trotzdem muss jede Meldung durch die Strafverfolgungsbehörden (händisch) geprüft werden. Hinzu kommt der Plan der Zusammenarbeit zwischen EU und Europol. Das Ergebnis ist eine Massenüberwachung gravierenden Ausmaßes.
Einfach macht es sich die EU auch beim Einsatz der Algorithmen. Sie schreibt nicht nur nicht vor, welche Technologie verwendet wird, sondern verzichtet auch großzügig auf eine Offenlegungspflicht der Dienste. Und: Oft ist die Verifizierung des Alters notwendig. Das funktioniert nur über das Vorlegen beziehungsweise Einscannen des Ausweises. Damit ist die anonyme Kommunikation im Grunde Geschichte und Whistleblower, Journalisten oder politisch Verfolgte können unter Umständen in eine gefährliche Lage geraten.
Die Folgen für die Menschen
“Ich habe nichts zu verbergen!” Immer noch ein Satz, der gern verwendet wird, wenn Bürger meinen, sich vorbildlich zu verhalten. Daher sei ein Blick auf die Folgen und die möglichen Konsequenzen der Chatkontrolle empfohlen:
- Mails und Chats werden grundsätzlich auf verdächtige Inhalte untersucht. Gerichtliche Anordnungen sind nicht mehr notwendig, da die Kontrolle immer und automatisch erfolgt. Geheime und vertrauliche Kommunikation ist de facto nicht mehr möglich.
- Bilder für den Kinderarzt, Urlaubsfotos oder der Verwandtschaft zugesendete Fotos können verheerende Folgen auslösen.
- Auslandsreisen könnten zum Problem werden, etwa wenn Daten in die USA weitergeleitet werden, dort gibt es keinen Datenschutz, der mit dem (bisherigen) in Europa vergleichbar wäre.
- Staaten, Geheimdienste und Cyberkriminelle hätten deutlich leichteres Spiel beim Zugriff auf eigentlich sensible und verschlüsselte Daten.
- Die gegen Kindesmissbrauch eingesetzte Chatkontrolle und Massenüberwachung könnte schnell auf andere Bereiche ausgeweitet werden. Am Ende könnten auch Menschen mit unerwünschten Meinungen großflächig überwacht werden.
Nun könnte man einwenden, der Preis ist es wert, wenn sich damit Kindesmissbrauch deutlich reduzieren ließe. Das ist ein zweischneidiges Schwert, aber selbst wenn man diese Argumentation zulassen würde, reicht es längst nicht, um Chatkontrolle und Massenüberwachung zu rechtfertigen.
Chatkontrolle: Für die Täter eher unbedeutend
Die Aufklärung und Verhinderung von Kindesmissbrauch scheitert in erster Linie an fehlendem Personal. Es geht aber nicht nur um die Zahl der Ermittler, sondern auch um deren Ausbildung und technische Ressourcen, die gezielt eingesetzt werden können, ohne nach dem Gießkannen-Prinzip zu arbeiten, wie es die massenhafte Chatkontrolle tut.
Und: Oft ist weniger mehr. Die Ermittler stehen schon heute vor dem Problem, strafrechtlich relevante Meldungen von den bedeutungslosen oder den fehlerhaften zu unterscheiden. Wenn die IT-Unternehmen verpflichtet werden, jeden einzelnen Fall, den eine womöglich überforderte oder schlecht programmierte KI übermittelt, zu untersuchen, bleibt am Ende ein Berg von unnützem Material, die wahren Täter zu finden, wird sogar schwieriger als vorher.
Genaugenommen setzt die EU mit der neuen Chatkontrolle auf die “Kooperationsbereitschaft” der Täter. Denn die müssen, damit das alles überhaupt funktionieren kann, kommerzielle Online-Dienste nutzen. Das machen aber nur die Dümmsten unter ihnen, alle anderen verzichten auf diese Dienste und setzen stattdessen auf Foren, wo auch Bilder und Videos verschlüsselt hochgeladen werden können, die aufgrund dieser Verschlüsselung nicht von der KI erfasst werden können. Dann werden die Entschlüsselungsschlüssel geteilt, andere Pädophile laden die verschlüsselten Archive herunter und entschlüsseln sie mit dem geteilten Schlüssel.
Die Wahrscheinlichkeit, dass also durch die Massenüberwachung tatsächlich Täter dingfest gemacht werden können, rangiert im absolut vernachlässigbaren Bereich. Im Gegenteil, die Täter werden sich noch weiter in den Untergrund zurückziehen, weil ihr Risikobewusstsein erhöht wird.
Schon jetzt ist zu beobachten, dass die Privatisierung bestimmter Aufgaben fatale Auswirkungen hat und zu einer Art Selbstjustiz von Unternehmen führt, was sich an willkürlichen Sperrungen und Löschungen ablesen lässt. Wenn Tech-Unternehmen noch mehr Befugnisse erhalten, wird die Ermittlung schwerer. Um sicherzugehen, wenden IT-Unternehmen schon jetzt die Vorgaben deutlich überambitioniert an, um nicht Gefahr zu laufen, für ein Verhalten oder das Unterlassen belangt zu werden.
Und dann gibt es da ja auch noch die Opfer von Kindesmissbrauch. Sie brauchen Schutzräume, auch und gerade digitale, in denen sie mit Anwälten oder Therapeuten sprechen können. Der Deutsche Kinderschutzbund lehnt die Chatkontrolle kategorisch ab, denn sie kann bei den Opfern das Gefühl, vertraulich und sicher kommunizieren zu können, beeinträchtigen. Unter Umständen werden daher eigentlich wichtige Hilfsangebote von Opfern aus Angst nicht mehr angenommen.
Das Fazit muss lauten: Für die Verfolgung von Kindesmissbrauch ist die massenhafte Überwachung wenig hilfreich, mehr noch: Sie behindert die Aufklärungsarbeit um zusätzliche Faktoren, die zu den bestehenden Herausforderungen und Problemen hinzukommen.
Wer allerdings ganz andere Ziele verfolgt und an einem Maximum an Daten von Bürgern interessiert ist, der dürfte sich über die EU-Pläne freuen. Das könnte – unter anderem – die EU selbst sein.
Mehr zum Thema – Rechtsgutachten gegen Patriarchat: Gendern für staatliche Stellen laut Grundgesetz verpflichtend