Jugendmedienschutz: Künstliche Intelligenz sucht Rechtsverstöße

Die Landesmedienanstalten scannen Soziale Netzwerke auf Gewalt, Pornografie und Hass. Das führt zu mehr Anzeigen an Strafverfolger.

In Pocket speichern vorlesen Druckansicht 17 Kommentare lesen
Verpixelte Porno-Bildchen

(Bild: Daniel AJ Sokolov)

Lesezeit: 3 Min.
Inhaltsverzeichnis

Verstöße gegen Jugendmedienschutz im Internet soll eine Künstliche Intelligenz (KI) aufstöbern, die Deutschlands Landesmedienanstalten seit bald zwei Jahren entwickeln. Jetzt läuft ein Probebetrieb unter der Regie der Bayerischen Landeszentrale für neue Medien (BLM). Das hat die Behörde am Montag in einem Rundschreiben mitgeteilt. Doch es gibt Bedenken gegen die Initiative.

Für den Berliner Rechtsanwalt Marko Dörre klingt das Vorgehen "nach Big Brother". Erst am Dienstag hatten über 40 zivilgesellschaftliche Organisationen die EU-Gremien aufgefordert, den Einsatz vorausschauender und profilbildender KI-Systeme in den Sektoren Strafverfolgung und Justiz zu verbieten. Der Einsatz solcher Technik setze Unschuldsvermutung und zahlreiche Grundrechte außer Kraft.

Mit dem "neuen KI-Tool" möchten die Landesmedienanstalten unter anderem "Gewalt, Pornografie und politischen Extremismus" aufspüren. Strafrechtlich relevante Fälle politischen Extremismus' leitet die Behörde dabei schon während des Tests an die Staatsanwaltschaft. Das ist Teil der Initiative "Konsequent gegen Hass", bei der auch das bayerische Justizministerium an Bord ist.

Details zu dem Instrument beschreibt die Landesanstalt für Medien Nordrhein-Westfalen (LfM NRW). Der Initiative ging demnach eine Machbarkeitsstudie voraus. Binnen eines halben Jahres hätten die Aufseher "einen Prototyp mit den wichtigsten Verstoßkategorien präsentieren und dann Kanal für Kanal ausrollen" können. Von Twitter und YouTube bis zu "russischen Plattformen wie VK und Telegram" könne das Tool "täglich 10.000 Seiten automatisch durchsuchen".

Das Programm sei in der Lage, "trainierte Verstoßkategorien" zu erkennen. Das zeige, auf welchen internationalen Kanälen Nutzer auf Deutsch angesprochen werden, bringt die LfM NRW ein Beispiel. Sie habe bereits Anfragen aus anderen europäischen Ländern erhalten, die das Werkzeug ebenfalls einsetzen wollten.

Die LfM NRW schwärmt von "flächendeckend besseren Erkennbarkeit von Verstößen und schlicht drastisch mehr Ergebnissen", die zu doppelt so vielen Strafanzeigen geführt haben. Die Trefferquote des Instruments liege im Bereich Pornografie derzeit bei 94 Prozent mit steigender Tendenz. Dank Rückmeldungen von Kollegen werde "täglich die automatisierte Suchpraxis verbessert".

Zudem würden Mitarbeiter besser geschützt, freut sich die nordrhein-westfälische Aufsicht: "Bevor sie einen Inhalt öffnen, wissen sie schon, zu welcher Kategorie er wahrscheinlich gehört. Sie können außerdem festlegen, welche möglicherweise verstörenden Inhalte zunächst unscharf dargestellt werden sollen." Dies helfe gerade bei Gewaltdarstellungen wie Tötungsvideos, die psychische Belastung zu mindern. Die Zusammenarbeit mit der Staatsanwaltschaft, der Polizei und Medienhäusern sei "ein Vorbild für vergleichbare Initiativen in anderen Bundesländern".

Betreiber Sozialer Netzwerke wie Meta mit Facebook und Instagram oder Google mit YouTube setzen bereits selbst KI-Verfahren ein. Damit verhindern sie die Verbreitung unzulässiger Darstellungen sowie urheberrechtlich geschützten Materials in erheblichem Ausmaß. Die Bund-Länder-Kompetenzstelle jugendschutz.net testete 2019 die einschlägigen Systeme fastText, TensorFlow und Vision API. Bei Einzelinhalten wie Texten, Bildern und Videos lagen die Erkennungsraten dabei – über mehrere Verstoßkategorien hinweg – bei 61 bis 94 Prozent.

Stefan Glaser von jugendschutz.net bezeichnete KI bei der Präsentation der Ergebnisse als "Baustein eines modernen Schutzkonzepts", aber keine alleinige Lösung. Es gelte, Risiken für Kinder und Jugendliche aktiv und vorausschauend zu minimieren.

(ds)