Medienorganisationen: KI im Journalismus muss Privatsphäre und Copyright wahren​

Presseverbände verpflichten sich mit einer Charta für Künstliche Intelligenz, eine Trennlinie zwischen authentischen und synthetischen Inhalten zu ziehen.​

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Abstract,Blurred,Of,Studio,At,Tv,Station.

(Bild: chanonnat srisura/Shutterstock.com)

Lesezeit: 4 Min.

Jeder Einsatz von Künstlicher Intelligenz (KI), der sich "erheblich auf die Produktion oder Verbreitung journalistischer Inhalte auswirkt, sollte klar offengelegt" werden. Das ist eine von zehn Grundregeln zu KI und Journalismus in einer Charta, die 17 Medienorganisationen auf Initiative von Reporter ohne Grenzen am Freitag in Paris unterzeichnet haben. Nachrichtenhäuser sollen demnach ein öffentliches Verzeichnis der von ihnen genutzten KI-Systeme führen, in dem die Zwecke, der Umfang und die Nutzungsbedingungen detailliert aufgeführt sind. Die Beteiligten verpflichten sich, vertrauenswürdige Inhalte zu erstellen. Verwendete KI-Systeme müssten "die Grundwerte der journalistischen Ethik wahren", also etwa Wahrhaftigkeit und Genauigkeit, Fairness, Unparteilichkeit, Unabhängigkeit, Nicht-Diskriminierung, Verantwortlichkeit sowie Daten- und Quellenschutz.

Zu den Unterzeichnern gehören Organisationen wie der Deutsche Journalisten-Verband (DJV), die Akademie der Deutschen Welle, das International Consortium of Investigative Journalists (ICIJ), die Thomson Foundation, die European Federation of Journalists (EFJ), das Pulitzer-Zentrum und das International Press Institute (IPI). Ausgearbeitet hat die Prinzipien eine Expertenkommission mit Friedensnobelpreisträgerin Maria Ressa von der Nachrichtenseite Rappler. KI ist ihnen zufolge wie bislang kaum eine andere Technologie in der Lage, sich mit menschlichem Denken, Wissen und Kreativität zu vermengen. Sie verändere die Informationsbeschaffung, die Wahrheitssuche, das Geschichtenerzählen und die Verbreitung von Ideen erheblich. Dies werde die globale Medienlandschaft revolutionieren. Damit verknüpft sei aber auch "eine strukturelle Herausforderung" für die Informationsfreiheit.

"Die soziale Rolle des Journalismus und der Medien – als vertrauenswürdige Vermittler für die Gesellschaft und den Einzelnen – ist ein Eckpfeiler der Demokratie", heißt es in der Charta. KI-Systeme könnten Verlage bei der Erfüllung dieser Aufgabe erheblich unterstützen. Voraussetzung sei aber, dass diese "transparent, fair und verantwortungsbewusst in einem redaktionellen Umfeld eingesetzt werden, das die journalistische Ethik strikt aufrechterhält". Der Mensch müsse sowohl bei langfristigen Strategien als auch bei täglichen redaktionellen Entscheidungen im Mittelpunkt bleiben. Der Einsatz von KI müsse bewusst erfolgen. Ziele, Umfang und Bedingungen seien für jedes einschlägige System klar zu definieren, Auswirkungen kontinuierlich zu überwachen.

Die von Medien und Journalisten genutzten Techniken wie Sprachmodelle und darauf basierende Chatbots "sollten einer unabhängigen, umfassenden und gründlichen Bewertung unterzogen werden", lautet ein weiterer Grundsatz. "Diese Systeme müssen die Privatsphäre, das geistige Eigentum und die Datenschutzgesetze respektieren." Zu bevorzugen seien Ansätze mit erklärbarer KI. "Medienunternehmen übernehmen die redaktionelle Verantwortung, auch für den Einsatz von KI bei der Sammlung, Verarbeitung oder Verbreitung von Informationen", führen die Verfasser aus. Zwischen Inhalten, "die aus der physischen Erfassung der realen Welt stammen", wie Fotos, Audio- und Videoaufnahmen, und solchen, die künstlich generiert oder erheblich verändert werden, sollte klar und zuverlässig unterschieden werden. Von Imitationen realistischer Personen und anderen Deepfakes sei abzusehen.

Die Teilnehmer verpflichten sich auch, "die Auswirkungen von KI genau, differenziert und kritisch zu untersuchen und darüber zu berichten". Herausgeber von KI-Systemen "müssen die Quellen nennen, die Rechte an geistigem Eigentum respektieren und den Rechteinhabern einen gerechten Ausgleich gewähren", der in Form einer angemessenen Vergütung an die Journalisten weiterzugeben sei. Dazu seien Entwickler auch angehalten, "transparente und detaillierte Aufzeichnungen der journalistischen Inhalte zu führen, die zum Trainieren und Füttern ihrer Systeme verwendet wurden". Der DJV warnte zuvor bereits zusammen mit anderen Urheberverbänden vor großen Schäden für Gesellschaft und Kultur durch ChatGPT & Co. In einem eigenen Positionspapier hebt er hervor: Keinesfalls dürfe es dazu kommen, dass "Kollege KI" Redakteure ersetze.

(mki)