Konflikt um Fachaufsatz von Google-KI-Forscherin

Seite 3: Warum das Thema wichtig ist

Inhaltsverzeichnis

Der Aufsatz sollte eine Bestandsaufnahme der aktuellen Forschung zur Verarbeitung natürlicher Sprache sein, erklärt Bender. „Wir arbeiten in einem Maßstab, in dem die Leute, die diese Sachen entwickeln, die Daten selbst nicht mehr im Griff haben können. Und weil die Vorteile so offensichtlich sind, kommt es besonders darauf an, einen Schritt zurückzutreten und uns zu fragen, was die Nachteile sein könnten. (…) Wie bekommen wir die positiven Seiten und können gleichzeitig die Risiken verringern?“

Als einen der Gründe dafür, dass der Aufsatz die internen Anforderungen nicht erfüllt habe, nannte Googles KI-Chef Dean in seiner E-Mail, darin werde „zu viel relevante Forschung ignoriert“. Konkret würden neuere Arbeiten zu energieeffizienteren Sprachmodellen und zu Maßnahmen gegen Verzerrungen nicht erwähnt. Doch die sechs Autoren berufen sich auf eine breite Basis – mit 128 Einträgen ist die Liste ihrer Quellen sogar auffällig lang. „Das ist die Art von Arbeit, die keine Einzelperson und auch kein Zweier-Team leisten kann“, sagt Bender dazu. „Diese Kooperation war dafür wirklich erforderlich.“

Mit Nicolas Le Roux meldete sich auf Twitter auch ein KI-Forscher aus dem Büro Montreal von Google zu dem Fall zu Wort. Seine Vorschläge für Aufsätze seien stets daraufhin überprüft worden, ob darin sensible Informationen verraten würden, „nie auf die Qualität der Literatur-Recherche“, schrieb er. Gebru und Kollegen hätten Google AI nur einen Tag für die interne Prüfung gelassen, bevor sie den Aufsatz zur Publikation bei einer Konferenz anmeldeten, erklärte außerdem Dean in seiner E-Mail. Das Ziel dort sei, „bei der Strenge und der Sorgfalt der Überprüfung unserer Beiträge vor einer Veröffentlichung wissenschaftlichen Zeitschriften mit Peer Review Konkurrenz zu machen“.

Laut Bender hätte es aber ohnehin noch eine intensive Überprüfung durch Fachkollegen (dafür steht Peer Review) vor der Konferenz gegeben. „Wissenschaft ist stets eine Diskussion und eine sich weiterentwickelnde Arbeit“, sagt sie. Auch andere haben Zweifel an den Behauptungen von Dean geäußert, darunter William Fitzgerald, früherer PR-Manager bei Google. Dass Aufsätze dort regelmäßig intensiv überprüft würden, sei nicht weniger als eine „Lüge“, erklärte er auf Twitter.

Ein Großteil der frühen Forschung, die zu der jüngsten Explosion der Sprachmodelle geführt hat, wurde bei Google geleistet. In seiner KI-Abteilung ist 2016 das Sprachmodell Transformer entstanden, das die Grundlage des heutigen BERT-Modells bildet, ebenso wie für GPT-2 und GPT-3 von OpenAI. Und wie erwähnt wird BERT für die Google-Suche genutzt, also für die Cash-Cow des Unternehmens.

Das Vorgehen von Google könne einen „Chilling-Effekt“ auf zukünftige Forschung an KI-Ethik haben, befürchtet Bender. Viele der wichtigsten Experten auf diesem Gebiet arbeiten bei großen IT-Unternehmen, weil dort das nötige Geld vorhanden ist. „Das war in vielerlei Hinsicht hilfreich“, sagt die Professorin. „Aber wir könnten damit in einem Ökosystem enden, das möglicherweise nicht die besten Anreize für den Fortschritt von Wissenschaft für die ganze Welt bietet.“ (sma)