Einblick in die Firmengeschichte von OpenAI

Seite 2: Algorithmen, die zu gefährlich sind

Inhaltsverzeichnis

Aber es gab einen Haken: Die Forscher hielten das Modell, GPT-2 genannt, für zu gefährlich, um es zu veröffentlichen. Wenn eine solch mächtige Technologie in die falschen Hände geriete, könnte sie leicht zur Waffe umgewandelt werden, um Desinformationen im großen Maßstab zu produzieren.

Die Kritik folgte prompt: Einige Forscher sagten, OpenAI ziehe einen Publicity-Gag ab. GPT-2 sei nicht annähernd fortschrittlich genug, um eine Bedrohung darzustellen. Und wenn dem so wäre, warum sollte man seine Existenz bekannt geben und dann die öffentliche Kontrolle verhindern? „Es schien, als ob OpenAI versucht hat, aus der Panik Kapital zu schlagen“, sagt Britt Paris, Assistenzprofessor an der Rutgers University, der sich mit KI-generierter Desinformation beschäftigt.

Im März 2019 änderte OpenAI dann seine Struktur. Neben dem gemeinnützigen Verein gab es eine profitorientierte Abteilung, deren Gewinn auf das 100-Fache der Investitionen gedeckelt werden sollte. Kurz darauf investierte Microsoft eine Milliarde Dollar – die Hälfte allerdings in Form von Rechenzeit in Microsofts Cloud-Computing-Plattform Azure.

Im Mai 2019 revidierte OpenAI seine Haltung zu GPT-2 und kündigte eine „gestufte Veröffentlichung“ an. In den folgenden Monaten wurden nach und nach immer leistungsfähigere Versionen von GPT-2 herausgebracht. In der Zwischenzeit arbeiteten die Wissenschaftler mit mehreren Forschungsorganisationen zusammen, um das Missbrauchspotenzial des Algorithmus zu untersuchen und mögliche Gegenmaßnahmen zu entwickeln. Schließlich veröffentlichten sie im November den vollständigen Code, nachdem sie „bisher keine eindeutigen Beweise für einen Missbrauch gefunden hatten“.

Doch die organisatorischen Änderungen in dem Forschungslabor und die Abkehr von der reinen Gemeinnützigkeit beförderten neue Gerüchte. Die Öffentlichkeit spekulierte, ob OpenAI die Technologie möglicherweise in Vorbereitung auf eine zukünftige Lizenzierung unter Verschluss gehalten habe. Die Leute, die diese Frage stellten, konnten nicht wissen, das GPT-2 nicht der einzige Fall war, in dem OpenAI sich entschieden hatte, seine Forschungsergebnisse zu verstecken. Tatsächlich hatte es einen weiteren Versuch völlig geheim gehalten.

Dieser Versuch hängt eng mit der Frage zusammen, wie AGI konkret erreicht werden kann. Es gibt zwei vorherrschende Theorien darüber, was dafür notwendig ist: In der einen Theorie sind alle notwendigen Techniken bereits vorhanden; der Rest ist nur eine Frage der Skalierung und des Zusammenbaus. Andere Forscher hingegen gehen davon aus, dass noch grundsätzliche wissenschaftliche Durchbrüche fehlen.

Die meisten Forscher liegen irgendwo zwischen diesen Extremen, aber OpenAI hat sich stets fast ausschließlich auf den Aspekt der Skalierung und Systemintegration konzentriert. Die meisten ihrer Durchbrüche beruhten auf dramatisch größeren Berechnungsressourcen.

Brockman und der OpenAI-Chefwissenschaftler Ilya Sutskever bestreiten, dass dies ihre einzige Strategie ist, aber die streng bewachte Forschung des Labors legt etwas anderes nahe. Ein Team namens Foresight führt Experimente durch, um zu testen, wie weit sie die KI-Fähigkeiten durch das Training bestehender Algorithmen mit immer größeren Datenmengen und Rechenleistung vorantreiben können. Etwa sechs Monate lang wurden diese Ergebnisse der Öffentlichkeit verborgen, weil OpenAI dieses Wissen als seinen wichtigsten Wettbewerbsvorteil ansah. Mitarbeiter und Praktikanten wurden ausdrücklich angewiesen, sie nicht preiszugeben, und diejenigen, die das Unternehmen verließen, unterzeichneten Geheimhaltungsvereinbarungen. Erst im Januar veröffentlichte das Team ohne den üblichen Trubel in aller Stille eine Studie dazu. Diejenigen, die die intensive Geheimhaltung um die Versuche herum erlebt hatten, wussten nicht, was sie von dieser Änderung halten sollten. Bemerkenswert ist allerdings, dass einen Monat zuvor eine Studie mit ähnlichen Ergebnissen veröffentlicht wurde – und zwar unabhängig von OpenAI.

Während dieser Grad an Geheimhaltung zu Anfang nie beabsichtigt war, ist er inzwischen zur Gewohnheit geworden. Als ich nach meinen ersten Besuchen im Büro begann, mit verschiedenen Mitarbeitern Kontakt aufzunehmen, erhielt ich eine E-Mail von der Leiterin der Kommunikationsabteilung, die mich daran erinnerte, dass alle Interviewanfragen über sie laufen müssten. Als ich dies mit der Begründung ablehnte, das würde die Relevanz dessen, was mir die Leute gesagt hatten, untergraben, wies sie die Mitarbeiter an, sie über meinen Einsatz auf dem Laufenden zu halten. Eine Slack-Nachricht von Clark, einem ehemaligen Journalisten, lobte später die Leute dafür, dass sie sich bedeckt hielten, da ein Reporter „herumschnüffelte“.

Eines der größten Geheimnisse ist das Projekt, an dem OpenAI als Nächstes arbeitet. Quellen beschrieben es mir als den Höhepunkt der vorangegangenen vier Jahre Forschung: ein KI-System, das mit Bildern, Text und anderen Daten unter Einsatz massiver Rechenressourcen trainiert wird.

Die Köpfe hinter OpenAI: links Gründer und CTO Greg Brockman, rechts Forschungsdirektor Dario Amodei.

(Bild: Christie Hemm Klok)

Mit welcher Strategie OpenAI derartige Projekte vorantreibt, erklärt mir Dario Amodei, ein Ex-Google-Mann, der jetzt als Forschungsdirektor fungiert. Er kommt mir vor wie eine ängstlichere Version von Brockman – eine ähnliche Aufrichtigkeit und Sensibilität, aber einen Hauch von unruhiger, nervöser Energie. Er sieht beim Sprechen distanziert aus, die Brauen gerunzelt, eine Hand zerrt zerstreut an seinen Locken.

Amodei teilt die Strategie des Labors in zwei Teile auf. Den ersten Teil, in dem es darum geht, fortgeschrittene KI-Fähigkeiten zu erreichen, vergleicht er mit dem „Portfolio von Wetten“ eines Investors. Das Sprachenteam zum Beispiel setzt darauf, dass KI durch bloßes Erlernen von Sprachen ein bedeutendes Verständnis der Welt entwickeln kann. Das Roboterteam hingegen vertritt die gegensätzliche Theorie, dass Intelligenz eine physische Verkörperung benötigt, um sich zu entwickeln.

Wie im Portfolio eines Investors hat nicht jede Wette das gleiche Gewicht. Aber alle Wetten sollen ihre Chance bekommen, bevor sie verworfen werden. Amodei verweist auf GPT-2 mit seinen bemerkenswert realistischen, automatisch generierten Texten als Beispiel dafür, warum es wichtig ist, einen offenen Geist zu bewahren. „Reine Sprache ist eine Richtung, der die Branche und sogar einige von uns etwas skeptisch gegenüberstanden“, sagt er. „Aber jetzt ist es so: ,Wow, das ist wirklich vielversprechend.‘“

Der zweite Teil der Strategie, erklärt Amodei, konzentriert sich auf die Frage, wie man solche immer weiter fortschreitenden KI-Systeme sicher machen kann. Dazu gehört, dass sie menschliche Werte widerspiegeln, die Logik hinter ihren Entscheidungen erklären und dabei lernen können, ohne Menschen zu schaden. Teams, die sich mit jedem dieser Sicherheitsziele befassen, versuchen Methoden zu entwickeln, die sich projektübergreifend anwenden lassen. Die vom Erklärungsteam entwickelten Techniken können zum Beispiel helfen, die Logik hinter den Satzkonstruktionen von GPT-2 oder den Bewegungen eines Roboters aufzudecken.

Doch die massiven Ressourcen, die für solche Forschungsarbeiten notwendig sind, kosten eine Menge Geld.

In den Wochen nach der Umstellung auf ein Modell mit Gewinnobergrenze und der Milliardenspritze von Microsoft versicherte die Führung den Mitarbeitern, dass diese Updates den Forschungsansatz von OpenAI funktional nicht verändern würden. Eine Zeit lang schienen diese Zusicherungen zu stimmen, und die Projekte wurden unverändert weitergeführt. Viele Mitarbeiter wussten nicht einmal, welche Zusicherungen, wenn überhaupt, Microsoft bekommen hatte.

Aber in den letzten Monaten hat sich der Druck der Kommerzialisierung verstärkt. OpenAI muss Geld verdienen, um Forschung zu betreiben – nicht umgekehrt.

Dies ist ein harter, aber notwendiger Kompromiss, sagte die Führung – ein Kompromiss, den sie aus Mangel an wohlhabenden philanthropischen Spendern eingehen musste. Aber die Wahrheit ist, dass OpenAI vor diesem Kompromiss steht, weil es die strategische Entscheidung getroffen hat, zu versuchen, AGI vor allen anderen zu erreichen. Dieser Druck zwingt OpenAI dazu, Entscheidungen zu treffen, mit der sich die Organisation immer weiter von ihrer ursprünglichen Absicht entfernt. Das Unternehmen befördert den Hype um KI, um Geld und Talente anzuziehen. Es hält seine Forschungsergebnisse zurück, in der Hoffnung, die Oberhand zu behalten, und es setzt auf brutale Rechenkraft – nicht, weil dieser Weg als der einzige zu AGI angesehen wird, sondern als der schnellste.

(jle)