OpenAI-Aufholjagd: Anthropic plant für 5 Milliarden Dollar riesiges KI-Modell

Um es mit GPT-4 aufzunehmen, soll das KI-Unternehmen Anthropic vorhaben, ein zehnmal so starkes Modell zu bauen. 5 Milliarden Dollar seien dafür eingeplant.

In Pocket speichern vorlesen Druckansicht 43 Kommentare lesen
Artificial,Intelligence,With,Virtual,Hanging,Head,On,Podium.,Global,World

(Bild: Andrey Suslov/Shutterstock.com)

Lesezeit: 11 Min.
Von
  • Silke Hahn
Inhaltsverzeichnis

Das 2021 von OpenAI-Aussteigern gegründete KI-Forschungsunternehmen Anthropic soll ein Modell planen, das zehnmal leistungsfähiger ist als die derzeit mächtigsten KI-Systeme. Laut Geschäftsunterlagen für die dritte Finanzierungsrunde, die dem IT-Magazin TechCrunch vorliegen, rechnet Anthropic in den kommenden zwei Jahren wohl mit bis zu fünf Milliarden US-Dollar an Einnahmen. Die Angaben stammen aus einem Pitchdeck für das Series-C Funding von Anthropic – eventuell hat ein Investor die Interna anonym an die Medien durchgestochen, oder das Unternehmen hat selbst für ein Leak gesorgt, um auf sich aufmerksam zu machen.

Die Entwicklung eines Grenzmodells (Frontier Model) mit dem vorläufigen Arbeitsnamen Claude-Next (nach seinem Vorgänger, dem ChatGPT-Pendant Claude) soll in den kommenden anderthalb Jahren etwa eine Milliarde US-Dollar kosten. Frontier werde dem Pitchdeck des Unternehmens zufolge in der Größenordnung von etwa 10 25 Floating Point Operations (FLOPs) liegen – um einige Größenordnungen mehr als andere heute bekannte Systeme, wobei zu GPT-4 solche Angaben nicht vorliegen. Das Training solle auf einem Rechencluster von "mehreren zehntausend GPUs" geschehen. Das Unternehmen wird mit der Aussage zitiert, dass es in den Entwicklungszyklen ab 2025/2026 unmöglich werde, den Vorsprung derer noch wettzumachen, die bis dahin bei großen KI-Modellen in Führung liegen (im Wortlaut soll in dem Pitchdeck stehen: "We believe that companies that train the best 2025/26 models will be too far ahead for anyone to catch up in subsequent cycles.")

Anthropic hat sich der KI-Sicherheit verschrieben: Die OpenAI-Abspaltung entstand laut eigenen Angaben aus Sicherheitsbedenken gegenüber der gängigen KI-Entwicklung großer Technikkonzerne (gemeint ist wohl insbesondere Microsoft-OpenAI). Anthropics Gründer gehen laut Mission Statement davon aus, dass die technischen Fortschritte der kommenden zehn Jahre eine große KI-Revolution auslösen werden – und dass dieser Fortschritt eine Disruption verursachen könnte, die Konzerne und Länder dazu verleitet, unter Zeitdruck unsichere KI-Systeme in Betrieb zu nehmen, um mitzuhalten.

Zwei Schieflagen hält das Unternehmen in so einer Situation für denkbar: Entweder könnten KI-Systeme "auf strategische Weise gefährliche Ziele verfolgen", oder die Systeme könnten an sich harmlose Fehler begehen – dies jedoch in Situationen, in denen sie sich gravierend auswirken. Beides könnte nach Ansicht der Gründerin und des Gründers "in einer Katastrophe münden", wie auf der Firmenwebsite steht. "Wir wissen nicht, wie man KI-Systeme so trainiert, dass sie sich gut benehmen", heißt es dort in ebenso erfrischender wie erschreckender Direktheit.

Mit Frontier Models beschreiben die Anthropic-Forscher Systeme, die große KI-Modelle sind und dabei Sicherheit an erste Stelle setzen. Ein wesentliches Sicherheitsrisiko großer KI-Modelle mit mehreren hundert Milliarden Parametern bestehe in unvorhergesehenem, nicht steuerbarem und unerklärlichem Verhalten – anders als bei zweckgerichteten kleineren Systemen mit einem begrenzten Einsatzbereich und beschränkteren Fähigkeiten. Anthropic konzentriert seine Arbeit auf Alignment-Forschung, automatisiertes Red-Teaming, Constitutional AI, das Entfernen von Verzerrungen, Reinforcement Learning mit menschlichem Feedback, und das Ziel sind robuste, hilfreiche, harmlose KI-Systeme. Das Hauptmodell Claude werde primär für die Sicherheitsforschung intern genutzt. Öffentliche Deployments stünden nicht an erster Stelle.

Katastrophen-Kommunikation belebt das Geschäft – so bei OpenAI, dessen Gründer und CEO Sam Altman, die CTO Mina Murati und weitere hochrangige Mitarbeiter seit dem Launch von GPT-4 vor rund einem Monat paradoxerweise öffentlich davon reden, wie gefährlich große KI-Modelle wie das von ihnen eingeführte GPT-4 potenziell seien. Zugleich versucht das Unternehmen, Kritiker in verschwommenen Blogeinträgen und inhaltsleeren Technical Reports zu beschwichtigen. Darin finden sich keine Fakten zu den angeblich durchgeführten Sicherheitsmaßnahmen, es wird lediglich das Vertrauen der API-Kunden in die guten Absichten des Unternehmens beschworen – während man öffentlich zugibt, seiner Modelle nicht ganz Herr zu sein. Unter anderem ein Sicherheitsleck am 20. März 2023 führte dazu, dass mehrere Länder Untersuchungen gegen OpenAI wegen Sicherheitsmängeln eingeleitet haben und einzelne Nationen wie Italien beginnen, Ländersperren gegen die Nutzung des Hauptprodukts von OpenAI verhängen.

Zugleich schließt OpenAI die Haftung für Folgeschäden aus beziehungsweise versuchen seine Plattformpartner Microsoft und andere BigTech-Anbieter, auf europäischer Ebene in Gesetzgebungsprozesse einzuwirken (siehe dazu die Untersuchung "The Lobbying Ghost in the Machine" von einer Lobbywatch-Gruppe aus Brüssel), um das Risiko auf Kunden und Geschäftspartner abzuwälzen. Existenzielle Risiken spielen in einem Anfang April publizierten Blogbeitrag zum Thema KI-Sicherheit keine Rolle. Altman und Murati rufen nach staatlicher Regulierung, scheinen aber zugleich Time-to-Market vor Alignment zu priorisieren und verteidigen ihre Art des Deployments als "inkrementelles Lernen". In der Tat werden Nutzerdaten abgesaugt und mehrere Wochen lang auf US-Servern gespeichert, durch das Unternehmen selbst oder durch öffentlich nicht weiter bekannte Dritte verarbeitet. Was mit den Daten passiert und in welcher Form OpenAI seine Modelle damit speist, ist wie fast alles Technische hinter den ehemals philanthropischen Kulissen unbekannt.

Anthropics Bekenntnis zu KI-Sicherheit wirkt vor diesem Hintergrund schlüssig und liest sich als Kontrapunkt zu OpenAIs U-Turn-Unternehmensphilosophie (vom idealistischen Non-Profit zum hyperkapitalen Closed-Source-Hirsch). Einen Haken gibt es jedoch: Mehrere Tech-Größen, die Anthropic finanziell tragen, zählen gleichzeitig zu den Unterzeichnern des vom Future-of-Life-Instituts herausgegebenen Open Letter, der eine Entwicklungspause großer KI-Modelle "so mächtig wie GPT-4" verlangt: etwa der frühere Skype-Ingenieur Jaan Tallinn und mehrere hochrangige Google-Mitarbeiter.

Auch Google hat unlängst 300 Millionen US-Dollar in Anthropic investiert und plant, dessen Modell Claude in die eigenen Produkte zu integrieren. Der geforderte vorübergehende Entwicklungstopp für alle Arbeiten an größeren Modellen steht im Widerspruch zu den von TechCrunch berichteten Plänen des um Sicherheit bemühten OpenAI-Konkurrenten, die Aufholjagd in der nahen Zukunft zu intensivieren und in Rekordzeit weitaus mächtigere Modelle zu konstruieren.

Anthropic hat seit seiner Gründung in kurzer Zeit bereits fast eine Milliarde US-Dollar an Wagniskapital eingeworben und soll in einer neuerlichen Finanzierungsrunde weitere 300 Millionen Dollar einwerben wollen. Damit stünde es bei einem Gesamtkapital von 1,3 Milliarden Dollar bei einer geschätzten Firmenbewertung von 4 Milliarden Dollar. Bei Frontier handele es sich um einen "Algorithmus der nächsten Generation für selbstlernende KI", beim Training komme die von Anthropic entwickelte Methode sogenannter "Constitutional AI" zum Einsatz. Diese grundlegende Technik soll KI-Systeme mit menschlichen Absichten in Einklang bringen (Alignment), damit sie auf Fragen und Aufgaben in einer vorhersehbaren Weise anhand einer Reihe von Richtlinien und Leitprinzipien reagieren.

Das Hauptprodukt Claude hat Anthropic nach einer geschlossenen Beta-Phase im März 2023 auf den Markt gebracht und vorerst 15 Partnern zur Verfügung gestellt. Claude soll harmlosere Ergebnisse produzieren, einfacher in der Gesprächsführung und steuerbarer sein als sein Konkurrent ChatGPT. Anthropic peilt an, in gut einem Dutzend verschiedener Branchen kommerziell Fuß zu fassen, so etwa beim Zusammenfassen und Analysieren von Rechtsdokumenten, beim Verarbeiten medizinischer Patientenakten, bei E-Mails und Chats im Kundenservice, im Bereich B2B für Verbraucher-Modelle, beim Edieren und Erstellen von Dokumenten und Inhalten sowie bei Suchfunktionen in natürlicher Sprache, Q&A und Beratung mit Chatbots, im Personalbereich für Stellenbeschreibungen und Gesprächsanalysen, in der Therapie und im Coaching, bei virtuellen Assistenten und im Bildungsbereich. Einige dieser Bereiche sollen nur unter Aufsicht von Menschen den KI-Einsatz zulassen.

Dario Amodei, der Geschäftsführer von Anthropic, hatte sich nach Meinungsverschiedenheiten über die zunehmend kommerzielle Ausrichtung von OpenAI von dem Unternehmen getrennt und sein eigenes Start-up als gemeinnützige Organisation gegründet. Eine Reihe von OpenAI-Mitarbeitern verließen 2021 gemeinsam mit ihm das Mutterschiff, so auch der ehemalige Leiter der OpenAI-Unternehmensausrichtung (Policy Lead) Jack Clark. Clark ist unter anderem auch ein Mitherausgeber des jährlich erscheinenden unabhängigen AI Index Report der Stanford University, der Entscheidungsträgern weltweit die Trends in der KI-Entwicklung weltweit zahlen- und evidenzbasiert aufschlüsselt.

Der im April erschienene AI Index 2023 zur Datenbasis von 2022 weist auf die Risiken zunehmender Monopolbildung durch Konzentration der KI-Entwicklung bei großen Daten- und Plattformkonzernen in den USA und in China hin und zeigt den großen Vorsprung chinesischer Forschungseinrichtungen auf. Im vergangenen Jahr sind private Investitionen in KI-Start-ups um etwa 40 Prozent zurückgegangen – der Bericht liest sich wie ein Weckruf insbesondere für Deutschland und Europa, so rasch wie möglich mehr in die Grundlagentechnologie zu investieren, um nicht in unaufholbaren Rückstand und Abhängigkeit zu geraten.

Anthropic hatte sich in den ersten anderthalb Jahren auf die Forschung konzentriert und war in der Öffentlichkeit jenseits der riesigen Anschubfinanzierung der ersten beiden Funding-Runden (mit 750 Millionen US-Dollar in unter einem Jahr ein Rekord in der Deep-Tech-Finanzierung) kaum in Erscheinung getreten. Seit September 2022 treibt das Unternehmen die Kommerzialisierung voran, heißt es laut TechCrunch im Pitchdeck (das naturgemäß an Investoren gerichtet ist). So habe Anthropic eine Strategie für die Markteinführung und erste Produktspezialisierung entwickelt, die "zur Kernkompetenz und zur Marke passt". Man rechne mit Akzeptanz in den kommenden zwölf Monaten.

Sam Bankman-Fried hatte über Alameda Research Ventures, eine Schwesterfirma der zusammengebrochenen Kryptowährungsbörse FTX, zu den ersten Investoren in Anthropic gehört. Alameda war als stiller Investor nicht stimmberechtigt, führte jedoch mit 580 Millionen Dollar die zweite Finanzierungsrunde (Series B). Anthropic geht offenbar davon aus, dass die Alameda-Anteile im Rahmen eines Insolvenzverfahrens veräußert werden dürften.

Auch stabilere Kandidaten wie Google zählen zu den Anthropic-Investoren: Für eine zehnprozentige Beteiligung habe der Konzern 300 Millionen Dollar zugesagt (die Financial Times hatten hierüber berichtet). Im Gegenzug soll Anthropic sich bereiterklärt haben, Google Cloud zum bevorzugten Cloudanbieter zu machen und gemeinsam mit dem Unternehmen KI-Computersysteme zu entwickeln. Neben dem bereits erwähnten Programmierer und Investor Jaan Tallinn (unter anderem Entwickler von Skype und Investor auch bei DeepMind) unterstützen etwa der ehemalige Google-Geschäftsführer Eric Schmidt und der Facebook-Mitgründer Dustin Moskovitz Anthropic.

(sih)