Missing Link: Stephen Wolfram über die Rolle der KI in der Forschung (Teil 2)

Seite 5: Wenig überraschender Mainstream

Inhaltsverzeichnis

Die Suche nach "wirklich neuer Wissenschaft" (oder Mathematik) stößt auf ein Problem, wenn ein neuronales Netz, trainiert auf vorhandener Literatur, im Wesentlichen nach mehr vom Gleichen sucht. Ähnlich wie in einem Peer-Review-Verfahren wird nur das "akzeptiert", was als "Mainstream" und "nicht allzu überraschend" gilt. Doch wie verhält es sich mit den Überraschungen, die aus rechnerischer Irreduzibilität resultieren? Sie sind definitionsgemäß leicht auf Bekanntes reduzierbar.

Sie können neue Fakten liefern und sogar wichtige Anwendungen haben. Oft gibt es jedoch zumindest anfangs kein "menschlich zugängliches Narrativ" für sie. Um dies zu erreichen, müssen neue Konzepte verinnerlicht werden.

Letztendlich herrscht eine gewisse Willkür darüber, welche "neuen Fakten" oder "neuen Richtungen" verinnerlicht werden sollen. Die Wahl einer bestimmten Richtung kann zu spezifischen Ideen, Technologien oder Aktivitäten führen. Doch abstrakt betrachtet bleibt unklar, welche Richtung "richtig" ist; zunächst scheint dies eine Frage der menschlichen Entscheidung.

Es gibt allerdings eine Überlegung: Was, wenn eine KI genug über menschliche Psychologie und Gesellschaft wüsste, um vorherzusagen, "was gewollt wird"? Auf den ersten Blick könnte sie dann erfolgreich "Richtungen wählen". Doch die rechnerische Irreduzibilität stellt ein Hindernis dar, denn letztendlich ist nicht vorhersehbar, "was gefallen wird", bevor das Ziel erreicht ist.

Dies lässt sich auf generative KI, beispielsweise für Bilder oder Texte, übertragen. Anfangs könnte man sich vorstellen, Bilder zu erzeugen, die aus beliebigen Pixelanordnungen bestehen. Doch ein überwältigender Anteil davon wird nicht "interessant" wirken; sie erscheinen lediglich als "zufälliges Rauschen".

(Bild: Stephen Wolfram)

Durch das Training eines neuronalen Netzes mit Milliarden von Menschen ausgewählten Bildern kann es dazu gebracht werden, Bilder zu erzeugen, die irgendwie "im Allgemeinen dem ähneln, was wir als interessant empfinden". Manchmal werden die erzeugten Bilder so erkennbar sein, dass eine "narrative Erklärung" dafür gegeben werden kann, wie sie aussehen:

(Bild: Stephen Wolfram)

Aber häufig werden wir uns mit Bildern "im Zwischenkonzept-Raum“ wiederfinden:

(Bild: Stephen Wolfram)

Sind diese "interessant"? Es lässt sich schwer sagen. Beim Scannen des Gehirns einer Person, die sie betrachtet, könnte ein bestimmtes Signal auffallen – und vielleicht könnte eine KI lernen, dies vorherzusagen. Doch unweigerlich würde sich dieses Signal ändern, sollte eine Art "Zwischenkonzept-Bild" populär werden und beginnen, beispielsweise als eine Kunstform anerkannt zu werden, mit der Menschen vertraut sind.

Am Ende kehrt die Diskussion zum selben Punkt zurück: Dinge sind letztlich "interessant", wenn sie durch die Entscheidungen einer Zivilisation dazu gemacht werden. Es gibt kein abstraktes Konzept von "Interessantheit", das eine KI oder irgendetwas vor unseren Entscheidungen "entdecken" kann.

Das gilt auch für die Wissenschaft. Es gibt keinen abstrakten Weg zu wissen, "was interessant ist", aus allen Möglichkeiten im Ruliad; das wird letztlich durch die Entscheidungen bestimmt, die bei der "Kolonisierung" des Ruliads getroffen werden. Der Ruliad, ein Konzept, das alle möglichen durch computergestützte Regeln generierten Universen umfasst, bietet keinen direkten Weg zur Erkennung von "Interessantheit" außerhalb menschlicher Entscheidungen.

Was aber, wenn – anstatt in die "Wildnis des Ruliads" vorzustoßen – nahe bei dem geblieben wird, was bereits in der Wissenschaft getan und als "interessant angesehen" wurde? Kann KI dabei helfen, das Vorhandene zu erweitern? Zumindest praktisch gesehen ist die Antwort auf gewisser Ebene sicherlich ja. LLMs sollten beispielsweise in der Lage sein, Inhalte zu produzieren, die dem Muster akademischer Arbeiten folgen – mit Spuren von "Originalität", die aus der verwendeten Zufälligkeit im LLM resultieren.

Wie weit kann ein solcher Ansatz führen? Die existierende akademische Literatur ist sicherlich voller Lücken. Phänomen A wurde in System X untersucht und B in Y, aber nicht umgekehrt, usw. Es kann erwartet werden, dass KIs – und insbesondere LLMs – nützlich sind, um diese Lücken zu identifizieren und effektiv "zu planen", welche Wissenschaft (nach diesem Kriterium) interessant zu betreiben ist. Ferner können Dinge wie LLMs hilfreich sein, um "übliche und gewöhnliche" Wege aufzuzeigen, wie die Wissenschaft durchgeführt werden sollte. Beim eigentlichen "Betreiben der Wissenschaft" werden jedoch die tatsächlichen computergestützten Sprachwerkzeuge – zusammen mit Dingen wie computergesteuerten Experimentiergeräten – vermutlich zentraler sein.

Aber nehmen wir an, ein großes Ziel für die Wissenschaft wurde definiert ("herausfinden, wie man das Altern umkehren kann", oder, etwas bescheidener, "Kryonik lösen"). Mit einem solchen Ziel wird etwas als "interessant" spezifiziert. Und dann ist das Problem, dieses Ziel zu erreichen, zumindest konzeptionell wie das Finden eines Beweises für ein Theorem oder eines Synthesewegs für eine Chemikalie. Es gibt bestimmte "Schritte, die unternommen werden können", und es muss herausgefunden werden, wie diese "aneinandergereiht werden" können, um das gewünschte Ziel zu erreichen. Unvermeidlich gibt es jedoch ein Problem mit (multi-)komputationaler Irreduzibilität: Es kann eine irreduzible Anzahl von Schritten erforderlich sein, um zum Ergebnis zu gelangen. Und auch wenn das endgültige Ziel als "interessant" betrachtet wird, gibt es keine Garantie, dass die Zwischenschritte auch nur annähernd interessant gefunden werden. Tatsächlich benötigt man in vielen Beweisen – sowie in vielen technischen Systemen – eine immense Anzahl quälender Details, um zum finalen "interessanten Ergebnis" zu gelangen.

Aber mehr zur Frage, was untersucht werden soll – oder effektiv, was "interessant zu untersuchen" ist. "Normale Wissenschaft" tendiert dazu, inkrementellen Fortschritt zu machen, innerhalb bestehender Paradigmen zu bleiben, aber allmählich das Vorhandene auszufüllen und zu erweitern. Normalerweise sind die fruchtbarsten Bereiche an den Schnittstellen zwischen bestehenden, gut entwickelten Bereichen. Anfangs ist es überhaupt nicht offensichtlich, dass verschiedene Wissenschaftsbereiche überhaupt zusammenpassen sollten. Aber mit dem Konzept des Ruliads als ultimative zugrundeliegende Struktur beginnt dies weniger überraschend zu erscheinen. Dennoch, um tatsächlich zu sehen, wie verschiedene Wissenschaftsbereiche zusammengestrickt werden können, muss man oft – vielleicht zunächst überraschende – Analogien zwischen sehr unterschiedlichen Beschreibungsrahmen identifizieren. „Eine entscheidbare Theorie in der Metamathematik ist wie ein schwarzes Loch in der Physik“; „Konzepte in der Sprache sind wie Partikel im rulialen Raum“; et cetera.

Und dies ist ein Bereich, in dem LLMs hilfreich sein können. Hat man das „linguistische Muster“ eines Bereichs gesehen, kann man erwarten, dass sie dessen Entsprechung in einem anderen Bereich erkennen können – potenziell mit wichtigen Folgen.

Aber was ist mit völlig neuen Richtungen in der Wissenschaft? Historisch gesehen waren diese oft das Ergebnis der Anwendung einer neuen praktischen Methodik (sagen wir, für die Durchführung einer neuen Art von Experiment oder Messung) – die zufällig einen "neuen Ort zum Hinsehen“ eröffnet, wo vorher noch nie hingeschaut wurde. Aber oft ist eine der großen Herausforderungen zu erkennen, dass das, was man sieht, tatsächlich „interessant“ ist. Und dies enthält oft effektiv die Schaffung eines neuen konzeptuellen Rahmens oder Paradigmas.

Kann also KI – wie hier besprochen – dies leisten? Es scheint unwahrscheinlich. KI ist typischerweise etwas, das auf bestehendem menschlichem Material trainiert wird, um direkt daraus zu extrapolieren. Es ist nichts, das dazu gebaut ist, "in die Wildnis des Ruliads" vorzustoßen, weit entfernt von allem, was bereits mit Menschen verbunden ist.

Aber in einem Sinne ist das das Gebiet der "willkürlichen Berechnung" und von Dingen wie den einfachen Programmen, die in der Ruliologie aufgezählt oder zufällig ausgewählt werden könnten. Und ja, indem man in die "Wildnis des Ruliads" vordringt, ist es leicht genug, frische, neue Dinge zu finden, die aktuell nicht in die Wissenschaft integriert sind. Die Herausforderung besteht jedoch darin, sie mit irgendetwas zu verbinden, das Menschen aktuell "verstehen" oder "interessant finden". Und das, wie zuvor erwähnt, ist etwas, das quintessenziell menschliche Wahl und die Launen der menschlichen Geschichte betrifft. Es gibt eine unendliche Sammlung von Pfaden, die eingeschlagen werden könnten. (Und tatsächlich, in einer "Gesellschaft von KIs", könnten KIs eine bestimmte Sammlung davon verfolgen.) Aber am Ende zählt für uns Menschen und das Unternehmen, das wir normalerweise "Wissenschaft" nennen, unsere innere Erfahrung. Und das ist etwas, das wir letztendlich für uns selbst formen müssen.