zurück zum Artikel

Missing Link: Wenn Einsteins kosmologische Konstante nicht konstant ist

Alderamin

Ausschnitt aus der Illustris-Simulation zur Strukturbildung im Universum. Der Durchmesser des Bildausschnitts beträgt rund 70 Millionen Lichtjahre. Er repräsentiert den heutigen Zustand der Strukturbildung. Die dunklen Filamente bilden die Verteilung der Dunklen Materie ab, die rötlich-gelben Flächen das sichtbare Gas und dessen Bewegung. Je heller die Farbe, desto schneller bewegt sich das Gas.

(Bild: Illustris Collaboration / Illustris Simulation, mit freundlicher Genehmigung von Dylan Nelson, Illustris Collaboration)

Angeblich wachsen große Strukturen im Universum zu langsam für Einsteins Gravitationsgesetz. Eine detaillierte Analyse erklärt, worum es dabei geht.

Einsteins Allgemeine Relativitätstheorie, welche sowohl die Schwerkraftwirkung von Massen bis hin zu Schwarzen Löchern als auch die Entwicklung des Universums insgesamt beschreibt, hat sich über 100 Jahre lang bewährt und bisher alle Tests mit fliegenden Fahnen bestanden. Sie umfasst die ältere Newtonsche Gravitationstheorie als Spezialfall für kleine Massen oder große Entfernungen. Bei der Beschreibung der Rotation von Galaxien und der Expansion des Weltalls kommt sie jedoch nicht ohne Zusatzannahmen wie dem Vorhandensein riesiger Mengen unsichtbarer Dunkler Materie und einer physikalisch bisher nicht begründeten kosmologischen Konstante aus, sodass die Rufe nach einer Modifikation nicht verstummen. Ein überzeugender Nachweis für die Gültigkeit alternativer Theorien konnte bisher jedoch nicht geliefert werden, und keine Alternative ist annähernd so erklärungsmächtig wie die Relativitätstheorie.

In den vergangenen Monaten wurden auf Heise Online zwei Arbeiten vorgestellt, die auf den ersten Blick den Eindruck erwecken, dass die Allgemeinen Relativitätstheorie und damit auch der gute alte Newton ins Wanken gebracht worden seien. Aber wie sieht es auf den zweiten Blick aus? In einer kleinen Reihe möchte ich die Arbeiten näher beleuchten, um die Frage zu klären, wie diese Aussagen zu bewerten sind. Oder um es mit Giovianni Trapattoni zu sagen: Haben Newton und Einstein fertig?

Im heutigen Artikel geht es um eine Arbeit von Nhat-Minh Nguyen, Dragan Huterer und Yuewei Wen [1], alle drei tätig an der Universität von Michigan in Ann Arbor, USA. Sie behaupten in ihrem Aufsatz "Evidence for suppression of structure growth in the concordance cosmological model", dass sie einen 4,2σ-starken Beleg dafür gefunden hätten, dass das Strukturwachstum im Universum nicht kompatibel sei mit dem ΛCDM-Modell des Universums und der Allgemeinen Relativitätstheorie. Dabei zweifeln sie weniger an den Annahmen des ΛCDM-Modells, des Standardmodells der Entwicklung des Universums mit euklidischer Geometrie, Dunkler Energie und kalter Dunkler Materie, sondern vielmehr an Meister Einsteins Gravitationsgesetz und schlagen ein alternatives Modell vor. Um nachzuvollziehen, wie sie zu dieser Behauptung gekommen sind, müssen wir ein wenig ausholen.

Gemäß der Urknalltheorie entstand das Universum aus einem winzig kleinen, unvorstellbar heißen Volumen im Mikrokosmos der Quantenwelt, das sich rasch ausdehnte und abkühlte. Nach 10-37 Sekunden vollzog sich ein Phasenübergang, der die Abstände im Universum ruckartig binnen 10-33 Sekunden um mindestens den Faktor 1026 aufblähte: die kosmische Inflation. Der Durchmesser eines Wasserstoffatoms (deren es noch keine gab) vergrößerte sich in einem Bruchteil einer Sekunde, weitaus kürzer im Verhältnis zu einer Sekunde als sich eine Sekunde zum Alter des Universums verhält, auf ein Lichtjahr, 1 mm auf 10 Milliarden Lichtjahre. Die Fluktuationen der Quantenfelder aus der Zeit vor der Inflation wurden so ins Makroskopische transformiert.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Vermutlich wurde die Inflation von einer immens hohen Vakuumenergiedichte angetrieben. Die Inflation endete, als das Universum einen weiteren Phasenübergang zu einer niedrigeren, der heutigen Vakuumenergiedichte durchmachte, und die Energiedifferenz als Strahlung freisetzte. Aus dieser Strahlung entstanden dann innerhalb von wenigen Minuten im heißen Feuerball des Urknalls Quarks und Leptonen, Kernteilchen und schließlich die Atomkerne von Wasserstoff und Helium (sowie Spuren der drei nächstschwereren Elemente).

Nach diesem fulminanten Beginn legte das Universum ein gemächlicheres Tempo ein und während der nächsten knapp 400.000 Jahre passierte wenig Monumentales. Ein sich ausbreitendes heißes, undurchsichtiges Plasma aus Atomkernen, Elektronen und Photonen erfüllte den gesamten, stetig wachsenden Raum, in dem es ungefähr so aussah wie im Inneren eines Sterns – und dennoch entstanden in dieser Zeit die Keime für die Struktur unseres heutigen Universums.

Denn durch die einkehrende Ruhe gewann die Gravitation Zeit, ihre Kraft zu entfalten. Das Gas war nicht absolut gleichförmig verteilt, sondern es gab Zonen mit geringfügig erhöhter Dichte und Temperatur, und solche mit entsprechend geringerer, die aus den während der Inflationsphase ins Gigantische vergrößerten Fluktuationen der Quantenfelder vor der Inflation entstanden waren. Mit dem weiteren Anwachsen des Universums wuchsen auch sie nun weiter mit und sorgten dafür, dass die Materie, sichtbare wie dunkle, nicht vollkommen gleichmäßig verteilt war. Wo die Dichte am höchsten war, war es auch die Gravitation, und diese zog die umgebende Materie an.

Die Kompression der Materie heizte das baryonische (gewöhnliche, hauptsächlich aus Protonen und Neutronen, das heißt Baryonen [3], bestehende) Gas auf, und die dabei entstehende Wärmestrahlung trieb es schließlich wieder auseinander.

Die Dunkle Materie, die mit den Photonen der Wärmestrahlung nicht interagierte, verblieb hingegen an ihrem Ort und zog die sich abkühlende, expandierende baryonische Materie schließlich wieder zu sich zurück, verdichtete und heizte sie erneut auf, und das Spiel begann von vorne. Die periodischen Verdichtungen des Gases bezeichnet man als "Baryonische Akustische Oszillationen" (BAO), denn sie betrafen nur die baryonische Materie und sie waren nichts anderes als sich ausbreitende Druckwellen, auch bekannt als Schall.

Nach einigen wenigen Oszillationen binnen 380.000 Jahren war das Gas auf etwa 3000 K abgekühlt, sodass es transparent wurde und nicht mehr von der Strahlung der Kompressionswärme auseinandergetrieben werden konnte. Damit endeten die baryonischen akustischen Oszillationen und die von ihnen geformten Strukturen wurden eingefroren. Die Photonen konnten sich seither geradlinig ausbreiten und sie erreichen uns heute von Orten, von wo aus sie 13,8 Milliarden Jahre gegen die kosmische Expansion ankämpfend benötigten, bis sie uns erreichten. Ihre Wellenlängen wurden um mehr als das Tausendfache durch die kosmische Expansion gedehnt und ihre Temperatur ist um den gleichen Faktor von 3000 K auf 2,73 K gefallen, sodass sie hier nun als Mikrowellen eintreffen: die kosmische Hintergrundstrahlung. Sie zeigt uns an den fernsten Orten, die wir mit den heutigen Mitteln erforschen können, wie das Universum am Ende des Feuerballs ausgesehen hat, als es noch keine Sterne und Galaxien gab.

Der kosmische Mikrowellenhintergrund, eingefangen von der ESA-Sonde Planck

(Bild: ESA/Planck Collaboration)

Wenn man die winzigen Temperaturunterschiede in der Hintergrundstrahlung auf hunderttausendstel Grad genau auflöst, kann man die von den baryonischen akustischen Oszillationen hinterlassenen Strukturen im kosmischen Mikrowellenhintergrund sichtbar machen. Sie sind seither um den Faktor 1000 angewachsen und bilden das Grundgerüst des sogenannten kosmischen Netzes, welches das Universum durchzieht. Die Wellenzüge, die die größte Ausdehnung erreicht hatten, bilden heute blasenförmige Strukturen von 500 Millionen Lichtjahren Durchmesser, und die Abkürzung "BAO" wird von den Kosmologen synonym für diese großräumigen Strukturen verwendet. Entlang der Strukturen aus verbundenen Filamenten und Knoten sammelte sich unter dem Einfluss der Gravitation die Dunkle und leuchtende Materie und kollabierte weiter zu Galaxienhaufen, einzelnen Galaxien und ihren Sternen und Planeten.

Wie genau die Strukturbildung ablief, ist aktuell ein heißes Thema der Kosmologie. Wie lange dauerte es, bis Sterne und Galaxien entstanden? Wie entstanden ihre zentralen supermassereichen Schwarzen Löcher? Wie entwickelte sich das Wachstum des Universums insgesamt über das bisherige Weltalter?

Das kosmische Netz spiegelt also die auf Quantenfluktuationen in der frühesten Phase des Urknalls zurückgehenden Strukturen der kosmischen Hintergrundstrahlung wider, so dass sich sowohl an den Mustern der Hintergrundstrahlung selbst wie auch an denen des kosmischen Netzes ähnliche Analysen durchführen lassen, aus denen Rückschlüsse auf die Prozesse im frühen Universum und auf die nachfolgende Entwicklung des Universums gezogen werden können. Zum Beispiel können die Anteile an Dunkler Materie, Dunkler Energie sowie die Hubble-Lemaître-Konstante H₀ [4] ermittelt werden. H0 gibt an, mit welcher Geschwindigkeit im heutigen Universum ein Referenzabstand von 1 Mpc (1 Million Parsec = 3,26 Millionen Lichtjahre) aufgrund der kosmischen Expansion anwächst.

Im vergangenen Jahrzehnt stieß man auf Ungereimtheiten zwischen den Werten zweier kosmologischer Parameter, je nachdem, ob sie im nahen Universum bestimmt wurden oder aus der Hintergrundstrahlung bzw. dem kosmischen Netz:

Worum geht es genau bei dieser auch als "S₈ Tension [6]" bezeichneten Diskrepanz? Der "Klumpigkeitsparameter" S8 ist ein Maß dafür, wie stark die Materiedichte im Universum lokal variiert. Sein Wert wird ermittelt, indem die Streuung (Standardabweichung) der Materiedichte um ihren Mittelwert in einer Kugel mit dem Radius 8 h-1 Mpc bestimmt wird.

[h ist hierbei der Zahlenwert der Hubble-Konstanten dividiert durch 100 km/s/Mpc, also h ≈ 0,67…0,73 (ohne Einheit) – solange es diese Unsicherheit noch gibt, ziehen die Kosmologen es vor, Entfernungsangaben mit h-1 zu skalieren, um sich bei Entfernungsangaben auf keinen genauen Wert von H0 festlegen zu müssen. 8 h-1 Mpc können anhand der kosmologischen Rotverschiebung genau gemessen werden, nur die Umrechnung in Mpc ist um ca. 8 Prozent unsicher. 8 h-1 Mpc entsprechen 11,0…11,9 Mpc.]

Im Rahmen des Kilo-Degree Survey [7] (KiDS), eines Gemeinschaftsprojekts mit beteiligten Instituten aus den Niederlanden, Schottland, England und Deutschland, wurden mit dem 2,65 m VLT Survey Telescope [8] (VLS) der Europäischen Südsternwarte am Cerro Paranal in Chile 31 Millionen Galaxien in einem Beobachtungsfeld von 1350 Quadratgrad (etwa 5 Prozent des Himmels) untersucht. Anhand der Verzerrung ihrer Bilder durch den schwachen Gravitationslinseneffekt ("weak gravitational lensing"), verursacht durch die Ablenkung ihres Lichts beim Passieren von großen Materieansammlungen, wurde im Rahmen des Teilprojekts KiDS-1000 die räumliche Verteilung der lichtablenkenden Materie bestimmt. Ein ähnliches Projekt wurde im Rahmen des Dark Energy Survey [9] (DES) von Forschenden aus den USA, Brasilien, Großbritannien, Spanien, Deutschland, Australien und der Schweiz am Cerro Tololo Inter-American Observatory durchgeführt. KiDS-1000 und der 3-Jahres-Datenrelease des DES, auch als DESY3 bezeichnet, kamen gemeinsam auf den oben zitierten S8-Wert von 0,769±0,016. Das Weltraumteleskop Planck kommt hingegen auf 0,834±0,016.

Das ΛCDM-Modell ist das derzeit gebräuchliche Standardmodell für die Expansion des Universums, welches auf einer Lösung der Einsteinschen Feldgleichungen der Allgemeinen Relativitätstheorie von Alexander Friedmann, Georges Lemaître, Howard P. Robertson und Arthur G. Walker (daher auch FLRW-Metrik genannt) aus den 1930ern beruht. Es erlaubt die Berechnung der Entwicklung des Universums in Abhängigkeit von seinen Ingredienzien, die gemäß der Planck-Ergebnisse zu rund 70 Prozent aus Dunkler Energie [10] (gemeinhin abgekürzt mit Λ, großes griechisches "Lambda"), zu 25 Prozent aus kalter Dunkler Materie [11] ("Cold Dark Matter") und zu 5 Prozent aus gewöhnlicher Materie bestehen. In Summe addieren sie sich gemäß dem ΛCDM-Modell genau auf die kritische Dichte, die zu einer flachen, das heißt "euklidischen" Geometrie des Universums führt. Großräumig verhält sich die Geometrie des Universums so, wie wir es aus dem Schulunterricht kennen: Dreiecke haben eine Winkelsumme von 180° und Kreise einen Umfang von 2πr. Auf gekrümmten Flächen (und in gekrümmten Räumen) ist das anders: bei positiver Krümmung sind die Winkelsummen im Dreieck größer als 180°, bei negativer Krümmung kleiner. Und der Kreisumfang ist kleiner als 2πr, respektive größer. Aus den Planck-Messungen lassen sich die Zutaten des Universums ebenso wie seine euklidische Geometrie ableiten.

Mit seinem höheren S8-Wert sagt ΛCDM nun voraus, dass die Materie sich stärker verdichtet haben sollte, als KiDS-1000 und DESY3 es gemessen haben. Und zwar signifikant stärker, denn die Fehlerintervalle von einer Standardabweichung sind deutlich kleiner als die Differenz der Werte.

Hier kommt nun die Arbeit von Nguyen, Huterer und Wen ins Spiel: diese haben die Daten aus mehreren Galaxiendurchmusterungen (wie dem Sloan Digital Sky Survey SDSS, dem 6dF Galaxy Survey und DESY1, also dem ersten Datenrelease des Dark Energy Surveys) analysiert, um die Geschwindigkeit zu ermitteln, mit der sich das Strukturwachstum im Universum vollzogen hat.

Um das Wachstum quantifizieren zu können, muss man zunächst einmal definieren, wie man mathematisch beschreiben möchte, wie stark sich die Materie verdichtet hat. Der Wachstumsparameter, um den sich die Arbeit dreht, ist ziemlich abstrakt, daher kommen wir nicht ohne ein paar Formeln aus. Wer sich die Details ersparen will, kann gleich zur Stichpunktliste am Ende dieses Kapitels springen.

Bezeichnen wir die lokale "Überdichte" der Materie in einer betrachteten Region [12] (etwa in einem bestimmten Radius, einem Filament oder Galaxienhaufen) im Verhältnis zur mittleren Materiedichte im gesamten Universum mit 𝛿. Genauer gesagt ist 𝛿 = (ρ – ρØ) / ρØ, d.h. die Differenz der Dichte ρ (etwa in g/cm³) am betrachteten Ort und der mittleren Dichte im Universum ρØ dividiert durch eben jene mittlere Dichte ρØ. Beispielsweise 0,7, wenn die Dichte 70 Prozent (Faktor 1,7) über dem Durchschnitt läge. Auf die räumliche Varianz genau dieses Werts 𝛿 bezieht sich übrigens der Parameter S8. Der Zusammenhang ist leider komplex [13].

Durch die Normierung mit der mittleren Dichte ρØ wird der Effekt der zunehmenden Verdünnung der Materie durch die Expansion des Universums kompensiert, um die fortschreitende Strukturbildung zu verschiedenen Weltaltern miteinander vergleichen zu können, was mit der absoluten Dichte ρ schwierig ist.

𝛿 ändert sich über das Weltalter, da sich die Strukturen im Kosmos zunehmend verdichten, daher bezeichnen wir die Dichte für ein Weltalter t mit 𝛿(t).

Dann bezeichne D(t) = 𝛿(t)/𝛿(t0) die relative Dichte dieser Region beim Weltalter t im Verhältnis zur Dichte einer vergleichbaren Region im heutigen Universum (Weltalter t0). Ein Zahlenbeispiel: sei 𝛿(t) zur Zeit t beispielsweise 10 (d.h. die Materiedichte ist in den Verdichtungsgebieten 10-mal größer als im Durchschnitt des Universums) und zum heutigen Weltalter t0 sei 𝛿(t0) = 20, dann wäre D(t) = 0,5.

Der Wert von 𝛿 zum Weltalter ≈ 0, 𝛿(0), lag aufgrund der nahezu gleichförmigen Verteilung der Materie im Raum nahe bei 0, 𝛿(t0) liegt je nach betrachtetem Radius in der Größenordnung von 20 [14].

D(t) sollte dementsprechend bei t ≈ 0 mit D(0) ≈ 0 beginnen und bis zur heutigen Zeit auf D(t0) = 1 anwachsen – und um genau dieses Anwachsen geht es in der hier betrachteten Arbeit.

Nun gilt es zu beschreiben, wie sich D über die Zeit entwickelt hat. Weil man einer hinreichend fernen Galaxie nicht ansieht, bei welchem Weltalter das Licht sie verließ, das wir heute sehen, betrachtet man anstelle von D(t) besser D(a), also die Entwicklung der Materiedichte in Abhängigkeit vom Skalenfaktor a. Der Skalenfaktor gibt an, um welchen Faktor das Universum zu einem bestimmten Weltalter (oder einer bestimmten Rotverschiebung) kleiner war als heute. Und dieser Wert ist einfach aus der Rotverschiebung zu ermitteln: wenn die Spektrallinien im Licht einer Galaxie auf die doppelte Wellenlänge rotverschoben erscheinen, dann ist das Universum seit der Aussendung des Lichts um den Faktor 2 gewachsen und die Wellenlänge des Lichts wuchs mit. Folglich war das Universum zur Zeit der Aussendung des Lichts nur halb so groß wie heute, d.h. der Skalenfaktor des Universums zur Zeit der Aussendung des Lichts war folglich 0,5.

Der Skalenfaktor kann also leicht aus der Rotverschiebung berechnet werden, viel genauer als das Weltalter, bei dem man eine ferne Galaxie sieht. Daher möchte man das Wachstum der Materiedichte über dem Skalenfaktor beschreiben.

Die Wachstumsratenfunktion f(a) ist schließlich definiert als die Zunahme der Materieverdichtung D über a (also letztlich über die Zeit), d.h. die Rate, mit der der D(a) wächst.

[Für Experten: f(a) ist genauer gesagt die Ableitung dlnD(a) / dln(a), also die Steigung von D(a) über a in einem doppelt logarithmischen Diagramm, denn a wuchs initial exponentiell und ln(a), der natürliche Logarithmus von a, entspricht daher annähernd dem linearen Verlauf der Zeit.]

Die kosmologische Literatur liefert als gute Näherung dafür die Wachstumsraten-Funktion die Formel

f(a) = Ωm(a)γ

wobei Ωm(a) die Materiedichte im Universum beim Skalenfaktor a bezeichnet (heute bei a=1 ist sie ca. 0,3) und γ den "Wachstumsindex". Der Wachstumsindex γ gibt hierbei maßgeblich das Tempo vor. Laut ΛCDM-Modell sollte er konstant 0,55 betragen. Man beachte: je kleiner γ ist, desto größer ist die Wachstumsrate f(a), denn γ ist kleiner als 1, es ist quasi eine Wurzelfunktion.

Nguyen, Huterer und Wen analysierten unter anderem die Streuung der Rotverschiebung von Galaxien in Galaxienhaufen bei verschiedenen kosmologischen Rotverschiebungen z. Diese Streuung ergibt sich zum einen aufgrund der individuellen Bewegungen der Galaxien durch den Raum ("Pekuliargeschwindigkeiten"), deren Dopplereffekt der kosmologischen Expansion überlagert ist, und zum anderen aufgrund der zeitlichen Verzögerung des Lichtwegs in der Nähe großer Massen (Sachs-Wolfe-Effekt), aus der sich das Produkt fσ8 aus der zuvor genannten Wachstumsratenfunktion f und der Größe σ8 ableiten lässt, die mit S8 über die Konstante √(Ωm/0,3) verbunden ist. Die Konstante liegt nahe bei 1, wenn Ωm, also der Materieanteil (dunkle + leuchtende) im Universum, den Wert hat, den Planck und andere gemessen haben (0,3111±0,0056):

S8= σ8√(Ωm/0,3)

Unter Berücksichtigung zufälliger Messfehler und aller verfügbaren Messungen fanden sie folgenden Wert für den Wachstumsindex:

γ =0,633±0,025

Im folgenden Bild sieht man die Wahrscheinlichkeiten für verschiedene Kombinationen von Messreihen. Die gestrichelte Linie links zeigt den für das ΛCDM-Modell unter der Allgemeinen Relativitätstheorie mit kosmologischer Konstante Λ zu erwartenden Wachstumsindex von 0,55. Keine der verschiedenen Kombinationen von Datenreihen ist verträglich mit diesem Wert. Die Messreihen deuten eher auf einen Wert von γ knapp oberhalb von 0,6 hin.

Wahrscheinlichkeitsverteilung des Struktur-Wachstumsindexes γ für verschiedene Kombinationen von Messreihen: fσ¡8 = Daten aus der Streuung der Rotverschiebung durch Pekuliarbewegung und Sachs-Wolfe-Effekt, DESY1 = Messungen der Strukturdichte durch das Dark Energy Survey (DES) Projekt, Jahr-1-Release, BAO = Messungen der Galaxienverteilung durch den 6dF Galaxy Survey und den Sloan Digital Sky Survey (SDSS), PL18 = Daten aus der kosmischen Hintergrundstrahlung gemessen mit dem Planck Weltraumteleskop, Release 2018.

(Bild: Nguyen, Huterer, Wen [15], mit freundlicher Genehmigung von Minh Nguyen)

Wie zuvor erläutert bedeutet ein größerer Wert γ, dass f kleiner wird, d.h. die Verdichtung der Materie wäre langsamer vonstatten gegangen als im ΛCDM-Modell. Daher sprechen die Forschenden in Ihrer Arbeit von einem "unterdrückten Strukturwachstum" ("suppression of structure growth"). Ein größeres γ würde etwas andere Werte der kosmologischen Parameter S8, Ωm und H0 begünstigen. Im folgenden Bild ist dies zu sehen.

68 Prozent (dunkel) und 95 Prozent (hell) Konfidenzintervalle für den Wachstumsindex γ und die Größen S¡8 ("Klumpigkeit" der Materie), Ω¡m (Materieanteil an der kritischen Dichte) und H¡0 (Hubble-Lemaître-Konstante). Die waagerechte gestrichelte Linie zeigt den Wert γ = 0,55.

(Bild: Nguyen, Huterer, Wen [16], mit freundlicher Genehmigung von Minh Nguyen)

Die farbigen Ellipsen geben die 1σ- (dunkel, 68 Prozent) und 2σ- (hell, 95 Prozent) Konfidenzen für die unter den x-Achsen annotierten Parameter gegenüber dem Wert von γ an (y-Achse). PL18 bezeichnet die durch das Planck-Weltraumteleskop gewonnenen Ergebnisse aus der Hintergrundstrahlung, Datenrelease 2018 (das ist der finale Release von Planck). Diese sind mit dem γ-Wert des ΛCDM-Modells (gestrichelte waagerechte Linie) für alle 3 kosmologischen Parameter noch verträglich, wenn auch nur im 95%-Intervall. Der Mittelwert der PL18-Daten legt einen γ-Wert von ca. 0,668±0,068 nahe, welcher einen etwas niedrigeren S8-Wert von 0,807±0,019 impliziert (Angaben aus dem Text des Aufsatzes).

Die Kombination fσ8 + DESY1 + BAO der fσ8-Messungen (Streuung der Rotverschiebung aufgrund der Pekuliarbewegungen der Galaxien und dem Sachs-Wolfe-Effekt) mit den Messungen von DESY1 (Messung der Materiedichte anhand des Gravitationslinseneffekts) und BAO (hierunter sind die in den Galaxiendurchmusterungen 6dF und Sloane Digital Sky Survey gemessenen BAO-Strukturen im kosmischen Netz zusammengefasst), begünstigt einen etwas kleineren γ-Wert von 0,633±0,025 und ein S8 von 0,784±0,017.

Die Kombination aller Messdaten wird durch die violette Ellipse fσ8 +DESY1 + BAO + PL18 angegeben: in diesem Intervall sind die S8-Werte aus der Hintergrundstrahlung mit denen aus Messungen der großräumigen Struktur des Universums verträglich: die S8-Spannung sinkt für γ=0,633±0,025 von 3,2σ auf 0,9σ. Auch beim Materieanteil Ωm liefert die Kombination ein Ergebnis, das mit allen Messungen verträglich ist. Und dasselbe gilt für die Hubble-Lemaître-Konstante, die ein wenig größer wird, was die Spannung zu den Messungen im nahen Universum (73 km/s/Mps) ein wenig verringert.

Allerdings ist dieses Ergebnis nicht verträglich mit einem Universum, in dem zwei Annahmen des ΛCDM-Modells erfüllt sind: 1) das Universum ist geometrisch flach (euklidisch), 2) es gilt die Allgemeine Relativitätstheorie mit einer kosmologischen Konstanten (der Dunklen Energie Λ).

Wie schaut es aus, wenn man je eine der Annahmen fallen lässt? Beginnen wir mit der Krümmung. In einem flachen, euklidischen Universum addieren sich die Anteile von Dunkler Energie und Materie (Dunkle und leuchtende) zur kritischen Dichte, die zu 1 gesetzt wird: Ωm + ΩΛ = 1. Wenn das Universum jedoch nicht flach sein muss, können sich die beiden Dichten auch zu einem Wert größer oder kleiner als 1 addieren. Im Fall eines positiv gekrümmten Universums wäre die Summe zum Beispiel größer als 1, weil das Universum mehr Dunkle Energie oder Materie enthielte, als mit einem flachen Universum vereinbar wäre.

Kosmologen schreiben dann für gewöhnlich nicht, dass die Summe von Ωm und ΩΛ einen anderen Wert als 1 hat, sondern führen eine weitere Dichte Ωk ein, die den Überschuss (oder Unterschuss bei einer Summe kleiner als 1) in Form eines zusätzlichen "Krümmungsparameters" wieder zu 1 reduziert:

Ωm + ΩΛ + Ωk = 1

Wenn also die Summe von Ωm und ΩΛ größer als 1 ist, dann muss Ωk negativ sein. Es gibt nun Hinweise darauf, dass genau dies der Fall ist, wie Eleonora Di Valentino, Alessandro Melchiorri und Joseph Silk in einem Aufsatz in Nature Astronomy 2019 dargelegt haben:

Die Planck-Ergebnisse für den Krümmungsparameter Ω¡k (siehe Text) für verschiedene Auswertungsmethoden ("likelihoods"), die die Wahrscheinlichkeit modellierter Daten unter Berücksichtigung der Unsicherheiten der gemessenen Daten als Verteilungsdichten darstellen und die als Open Source Softwarepakete [17] zum Download verfügbar sind. "plik" bezeichnet die offizielle von der Planck-Kollaboration mit dem 2018-Datenrelease veröffentlichte und zu seiner Erstellung verwendete Auswertungsmethode. CamSpec ist eine alternative Methode auf der Basis einer anderen Filterung und Gewichtung der Eingangsdaten. PL15 bezeichnet die für den Planck-Datenrelease 2015 verwendete Methode. Alle Ergebnisse deuten auf einen Krümmungsparameter um -0,04 hin. PL18 simulated zeigt die Ergebnisse simulierter Daten auf der Basis eines hypothetischen Ω¡k=0-Werts (flaches Universum) mit einem gleich großen statistischen Rauschen, wie es die echten Daten aufweisen – Planck sollte demnach in der Lage sein, Ω¡k=0,00±0,02 nachzuweisen – wenn das Universum denn flach wäre.

(Bild:  Eleonora Di Valentino, Alessandro Melchiorri, Joseph Silk [18], mit freundlicher Genehmigung von Alessandro Melchiorri)

Demnach beträgt Ωk=-0,04 und ist im Rahmen der Messgenauigkeit nicht vereinbar mit einem flachen Universum, was bedeuten würde [19], dass wir in einem positiv gekrümmten, geschlossenen Universum mit endlichem Volumen leben.

Das Ergebnis ist allerdings nicht unumstritten, die Planck-Kollaboration sieht hier Kalibrierungsprobleme der Polarimeter von Planck im Spiel und veröffentlichte auf der Basis derselben Daten einen Wert von Ωk=0,001±0,002, der allerdings auch noch im Rahmen der Messgenauigkeit eine Krümmung in die eine oder andere Richtung zulässt.

Wenn das Universum tatsächlich geschlossen wäre, so bestünde laut Nguyen die Möglichkeit, dass γ doch den Wert 0,55 hat, wie im nächsten Bild aus seiner Arbeit ersichtlich ist, welches die Planck-Ergebnisse für Temperatur und Polarisation der Hintergrundstrahlung für mögliche γ-Werte über dem Krümmungsparameter aufträgt.

68 Prozent (dunkel) und 95 Prozent (hell) Konfidenzintervalle für den Wachstumsindex γ und den Krümmungsparameter Ω¡k auf der Basis des Planck Daten-Releases aus dem Jahr 2018 (Korrelation von Temperatur und Polarisationsdaten)

(Bild: Nguyen, Huterer, Wen [20], mit freundlicher Genehmigung von Minh Nguyen)

Für einen Krümmungsparameter von weniger als rund -0,03 läge der Einstein-Wachstumsindex γ = 0,55 demnach wieder im Bereich von einer Standardabweichung σ (dunkler Bereich). Ein negativer Krümmungsparameter steht allerdings im Widerspruch zu den Inflationstheorien mit der höchsten Akzeptanz. Die Inflationsphase müsste kurz gewesen sein, um eine solch starke Krümmung bestehen zu lassen, und ein Universum mit einem Krümmungsfaktor von -0,045 würde laut der Nguyen-Arbeit einen Masseanteil von Ωm=0,49 und eine Hubble-Lemaître-Konstante H0 von nur 54 km/s/Mpc erfordern. Damit würde sich die Diskrepanz zum im nahen Universum gemessenen Wert von 73 km/s/Mpc dramatisch vergrößern. Und diese Diskrepanz bezieht sich nicht darauf, dass der Hubble-Parameter im frühen Universum einen anderen Wert hatte als heute (der Wert H(a) ist nicht konstant [21], sondern muss mit zunehmendem Skalenfaktor a fallen). Es geht ausschließlich um H0 = H(a=1), dem heutigen Wert der Expansionsrate des Universums. Er heißt Hubble-Lemaître-"Konstante", weil er über die Entfernung konstant ist, nicht über die Zeit.

Nguyen bevorzugt daher die zweite Möglichkeit zur Auflösung des Problems: eine alternative Variante der Gravitation. Es geht hier allerdings nicht um MOND, AQUAL oder andere Varianten, die die Entfernungsabhängigkeit der Newtonschen Gravitation modifizieren, um die Dunkle Materie loszuwerden, sondern um Modifikationen der Allgemeinen Relativitätstheorie, die sich auf die Entwicklung der Dunklen Energie über die Zeit beziehen. Dazu gehören insbesondere Varianten der Theorie von Gregory Horndeski [22], die schon seit 1974 entwickelt werden und die Einsteins Theorie "skalare Felder" hinzufügen, um beispielsweise eine als "Quintessenz" bezeichnete 5. Grundkraft in das Einsteinsche Modell zu integrieren, die eine variable Dunkle Energie begründen könnte (und die Existenz einer Dunklen Energie überhaupt).

Skalare Felder sind ganz allgemein einfach ortsabhängige physikalische Größen, die jedem Ort einen "skalaren", das heißt eindimensionalen, ungerichteten Wert zuordnen. Die Temperatur oder der Luftdruck an verschiedenen Orten könnte man beispielsweise als Skalarfelder bezeichnen. Ein Vektorfeld wäre hingegen ein Feld mit einer gerichteten Größe, etwa der Windrichtung oder der Richtung der Gravitation um eine Masse herum.

In der Kosmologie geht es bei den Skalarfeldern um eine Größe, die mit der Materie wechselwirken soll, und die mutmaßlich mit neuen Austauschteilchen (Bosonen) verbunden wäre. Die Motivation, solche Felder zu postulieren, liegt unter anderem darin begründet, dass der Betrag der Dunklen Energie als Form von Vakuumenergie bisher nicht quantitativ aus der Quantenphysik hergeleitet werden kann. Was ziemlich untertrieben ist: summiert man die Effekte der laut der Quantenfeldtheorie im Vakuum allgegenwärtigen virtuellen Partikel auf, die sich zum Beispiel im Casimir-Effekt [23] bemerkbar machen, so kommt man auf eine Vakuumenergie, die um den Faktor 10122 größer ist als diejenige Energie, die zur Erklärung der Dunklen Energie erforderlich wäre. Es müsste zu ihrer Quantifizierung einen Effekt geben, der diese gigantische Diskrepanz beinahe komplett kompensiert, aber eben nicht völlig, und damit tut sich die Physik schwer. Eine komplette Kompensation auf 0 wäre deutlich einfacher zu begründen als ein Feintuning, wie es die Dunkle Energie als Vakuumenergiedichte erfordert. Aber vielleicht wird die Dunkle Energie von einem ganz anderen Feld verursacht.

Ein solches Feld könnte auch die kosmische Inflation angetrieben haben (seit jeher ist in diesem Zusammenhang von einem nicht näher spezifizierten "Inflaton-Feld" die Rede) und heute in abgeschwächter Form weiter seine Wirkung als Dunkle Energie entfalten. Die Einführung eines zusätzlichen Skalarfelds ist die einfachste mögliche Erweiterung der Einsteinschen Feldgleichungen, die als Spezialfall eines Skalarfelds, das überall den Wert 0 hat, enthalten sind.

In einer weiteren Arbeit von Nguyen, Huterer und Wen, mit letzterer als Hauptautorin, "Sweeping Horndeski canvas: new growth-rate parameterization for modified gravity theories", die im September 2023 im Journal of Cosmology and Astroparticle Physics erschien, versuchten sie, ein Horndeski-Modell zu finden, welches das von ihnen gefundene Strukturwachstum am besten approximiert. Dazu generierten sie mit Hilfe eines Open-Source-Softwarepakets [24] 18.000 verschiedene Horndeski-Modelle mit unterschiedlichen Parametern. Man muss heute nicht mehr unbedingt eine Koryphäe in vierdimensionaler Differentialgeometrie sein, um Gravitationsmodelle zu entwickeln.

Die Forschenden fanden für das beste Horndeski-Modell einen von der Rotverschiebung abhängigen Wachstumsindex γ(z) = γ0 + γ1 z²/(1+z) mit γ0 = 0,621±0,03 und γ1 = 0,149±0,235 als beste Näherung für das von ihnen postulierte Strukturwachstum. Während die Komponente γ0 = γ(z=0) dabei noch eine physikalische Bedeutung hat (der Wachstumsindex im heutigen Universum) ist γ1 einfach der zweite Koeffizient einer an dieser Stelle abgebrochenen Reihenentwicklung zur Approximation der Werte aus dem zugehörigen Horndeski-Modell, wie im folgenden Bild zu sehen:

Der Wert der Wachstumsfunktion fσ¡8, in Abhängigkeit von der Rotverschiebung, die synonym für die Entfernung und damit das Weltalter steht. z=5 bedeutet ein Weltalter von rund 1,2 Milliarden Jahren. Die senkrechten schwarzen Linien an der Kurve im oberen Bild entsprechen einem von Wen, Nguyen und Huterer ausgewählten Horndeski-Modell mit den bei zukünftigen Beobachtungen zu erwartenden 1σ-Fehlerintervallen. Die gestrichelten Linien repräsentieren Näherungen für verschiedene Reihenentwicklungen des Wachstumsindex γ(z), wie in der Legende beschrieben.
Im unteren Bild sieht man die "Residuen", das heißt die Abweichung vom theoretischen Modellwert, in Prozent. Die Einfärbung der Kurven entspricht dem oberen Bild. In hellgrau sind die zu erwartenden Fehlerintervalle unterlegt. Die orangefarbene Approximation in der obersten Reihe ergibt die kleinste Abweichung vom theoretischen Wert.

(Bild: Wen, Nguyen, Huterer [25], Open Access – CC BY 4.0 DEED [26]))

Es liegt dem Modell folglich keine nähere physikalische Motivation zugrunde, sondern es wurde durch Probieren (eben "sweeping [the] Horndeski canvas") einfach eine Funktion ausgewürfelt, die den Daten der Forschenden am nächsten kommt und die nicht im Widerspruch zu kosmologischen Messwerten in ihren bekannten Fehlergrenzen steht.

Was die Frage aufwirft, wie wasserdicht die Daten überhaupt sind. Dazu gibt es ein interessantes Interview [27] auf dem an Studierende der Kosmologie gerichteten Youtube-Kanal Cosmology Talks, in welchem Nguyen seine Arbeit vorstellt und der fachkundige Moderator Shaun Hotchkiss ihn anschließend dazu befragt.

Bei 30:15 Minuten fragt Hotchkiss, ob Nguyen auch die Kombination der Daten von PL18 + DESY1 + BAO, also ohne die Rotverschiebungsdaten von fσ8, untersucht habe. Die fσ8-Reihe ist nämlich in allen in der Arbeit mit den Planck-2018-Daten verglichenen Datenreihen enthalten und könnte also die Ergebnisse einseitig verschoben haben. Andere Teams hätten diese Kombination bereits untersucht, aber er könne sich nicht erinnern, dass jemand behauptet habe, sie würde die S8-Spannung verkleinern. Nguyen räumt daraufhin ein, dass der Datenfit für fσ8 alleine schlechter werde, wenn man die Daten von DESY1 und BAO mit hinzunehme, sodass der Einwand berechtigt sei, dass der Datenfit nur für DESY1 und BAO noch schlechter sein könnte. Später erwähnt er, dass die Akzeptanz der fσ8-Rotverschiebungsdaten in der Kosmologie-Community nicht sehr groß sei.

In einer Diskussion über den negativen Krümmungsparameter Ωk fragt Hotchkiss bei 37:18, ob die mit PL18 bezeichneten Daten nur Temperatur und Polarisation berücksichtigten, oder auch den Gravitationslinseneffekt. Das Licht der Hintergrundstrahlung passiert nämlich auf dem Weg zur Erde zahlreiche Galaxienhaufen, die die Amplituden der Temperaturunterschiede in der Hintergrundstrahlung verschmieren, und das muss bei der Analyse berücksichtigt werden. Nguyen antwortet, dass die mit "PL18" bezeichnete Datenreihe den Linseneffekt berücksichtige, die mit "PL18 Temperatur + Polarisation" hingegen nicht. Woraufhin Hotchkiss anmerkt, dass er Arbeiten gelesen habe, die bei einer Betrachtung nur der Temperatur und Polarisationsdaten von Planck eine Krümmung oder Modifikation von ΛCDM zu befürworten schienen; berücksichtige man jedoch den Gravitationslinseneffekt, dann werde alles wieder zu ΛCDM hingezogen. Woraufhin Nguyen entgegnet, dass er nicht sagen würde, dass das Modell mit höherem γ die Hintergrundstrahlung mit Gravitationslinseneffekt viel besser annähere als ΛCDM, aber dass das Modell mit höherem γ die Hintergrundstrahlung mit Gravitationslinseneffekt besser annähere als der negative Krümmungsparameter. Oder anders gesagt, mit Gravitationslinseneffekt ergibt sich kaum ein Vorteil für einen höheren γ-Wert.

Bei 44:31 fragt Hotchkiss nach einer möglichen physikalischen Begründung für den höheren γ-Wert und ob es spezifische Modelle mit modifizierter Gravitation gebe, die ihn nahelegten. Nguyen antwortet darauf, dass es nur wenige Modelle mit modifizierter Gravitation gebe, die zu einem unterdrückten Wachstum der kosmischen Strukturen führten. Auf Nachhaken von Hotchkiss, warum das so sei, gibt er zurück, dass er kein Experte für modifizierte Gravitation sei, aber Leute, die sich damit auskennen, hätten ihm erklärt, dass es nur wenige Gravitationsmodelle mit unterdrücktem Wachstum gebe. Die Horndeski-Modelle seien jedoch dazu in der Lage und deswegen würden sie diese nun selbst untersuchen (das Interview erschien vor dem "sweeping Horndeski canvas"-Aufsatz).

Schließlich stellt Hotchkiss bei 49:24 die etwas gemeine Frage, was Nguyen als plausibelsten Grund dafür sehe, dass das alles womöglich nicht stimme. Nguyen entgegnet, dass die Autoren sich das jede Nacht fragten und zieht zwei Möglichkeiten in Betracht: systematische Fehler in den Daten der Galaxienbewegung (Rotverschiebungsdaten fσ8) oder systematische Fehler in den Planck-Daten. Daher wolle er die Analysen mit unabhängigen Daten wiederholen. Hotchkiss ergänzt, dass die Umkehrung des berühmten Satzes, man solle keinem Modell glauben, das nicht durch Daten gestützt werde, genauso wahr sei: Man solle keinen Daten glauben, die nicht durch ein Modell gestützt werden, denn es gebe so viele Fehlermöglichkeiten bei der Messung der Daten. Man habe ein viel belastbareres Argument, wenn man ein begründetes Modell vorweisen könne, das genau die beobachteten Daten vorhersagt.

Die Analyse mit unabhängigen Daten wurde indes bereits von einer anderen Forschergruppe durchgeführt. In einer neuen, im September 2023 eingereichten Arbeit [28] geben Farren, Krolewski, MacCrann, Ferraro und andere an, mit dem Atacama Cosmology Telescope, einem Mikrowellen-Radioteleskop in der chilenischen Atacama-Wüste, keinen Hinweis auf eine S8-Spannung zwischen Messungen im nahen Universum gegenüber solchen bei hohen Rotverschiebungen gefunden zu haben, sondern nur Abweichungen zwischen den Werten auf unterschiedlichen Skalengrößen.

Das Hauptergebnis der Arbeit von Farren, Krolewski, MacCrann, Ferraro et al. ist, dass ihre Messungen mit dem Atacama Cosmology Telescope (ACT DR6 = Datenrelease 6) kombiniert mit den Daten von Planck und beschränkt auf Galaxien des unWISE-Datenreleases [29] des WISE-Infrarot-Weltraumteleskops keinen Hinweis auf eine S¡8-Spannung oder ein unterdrücktes Strukturwachstum finden. Sie ermitteln ein S¡8 von 0,810±0,015 (linkes Bild) und wenn man die BAO-Daten hinzu nimmt ein σ¡8 von 0,813±0,015. In den Diagrammen sind die Planck-Messungen an der Hintergrundstrahlung (Cosmic Microwave Background, CMB) grau gestrichelt dargestellt. In beiden Bildern überlappen die Planck-Kurven die ACT-Ergebnisse deutlich, die Differenz liegt unter einer Standardabweichung. Angesichts der sehr verschiedenen Messmethodik ist das keine signifikante Abweichung.

(Bild:  Farren, Krolewski, MacCrann, Ferraro et al. [30], mit freundlicher Genehmigung von Gerrit S. Farren)

Wie in der im vorangegangenen Artikel betrachteten Arbeit gilt also auch hier und generell, dass eine Schwalbe noch keinen Sommer und ein einsamer Aufsatz kein neues Gravitationsgesetz begründet.

Ohnehin ging es in der in diesem Artikel betrachteten Arbeit nicht um eine Alternative zur Dunklen Materie oder Dunklen Energie, sondern vielmehr um eine alternative Form der Dunklen Energie, die nicht konstant ist. Das von Nguyen, Wen und Huterer gefundene Horndeski-Modell und sein variabler γ-Wert wurden unter hohem Rechenaufwand durch numerische Approximation der zugrunde gelegten Daten gefunden, die aus als unsicher geltender Quelle (Streuung der Rotverschiebung) stammen und die möglicherweise nicht frei von systematischen Fehlern sind. Unabhängige Messungen eines anderen Teams scheinen das zu bestätigen. Das soll nicht heißen, dass Nguyen, Huterer und Wen notwendig falsch liegen, sondern lediglich, dass ihre Arbeit kein belastbares Argument dafür liefert, die Allgemeine Relativitätstheorie oder das ΛCDM-Modell auszumustern. Dazu ist deutlich mehr und stärkere Evidenz erforderlich.

Insofern wäre es auch hier verfrüht, Einstein abzuschreiben. Den geneigten Leserinnen und Lesern sei an Herz gelegt, Medienberichte über spektakuläre Durchbrüche (wir erinnern uns an den Hochtemperatur-Supraleiter) mit gebührendem Skeptizismus zu begegnen. Und den Medien sei nahegelegt, die Ergebnisse von Einzelarbeiten nicht über Gebühr aufzubauschen. Damit erweisen sie der Glaubhaftigkeit der Wissenschaft einen Bärendienst. Denn viele Laien verstehen oder wissen nicht, dass Wissenschaft aus Versuch und Irrtum besteht. Sie ist nicht ein Depot allumfassenden, unumstößlichen Wissens, sondern eine Methodik, Wissen zu erlangen und ihre Stärken sind die Selbstkorrektur und der fortwährende Abgleich mit der Realität.

Quellen:

(mho [40])


URL dieses Artikels:
https://www.heise.de/-9581142

Links in diesem Artikel:
[1] https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.131.111001
[2] https://www.heise.de/thema/Missing-Link
[3] https://de.wikipedia.org/wiki/Baryon
[4] https://www.heise.de/hintergrund/Missing-Link-Dunkle-Energie-die-unverhoffte-Schwergewichtigkeit-des-Nichts-6314890.html
[5] https://en.m.wikipedia.org/wiki/Hubble%27s_law#Hubble_tension:
[6] https://en.m.wikipedia.org/wiki/Lambda-CDM_model#S8_tension
[7] https://kids.strw.leidenuniv.nl
[8] https://en.wikipedia.org/wiki/VLT_Survey_Telescope
[9] https://www.darkenergysurvey.org
[10] https://www.heise.de/hintergrund/Missing-Link-Dunkle-Energie-die-unverhoffte-Schwergewichtigkeit-des-Nichts-6314890.html
[11] https://www.heise.de/hintergrund/Missing-Link-Das-Raetsel-Dunkle-Materie-der-unsichtbare-Elefant-der-Kosmologie-6263535.html
[12] https://en.wikipedia.org/wiki/Matter_power_spectrum
[13] https://physics.stackexchange.com/questions/521471/formula-to-compute-sigma-8-for-correction-in-non-linear-regime
[14] http://dx.doi.org/10.1051/0004-6361/201937158
[15] https://arxiv.org/pdf/2302.01331.pdf
[16] https://arxiv.org/pdf/2302.01331.pdf
[17]  https://cobaya.readthedocs.io/en/devel/likelihood_planck.html#
[18]  https://arxiv.org/abs/1911.02087
[19] https://www.heise.de/hintergrund/Missing-Link-Ist-das-Universum-ein-Donut-6535817.html
[20] https://arxiv.org/pdf/2302.01331.pdf
[21] https://www.heise.de/hintergrund/Missing-Link-Urknalltheorie-warum-uns-die-Dunkle-Energie-das-Licht-abdreht-6371320.html
[22] https://en.m.wikipedia.org/wiki/Horndeski%27s_theory
[23] https://de.wikipedia.org/wiki/Casimir-Effekt
[24] http://eftcamb.org/codes/download.html
[25] https://iopscience.iop.org/article/10.1088/1475-7516/2023/09/028
[26] https://creativecommons.org/licenses/by/4.0/
[27] https://youtu.be/Tov5KahGEVQ
[28] https://arxiv.org/abs/2309.05659
[29] https://en.wikipedia.org/wiki/Wide-field_Infrared_Survey_Explorer#Data_releases
[30]  https://arxiv.org/abs/2309.05659
[31] https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.131.111001
[32] https://doi.org/10.1103/PhysRevLett.131.111001
[33] https://news.umich.edu/the-universe-caught-suppressing-cosmic-structure-growth/
[34] https://iopscience.iop.org/article/10.1088/1475-7516/2023/09/028
[35] https://youtu.be/Tov5KahGEVQ
[36] https://arxiv.org/abs/1911.02087
[37] https://doi.org/10.1038/s41550-019-0906-9
[38] https://arxiv.org/abs/2207.03500
[39] https://arxiv.org/abs/1901.07183
[40] mailto:mho@heise.de