Künstliche Allgemeine Intelligenz: Wissen, was wahr ist

Seite 3: Abstrahierung und Transfer von Wissen

Inhaltsverzeichnis

Legg bezeichnet diese Art von Allgemeinheit als „Ein-Algorithmus“, die sich grundsätzlich von der „Ein-Gehirn“-Generalität des Menschen unterscheidet. Die Ein-Algorithmus-Allgemeinheit sei sehr nützlich, aber nicht so interessant wie die Ein-Gehirn-Allgemeinheit, sagt er: „Sie und ich müssen unsere Gehirne nicht umschalten; wir setzen keine Schachgehirne ein, um eine Partie Schach zu spielen.“

Der Schritt vom Ein-Algorithmus zum Ein-Gehirn ist eine der größten offenen Herausforderungen in der KI. Es gibt eine lange Liste von Ansätzen, die dabei helfen könnten, dieses Multi-Tool zu entwickeln.

Transfer-Lernen zielt beispielsweise darauf ab, dass KIs Teile ihres Trainings für eine Aufgabe, wie Schach spielen, auf eine andere, wie Go spielen, übertragen können. So lernen Menschen. Forscher wie Turing-Preisträger Yoshua Bengio argumentieren, dass es einfacher wäre, das Training von einer Aufgabe auf eine andere zu übertragen, wenn eine KI über eine Art Fundament an gesundem Menschenverstand verfügen würde. Und ein wichtiger Teil des gesunden Menschenverstands ist das Verständnis von Ursache und Wirkung.

Eine weitere Fraktion an KI-Forschern setzt auf Lernoptimierer. Dies sind Werkzeuge, die verwendet werden können, um die Art und Weise, wie KIs lernen, zu formen und sie zu einem effizienteren Training anzuleiten. Jüngste Arbeiten zeigen, dass diese Tools sich gegenseitig trainieren können – was bedeutet, dass eine KI verwendet wird, um andere zu trainieren.

Deepmind lässt sich zusätzlich vom biologischen Gehirn inspirieren. Deepmind-Gründer Demis Hassabis glaubt, dass Intelligenz in menschlichen Gehirnen zum Teil aus der Interaktion zwischen dem Hippocampus und dem Kortex entsteht. Diese Idee führte zu DeepMinds Atari-Spiele zockender KI, die einen vom Hippocampus inspirierten Algorithmus namens DNC (differential neural computer) verwendet. Er kombiniert ein neuronales Netzwerk mit einer Art Gedächtniskomponente.

So divers sie wirken – letztlich laufen alle Ansätze eine AGI zu entwickeln auf zwei große Denkschulen hinaus. Die eine besagt, dass, wenn man die Algorithmen richtig hinbekommt, man sie in jeder beliebigen kognitiven Architektur anordnen kann. Die andere Schule sagt, wenn die kognitive Architektur stimmt, kann man die Algorithmen fast wie nachträgliche Gedanken einfügen. „Mein persönliches Gefühl sagt mir, dass es etwas zwischen den beiden ist“, sagt Legg. Doch wann und ob sich so etwas jemals realisieren lässt, ist völlig unklar.

Da die Herausforderung jahrzehntelang unterschätzt wurde, wagen nur wenige Experten eine Prognose, wann und ob AGI kommen wird. Selbst Goertzel will sich nicht auf einen konkreten Zeitplan festlegen, obwohl er eher früher als später sagen würde. Es besteht kein Zweifel daran, dass die rasanten Fortschritte im Deep Learning – und insbesondere GPT-3 – durch die Nachahmung menschlicher Fähigkeiten die Erwartungen in die Höhe getrieben haben. Aber Nachahmung ist eben noch keine Intelligenz.

Schaufensterpuppe Sophia: Ben Goertzel war zwischenzeitlich Forschungsleiter von Hanson Robotics, dem Hersteller des Androiden „Sophia“. Der Roboter ist darauf ausgelegt, möglichst intelligent zu wirken – und bekam reichlich mediale Aufmerksamkeit. Goertzel gibt aber mittlerweile zu, dass Sophia ein „Theaterroboter“ ist.

(Bild: Hanson Robotics)

Kritiker werfen dem AGI-Lager deshalb vor, unrealistische Erwartungen zu schüren, gestützt auf Effekthascherei und übertriebene Behauptungen. Ein Vorwurf, der nicht völlig von der Hand zu weisen ist. War Goertzel doch beispielsweise von 2014 bis 2018 Chefwissenschaftler bei Hanson Robotics, einer Firma aus Hongkong, die 2016 den sprechenden humanoiden Roboter Sophia vorstellte. Sophia brachte Goertzel Schlagzeilen auf der ganzen Welt ein. Doch selbst er gibt zu, dass es sich lediglich um einen „Theater-Roboter“ und nicht um eine echte KI gehandelt hat.

Allerdings räumen selbst die härtesten AGI-Skeptiker ein, dass die Debatte die Forschenden zwingt, über die Richtung ihres Forschungsfeldes nachzudenken, statt sich nur auf die nächsten spektakulären Benchmark-Ergebnisse zu konzentrieren. Ohne Beweise auf beiden Seiten, ob AGI realisierbar ist oder nicht, wird die Debatte jedoch zu einer reinen Glaubensfrage. „Es fühlt sich an wie die Argumente in der mittelalterlichen Philosophie darüber, ob eine unendliche Anzahl von Engeln auf einen Stecknadelkopf passen“, sagt Togelius. „Es macht keinen Sinn; es sind nur Worte.“

(jle)