zurück zum Artikel

Der Lichtcomputer: Wie sich mit Licht schnell rechnen lässt

Thomas Brandstetter

Sieht so die Zukunft des Quantencomputings aus? Forscher am Max Planck Institut für Quantenoptik verknüpften Qbits mithilfe von Lichtleitern.

(Bild: Max Planck Institut für Quantenoptik)

Licht überträgt zwar Daten, Berechnungen erledigen Computer aber nach wie vor mit Elektronen. Das könnte sich nun ändern.

Eigentlich ist die Idee bestechend: Könnte man Computer mit Licht, statt mit Elektronen betreiben, wären sie deutlich schneller und würden drastisch weniger Energie verbrauchen. Schon in den 1960er Jahren arbeiteten Forschungsgruppen deshalb an den entsprechenden Konzepten. Doch eine etablierte Technologie vom Sockel zu stoßen, heißt ein bewegliches Ziel ins Visier zu nehmen. Und lange Jahre war die Entwicklung neuer Computerprozessoren ein Ziel, das sich sehr schnell bewegte: Rund alle zwei Jahre verdoppelte sich die Zahl der Transistoren pro Fläche. Gleichzeitig blieb der Energiebedarf annähernd konstant, weil die einzelnen, geschrumpften Transistoren weniger Energie zum Schalten benötigten.


Dieser Artikel erschien erstmals unter dem Titel "Der Lichtcomputer" [1] in der Ausgabe 05/2021 von MIT Technology Review (im heise shop bestellbar [2]). Wir veröffentlichen ihn an dieser Stelle kostenfrei.


Doch nach einem halben Jahrhundert globaler Anstrengungen, Siliziumelektronik immer weiter zu optimieren und immer leistungsfähigere Computer zu bauen, zeichnet sich ein Ende der Erfolgsgeschichte ab. Denn während Künstliche Intelligenz und Big Data unersättlich nach immer mehr Rechenpower verlangen, stößt die Miniaturisierung elektronischer Computerchips langsam aber sicher an harte, physikalische Grenzen.

Schlägt nun also endlich die Stunde der Lichtstrahlen? Vieles spricht jedenfalls dafür. Denn optische Rechner haben gegenüber mikroelektronischen Computern einen riesigen Vorteil: Licht verschiedener Wellenlänge beeinflusst sich nicht gegenseitig. So wie verschiedenfarbige Lichtpulse Daten parallel in ein und derselben Glasfaser übertragen, können also auch optische Schaltungen mehrere Berechnungen gleichzeitig ausführen.

Gerade in der Künstlichen Intelligenz [3] mit ihren tiefen neuronalen Netzwerken ist die Fähigkeit zur Parallelität ein Schlüssel für effizientes Rechnen. Denn in klassischen Computern führen die Algorithmen dabei immer und immer wieder die gleichen, elementaren Rechenoperationen aus. Für jeden Rechenschritt verschieben sie Daten zunächst vom Speicher zu einer zentralen Recheneinheit, nur um sie anschließend wieder im Speicher abzulegen. Das macht sie für das maschinelle Lernen ineffizient und langsam.

Zur Zeit werden solche Berechnungen deshalb zwar auf hoch parallel arbeitende Prozessoren verlagert, die ursprünglich für Grafikkarten entwickelt wurden und deshalb noch immer Graphics Processing Units – GPU – genannt werden. Doch auch die beste, spezialisierte GPU-Hardware kann die Begrenzungen der Miniaturisierung von Transistoren und die Beschränkungen der klassischen Computer-Architektur nicht ungeschehen machen.

"Genau da kann Photonik ihre Stärken voll ausspielen", sagt Cornelia Denz, die am Institut für Angewandte Physik der Universität Münster die Arbeitsgruppe für Nichtlineare Photonik leitet. Denn die neuste Generation optischer Chips ist anders als ihre Vorgänger nun auch hoch integriert. sagt Denz. Integration bedeutet in diesem Fall nicht nur kleinere Bauteile, sondern vor allem auch Stabilität und damit Unempfindlichkeit gegenüber Stößen und Vibrationen, die gerade bei optischen Systemen große Probleme verursachen können. Zudem werden solche auf Siliziumchips integrierte Systeme zum Teil mit den gleichen Methoden hergestellt, die auch bei der Produktion herkömmlicher Elektronikchips zum Einsatz kommen – nur dass anstelle von Transistoren eben Lichtleiter, Strahlteiler und andere optische Elemente in das Silizium geschrieben werden.

Wie das konkret aussehen kann, hat eine internationale Forschergruppe unter Beteiligung der Universität Münster Anfang 2021 in der renommierten Fachzeitschrift "Nature" [4] beschrieben. Sie hat auf einem optischen Siliziumchip ein Netzwerk aus Lichtleitern realisiert, das Bilddaten vorverarbeitet, sodass ein dahinter liegendes künstliches neuronales Netz die Bilder handgeschriebener Ziffern schneller und besser erkennen kann – eine klassische Übung des Maschinellen Lernens.

Im Inneren einer Vakuumkammer fangen Physiker des Max-Planck-Instituts für Quantenoptik ein einzelnes Atom in zwei gekreuzten optischen Resonatoren. Die werden jeweils von zwei Glasfasern gebildet, die am Kreuzungspunkt zu erkennen sind. Der Aufbau ermöglicht eine zerstörungsfreie Detektion von photonischen Qubits.

(Bild: Max Planck Institut für Quantenoptik)

Damit das funktioniert, schiebt der Algorithmus gewissermaßen einen Satz von optischen Filtern über das gesamte Input-Bild. Auf diese Weise werden charakteristische Merkmale wie Kanten, Ecken oder Rundungen stärker hervorgehoben – störende Merkmale wie zittrige Linien oder fehlerhafte Pixel werden herausgerechnet. Mathematiker bezeichnen dieses "drüberschieben" eines Filters als Faltung. Technisch besteht die Operation aus sehr vielen Matrixmultiplikationen. "Es ist ein Mix aus Photonik und Elektronik", sagt Johannes Feldmann, einer der Hauptautoren der Studie. "Photonik kann die Matrixmultiplikation sehr schnell und parallel machen. Andere Rechenschritte dagegen, die aktuell noch nicht so gut mit Optik realisiert werden können, machen wir elektronisch."

Die zentralen Bauelemente des optischen Teils sind sogenannte Phasenwechselmaterialien, wie sie etwa auch für die Datenspeicherung auf DVDs eingesetzt werden. Sie ermöglichen es, die Durchlässigkeit der Lichtleiter zu variieren und so die Lichtpulse gezielt abzuschwächen. "Im Grunde entspricht das einer Multiplikation", erklärt Feldmann. "Und wenn man die abgeschwächten Signale später wieder zu einem Strahl vereint, ist das die Addition." Und so einfach das klingen mag, sind das doch genau die Rechenschritte, die für eine Matrixmultiplikation nötig sind. Genau diese Rechenoperation läuft in einem neuronalen Netzwerk wieder und wieder ab, was herkömmliche Rechenmaschinen regelmäßig an die Grenzen ihrer Leistungsfähigkeit bringt.

[5]

Um die Vorteile der Optik voll auszuschöpfen, haben Feldmann und seine Kollegen zudem einen Ringresonator auf ihrem Chip integriert – einen Lichtleiter in Form einer einfachen, nur einige Zehntel Millimeter großen Schleife, in der das Licht im Kreis läuft. Läuft ein einfarbiger Strahl in einen solchen Resonator hinein, kommt am anderen Ende eine Vielzahl von Strahlen mit unterschiedlichen Wellenlängen auf. Davon können dann gleich mehrere auf einmal durch die angeschlossene optische Schaltung geleitet werden, um gleichzeitig und unabhängig voneinander Matrixmultiplikationen auszuführen. "Auch die Techniken, die Lichtquelle selbst, also den Laser, auf einem solchen Chip zu integrieren, existieren bereits", ergänzt dazu Photonikexpertin Denz, die an der Arbeit nicht beteiligt war. "Dieser hohe Grad von Integration legt nahe, dass es bald auch kommerzielle Produkte zum optischen Rechnen geben wird. Die aktuellen Start-ups zeigen ja auch, dass das geht."

Tatsächlich hat das in Frankreich ansässige Unternehmen LightOn 2021 den nach eigenen Angaben ersten photonischen Co-Prozessor für Künstliche Intelligenz [6] auf den Markt gebracht. Allerdings hält man sich dort, was Details zur Technologie und den ersten Kunden angeht, ziemlich bedeckt. Zwar hat LightOn auch wissenschaftliche Aufsätze veröffentlicht, die beschäftigen sich aber nur sehr abstrakt mit der zugrunde liegenden Technologie: Mithilfe statistisch zufälliger Mehrfachstreuung will LightOn eine Methode gefunden haben, die die Komplexität von Input-Daten drastisch verkleinert, ohne dass wesentliche Informationen verloren gehen [7]. Das soll nachgeschalteten KI-Chips helfen, die Daten wesentlich schneller zu verarbeiten. Die "LightonAppliance" , der "am weitesten entwickelte photonische Co-Prozesser, der zurzeit am Markt ist", bringt es nach Angaben des Unternehmens auf eine "bis zu zehnfache Beschleunigung" der Berechnung.

Schematische Darstellung des photonischen Chips von Feldmann: Ein Ringresonator erzeugt Lichtsignale verschiedener Wellenlängen. Anschließend durchläuft das Licht eine Matrix aus gekreuzten Wellenleitern mit Phasenwechselmaterialien. Der Output geht dann auf ein künstliches neuronales Netz zur Mustererkennung.

(Bild: Nature)

Doch ist LightOn keineswegs das einzige Start-up, das bereits die Chance auf kommerzielle Vermarktung optischer Technologien wittert. Lightelligence etwa, ein Start-up mit Sitz in Boston, stellte Ende 2021 ihre "Photonic Arithmetic Computing Engine" (PACE) [8] vor.

Es gibt außerdem aber dafür mehr Einblicke in die Technologie: Der photonische Chip von Lightelligence geht auf eine 2017 publizierte Arbeit zurück, in der Forscher des Massachusetts Institute of Technology (MIT) eine Reihe sogenannter Mach-Zehnder-Interferometer auf einem Chip integriert und zu einem neuronalen Netzwerk zusammengefügt haben [9]. Diese optischen Bauelemente spalten einen Lichtstrahl an ihrem Eingang zunächst in zwei Teile auf und führen sie am Ausgang wieder zusammen. Die Geschwindigkeit, mit der sich das Licht entlang der beiden unterschiedlichen Wege ausbreitet, lässt sich gezielt verändern. So können die Positionen von Wellenbergen und Wellentälern auf den einzelnen Armen gegeneinander verschoben werden. Überlagert man anschließend das Licht beider Arme, interferieren die Strahlen konstruktiv oder destruktiv miteinander.

"Mit einem solchen Netzwerk aus Mach-Zehnder-Interferometern lässt sich im Grunde jede beliebige mathematische Operation realisieren", erklärt Rolf Drechsler, der den Forschungsbereich Cyber-Physical Systems am Deutschen Forschungszentrum für Künstliche Intelligenz und die Arbeitsgruppe für Rechnerarchitektur an der Universität Bremen leitet. Gemeinsam mit seinem Team hat sich der Informatiker in den vergangenen Jahren mit der Synthese optischer Schaltungen beschäftigt, um, wie er sagt, über den Tellerrand zu blicken. Da sie nach aktuellem Stand der Technik am besten funktionieren und somit auch für erste kommerzielle Anwendungen am vielversprechendsten sind, setzen die Forscher dabei auf die Interferometer als Grundbausteine [10]. Auch der Chip von Lightelligence, an dessen Entwicklung Drechsler nicht beteiligt war, kombinierte in seiner ersten Version 56 der nur etwa einen Zehntelmillimeter großen Elemente zu einem einfachen, neuronalen Netzwerk, das gesprochene Laute identifizieren konnte.

Ob sich auf diese Art irgendwann auch komplexere Netzwerke mit tausenden Neuronen realisieren lassen, ist allerdings ungewiss. So ließe sich etwa vieles noch nicht in der gewünschten Robustheit und Qualität technisch umsetzen. Zudem müsse eine kommerzielle Anwendung ja auch kompakt und entsprechend kostengünstig sein, um mit den über Jahrzehnte hinweg immer weiter optimierten Transistorschaltungen mithalten zu können. "Abgesehen von der reinen Datenübertragung sind optische Schaltungen immer noch in einem sehr frühen Stadium", sagt Drechsler.

Tatsächlich scheint der Sprung vom Labor in die Praxis auch in diesem Fall nicht ganz so einfach zu sein. Zwar hat Lightelligence bereits 2019 den ersten Prototypen eines photonischen Prozessors vorgestellt [11], der Tausendmal schneller war als die 2017 in Nature vorgestellte Studie. Wann ein erstes kommerzielles Produkt auf den Markt kommen wird, ist jedoch noch immer unklar. Immerhin, sagt Lightelligence-CEO Yinshen Shen, sei man zuversichtlich noch in diesem Jahr "80 bis 90 Prozent" der technischen Probleme gelöst zu haben.

Das ebenfalls in Boston befindliche Start-up Lightmatter scheint in diesem Fall die Nase vorn zu haben. Das Start-up, das aus einer Arbeitsgruppe am MIT hervorgegangen ist, hat einen optischen KI-Beschleunigerchip namens "Envise" vorgestellt [12]. Nach ersten Benchmark-Ergebnissen, die Lightmatter vorgestellt hat, schlägt sich ein Envise-Blade mit 16 photonischen Prozessoren im Vergleich mit einem aktuellen KI-Beschleuniger von Nvidia sehr respektabel: In verschiedenen KI-Anwendungen waren die photonischen Chips rund fünfmal schneller während sie gleichzeitig rund fünfmal weniger Energie verbrauchten.

Im Gegensatz zu Lightelligence setzt Lightmatter nicht auf Mach-Zehnder-Interferometer als Basis-Elemente. Was sie stattdessen verwenden, will das Unternehmen nicht verraten. Auf der Tagung Emtech Digital 2021 verriet Lightmatter-Mitgründer und CEO Nicholas Harris jedoch, dass er und seine Kollegen ursprünglich nach Wegen gesucht hätten, um photonische Bauelemente für Quantencomputer zu nutzen.

Tatsächlich hat die Photonik auch in diesem Bereich ein beträchtliches Potenzial. Denn die Qbits, mit denen Quantencomputer arbeiten – überlagerte Quantenzustände, die gleichzeitig Null und Eins repräsentieren – sind äußerst empfindlich gegenüber Störungen und deshalb nur schwer zu kontrollieren und zu verknüpfen. Aktuelle Quantencomputer arbeiten deshalb gerade einmal mit einigen Dutzend, während für zukünftige Anwendungen tausende Qbits miteinander verschaltet werden sollen.

Photonischer Coprozessor von Lightmatter: Äußerlich erkennbar ist die neue Technologie nur an den Lichtleitkabeln, an die der Chip angeschlossen ist.

(Bild: Lightmatter)

Den Weg dorthin könnte eine Anfang 2021 in "Science" publizierte Arbeit weisen, in der es Forschern des Max Planck Instituts für Quantenoptik gelungen ist, zwei Qbits über ein Glasfaserkabel miteinander zu verknüpfen und dabei sogar eine grundlegende Rechenoperation zu realisieren [13]. "Da Lichtteilchen selbst Quanten sind, sind sie bestens dafür geeignet, die empfindlichen Überlagerungszustände der Qbits von einem Ort zum anderen zu transportieren", sagt der Leiter der Forschungsgruppe, Gerhard Rempe. Genau wie ein elektronischer Rechner basiert auch ein Quantencomputer auf elementaren Schaltungen, sogenannten logischen Gattern, die die Qbits miteinander verknüpfen. Was in der Elektronik Schaltungen aus Transistoren erledigen, haben Rempe und sein Team in Form einer Glasfaser realisiert. Sie leitet ein einzelnes Photon von einem Atom zum anderen und verändert so deren Zustände. Das Lichtteilchen führt also eine einfache, logische Operation mit zwei Qbits aus. Je mehr solcher elementarer Einheiten ein Quantencomputer aber hat, desto komplexer werden auch die Berechnungen, die er ausführen kann.

Genau das ist auch das Interessante an der neuen Methode: Sie ist skalierbar. Auf die gleiche Art, mit der die Forscher jetzt zwei Qbits verbunden haben, könnten im Prinzip auch beliebig viele davon verknüpft werden. Gemeinsam würden sie dann einen Quantencomputer bilden, dessen Bestandteile sich an unterschiedlichen Orten befinden und deshalb leichter zu kontrollieren wären. "Ähnlich wie beim Internet könnte so in Zukunft ein riesiger Quantencomputer entstehen, der über die ganze Welt verteilt ist", meint Rempe. Photonische Computer, die mit Licht rechnen, könnten also nicht nur helfen, maschinelles Lernen auf klassischen Silizium-Rechnern massiv zu beschleunigen. Sie könnten auch helfen, Quantencomputer schneller und besser zu realisieren. Das Zeitalter der Lichtrechner hat gerade erst begonnen.

(wst [14])


URL dieses Artikels:
https://www.heise.de/-6165686

Links in diesem Artikel:
[1] https://www.heise.de/select/tr/2021/5/2115413102680281667
[2] https://shop.heise.de/technology-review-05-2021/Print
[3] https://www.heise.de/thema/K%C3%BCnstliche-Intelligenz
[4] https://doi.org/10.1038/s41586-020-03070-1
[5] https://www.instagram.com/technologyreview_de/
[6] https://lighton.ai/photonic-computing-for-ai/
[7] https://arxiv.org/pdf/1510.06664.pdf
[8] https://www.lightelligence.ai/index.php/product/index/2.html
[9] https://doi.org/10.1038/nphoton.2017.93
[10] https://ieeexplore.ieee.org/abstract/document/8203783
[11] https://venturebeat.com/ai/lightelligence-releases-prototype-of-its-optical-ai-accelerator-chip/
[12] https://lightmatter.co/products/envise/
[13] https://science.sciencemag.org/content/371/6529/614.abstract
[14] mailto:wst@technology-review.de