KI: Data Processing und Foundation Models prägten World AI Cannes Festival 2023

Die KI-Experten Carsten Kraus und Markus Schmitz waren auf dem WAICF – Bericht von den Chancen, Trends und Strategien, die dort zum Thema KI im Gespräch waren.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
World AI Cannes Festival
Lesezeit: 8 Min.
Von
  • Carsten Kraus
  • Markus Schmitz
Inhaltsverzeichnis

Das World Artificial Intelligence Festival (WAICF) in Cannes wusste vorige Woche die Künstliche Intelligenz in Szene zu setzen. Mehr als 200 Unternehmen stellten vom 9. bis 11. Februar 2023 ihre KI-Angebote vor, auf den Bühnen diskutierten Speaker die dringendsten Fragen der Gegenwart und Zukunft, und in Workshops gaben Experten ihr Wissen weiter. Das Programm bot vielfältige Einblicke in den Stand aktueller KI-Entwicklung.

Autor Carsten Kraus

Carsten Kraus beschäftigt sich seit über 20 Jahren mit Künstlicher Intelligenz und entwickelte bereits als Jugendlicher seine erste Innovation, eine neue Kernstruktur für Programmiersprachen. Der Business Angel, Seriengründer und KI-Experte ist Mitglied im Forbes Technology Council und möchte mit seinem aktuellen Projekt Casablanca.AI den natürlichen Blickkontakt in Videocalls wiederherstellen.

Co-Autor Markus Schmitz

Markus Schmitz arbeitet seit 2022 als Berater für KI-Technologien bei Aleph Alpha und als Dozent für Wirtschaftsinformatik an der Universität Erlangen-Nürnberg. Vor seiner Zeit bei Aleph Alpha hat er Innovationsprojekte und Strategien im Bereich KI bei der BMW Group verantwortet.

KI bewegt sich zurzeit in einem Spannungsfeld: Datenschutzrechtliche Bedenken, Regulierung und Nachvollziehbarkeit der Modelle stehen Forderungen nach mehr Möglichkeiten und Leistung gegenüber – das spiegelte sich in den Themen der großen KI-Konferenz, die unter anderem Beiträge zum Data Processing bot und auch unternehmerische KI-Angebote machte.

Zuletzt verschärfte der Artificial Intelligence Act der EU den bestehenden Zwiespalt, die KI-Verordnung soll bereits im März 2023 in Kraft treten. Auf der Bühne legten Vortragende wie Carsten Kraus dar, dass sich KI-Regulierungsansätze und Datenschutz in einigen Fällen widersprechen: Wenn man nicht die konkreten Daten austauscht, sondern nur das daraus Gelernte, seien die Persönlichkeitsrechte sicher – ein möglicher Ansatz, aber nicht der einzige, ist das Federated Learning (FL), in dem Maschinen "voneinander lernen, ohne übereinander zu lernen".

Carsten Kraus bei einem Diskussionspanel des WAICF in Cannes

(Bild: WAICF / World AI Cannes Festival)

Allerdings habe man dann eben nicht die volle Kontrolle über das KI-Modell, und gerade FL führt oft zu technischen Problemen. Kontrolle fordern die Gesetzgeber jedoch in der vorgeschlagenen KI-Regulierung. Eine Forderung ist dabei nicht nur laut Kraus grundlegend: "We need lawmakers who also understand AI" – die Gesetzgeber sollten KI verstehen.

Stuart Russell, Informatik-Professor an der UC Berkeley und Autor des Standardwerks "AI – A Modern Approach" (Künstliche Intelligenz – ein moderner Ansatz), hielt in Cannes eine Keynote zur Frage: "Are we far from AGI?" – ob starke KI kommt und was das für die Menschen heißt. Unter anderem in seinem 2019 erschienenen Buch "Human Compatible – Künstliche Intelligenz und wie der Mensch die Kontrolle über superintelligente Maschinen behält" ging Russell tiefer auf das Alignment-Problem ein. Russell ist bekanntermaßen kritisch gegenüber allzu starker Regulierung und sieht stattdessen die KI-Sicherheit als Angelpunkt, wie er auch beim WAICF betonte: Künftig ließen sich übermenschliche KI-Systeme am menschenfreundlichsten regulieren, wenn die Vorgaben absichtlich unpräzise und damit "ungeregelter" seien. Das sei anhand der Spieltheorie nachvollziehbar.

Russell hatte in den 1980er- und 1990er-Jahren in Hinblick auf Rationalität, maschinelles Lernen und Entscheidungsfindung Maßstäbe erarbeitet. Er gilt als einflussreicher Vordenker für Lösungen des Alignment-Problems. Aus seiner Sicht werde zielorientierte KI an ihre Grenzen stoßen: Sobald eine Maschine gezwungen sei, sich nach Vorgaben und einem eng gesteckten Rahmen zu richten, erhalte man früher oder später zwangsläufig eine fehlgeleitete KI. Es sei schlicht nicht möglich, sämtliche Unterziele, Ausnahmen und Vorbehalte in die Reward-Funktion einzuspeisen – zumal kein Mensch Wissen darüber besitzt, welche Parameter alles vollumfänglich abdecken.

KI kann aber auch Leben retten – Lösungen dazu wurden auch auf dem WAICF vorgestellt und diskutiert: In der Medizin ist aber vor allem der Schutz persönlicher Daten noch ein Hindernis, sofern nicht neue Ansätze (wie das bereits erwähnte Federated Learning) einen sichereren Austausch von Daten ermöglichen. Bei der Mobilität der Zukunft kann KI helfen, das autonome Fahren so weiterzuentwickeln, sodass nicht nur Staus und Unfälle vermieden werden, sondern sich auch Treibstoff einsparen und Emissionen reduzieren lassen.

KI-Systeme können Energie managen und für mehr Nachhaltigkeit, Stabilität, eine günstigere Preiskalkulation und die Reduktion schädlicher Umwelteinflüsse sorgen. Gleichzeitig wird der Einsatz von KI selbst energieeffizienter durch wirkungsvollere, schnellere Algorithmen sowie leistungsfähigere Hardware – neben den neuesten Prozessorgenerationen der großen Anbieter präsentierten sich in Cannes Hardware-Startups wie HawAI.tech, deren Chips auf Bayes‘sche Netze spezialisiert sind und dafür zehnmal weniger Energiebedarf haben sollen als bisherige Lösungen.

Markus Schmitz von Aleph Alpha beim WAICF in Cannes, wo er gemeinsam mit GraphcoreAI Ansätze des Sparse Modeling und Semantic Embedding vorstellte.

(Bild: Graphcore / Steve Barlow)

Auch Graphcore.AI präsentierte in Cannes neue Entwicklungen wie Semantic Search und Prozessoren, die weniger Energie benötigen und speziell auf ML-Workflows sowie für Sparse Modeling ausgelegt sind. Sparsity gilt als vielversprechender Ansatz für energieeffizientes Machine Learning – hierzu betreiben Graphcore und Aleph Alpha in deren Hochleistungsrechenzentrum gemeinsam Forschung.

Spätestens seit ChatGPT sind Foundation Models (große Sprachmodelle mit generalisierenden Fähigkeiten) in den Fokus der KI-Szene und der Öffentlichkeit getreten. Auf dem WAICF war der KI-Chatbot jedoch nicht unumstritten: Yann LeCun, Leiter der KI-Forschung bei Meta, kritisierte, dass "aktuell hochgejubelte" KI-Systeme noch überbewertet seien und stellte mit Joint Embedding Predicting Architecture (JEPA) eine neue Architektur vor. JEPA soll im Reasoning, also dem Schlussfolgern, signifikant besser sein als bisherige Ansätze. KI-Chatbots wie ChatGPT, Bard, Claude oder YouChat und Lumi sind hier wohl erst der Anfang.

In der Bilderkennung hat sich der große Vorteil vortrainierter Modelle bereits manifestiert. Dort werden auf Millionen von Bildern vortrainierte Modelle genutzt, um anschließend mittels Transfer Learning den speziellen Einsatzzweck festzulegen. Dadurch benötigen Entwickler für das Training weitaus weniger konkrete Bilder. In größerem Umfang passiert das Gleiche gerade durch die Transformermodelle der GPT-Reihe (GPT = Generative Pretrained Transformer) für den Bereich der Sprache.

Solche generativen Transformermodelle lassen sich grundsätzlich auch für nicht-sprachliche Sequenzen trainieren – oder man repräsentiert andere Themen durch Versprachlichung, um sie in ein GPT einzubinden. So werden in Modellen wie DALL·E Bilder repräsentiert. Voraussichtlich werden wir bereits 2023 Anwendungen von KI-Modellen sehen, die weit über Sprache und Bilder hinausgehen, denn auch Geschäftsprozesse und Fertigung erzeugen Datensequenzen. Zum Lesen von Daten aus Tabellen und Datenbanken gibt es bereits akademische Arbeit, und Unternehmen wie Aleph Alpha betreiben dazu Forschungskooperationen.

Eingangsbereich der internationalen KI-Konferenz WAICF in Cannes

(Bild: Markus Schmitz)

Besonders interessant dürfte das Lernen domänenspezifischer Informationen sein – also von Geschäftsabläufen als leicht randomisierter Sequenzen, die eine Interpretation erfordern, ergänzt Markus Schmitz, der an der Universität Erlangen-Nürnberg Wirtschaftsinformatik unterrichtet und bei Aleph Alpha mitarbeitet. Bis zur Integration rein tabellarischer Daten etwa für Predictive Maintenance dauert es noch etwas, das werde eine Priorisierung beziehungsweise entsprechende Schnittstellen und Verarbeitungsschritte erfordern.

Die wohl spannendste Prognose des WAICF: Wir befinden uns in einer Phase der Industrialisierung von KI. In der Industrie werde die Adoptionsrate von derzeit vier Prozent schon bis Ende 2024 auf 85 Prozent steigen, prognostizierte Thomas Weber von Huawei. Foundation Models sollen maßgeblich dazu beitragen. Zurzeit gibt es weltweit über achtzig solcher Modelle – in Europa mit den Luminous-Modellen von Aleph Alpha und BLOOM von Big Science bislang nur zwei Alternativen.

Der Bundesregierung liegt ein Vorschlag des KI-Verbands vor, ein Rechenzentrum für große KI-Modelle einzurichten ("LEAM" – Large European AI Models). Die Stakeholder dieses Vorschlags erachten es für notwendig, dass Europa sich hier ebenso wie in der Chipfertigung unabhängig macht. Wir sollten uns in Europa nicht den Launen anderer Kontinente unterwerfen – und leistungsstarke Hardware ist ein wesentlicher Treiber für Fortschritte im Machine Learning.

Der zurzeit sichtbarste Trend ist Konversations-KI durch Foundation Models der GPT-Familie, aber auch der industrielle und sicherheitsrelevante Bereich erfährt Fortschritt durch KI. Gerade hier ist es mit Blick auf die KI-Sicherheit unabdingbar, lokale Alternativen für ausreichend Kontrolle über die Modelle und ihre Trainingsdatenbasis zu haben. Einige Ansätze wurden beim WAICF präsentiert.

Bericht von Carsten Kraus (CK Holding) und Markus Schmitz (Aleph Alpha), beide waren vor Ort.

(sih)