US-Regierung will KI-Systeme auf der Defcon 31 knacken lassen

Das Weiße Haus will unter anderem die Sicherheit von KI-Systemen verbessern. Dazu sollen Hacker auf der Sicherheitskonferenz Defcon Schwachstellen suchen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Hacker,Attack,Computer,Hardware,Microchip,While,Process,Data,Through,Internet

(Bild: Black_Kira/Shutterstock.com)

Lesezeit: 5 Min.
Von
Inhaltsverzeichnis

Die US-Regierung hat vergangene Woche Pläne veröffentlicht, um bei der Entwicklung von KI-Systemen "verantwortungsvolle, vertrauenswürdige und ethische Innovationen und Schutzmaßnahmen" zu fördern, die Risiken und Schäden für die Einzelnen und unsere die Gesellschaft abwehren. Dazu habe sich Vizepräsidentin Kamala Harris mit den CEOs der vier großen US-Unternehmen Alphabet, Anthropic, Microsoft, und OpenAI getroffen. Neben finanzieller Förderung zur Weiterentwicklung soll eine Sicherheitsprüfung auf der IT-Sicherheitskonferenz Defcon in Las Vegas im August zur Erfüllung dieser Ziele beitragen.

In einer Stellungnahme kündigt die US-Regierung mehrere Maßnahmen an, mit denen sie das erreichen will. Einerseits sollen Fördergelder in Höhe von 140 Millionen US-Dollar durch die National Science Foundation in den Aufbau von sieben KI-Forschungsinstituten fließen. Damit wachse die Zahl an landesweit damit beschäftigten Instituten auf 25 an. Sie sollen die Zusammenarbeit zwischen Bildungseinrichtungen, Bundesbehörden, Industrie und anderen katalysieren, um "verantwortungsvolle, vertrauenswürdige und ethische" Fortschritte in der KI zu erreichen.

Existierende generative KI-Systeme sollen öffentlich einer Bewertung unterzogen werden. Die führenden KI-Entwickler, unter anderen Anthropic, Google, Hugging Face, Microsoft, Nvidia, OpenAI und Stability AI werden daran teilnehmen, erklärt das Weiße Haus. Das geschehe durch "die Teilnahme an einer öffentlichen Bewertung von KI-Systemen im Einklang mit den Grundsätzen der Responsible Disclosure – auf einer von Scale AI entwickelten Bewertungsplattform – im 'AI Village' auf der Defcon-31"-Sicherheitskonferenz in Las Vegas vom 10. bis 13. August dieses Jahres.

Die US-Regierung erläutert: "Dieses unabhängige Verfahren wird Forschern und der Öffentlichkeit wichtige Informationen über die Auswirkungen dieser Modelle liefern und KI-Unternehmen und -Entwickler in die Lage versetzen, Maßnahmen zu ergreifen, um in diesen Modellen gefundene Probleme zu beheben." Das Testen von KI-Modellen unabhängig von der Regierung oder den Unternehmen, die sie entwickelt haben, sei eine wichtige Komponente für ihre effektive Bewertung.

Das Office of Management and Budget (OMB) soll noch in diesem Sommer einen Richtlinienentwurf zur Nutzung von KI-Systemen durch die US-Regierung zur öffentlichen Kommentierung herausgeben. Der Leitfaden werde spezifische Richtlinien für Bundesministerien und -behörden festlegen, die sicherstellen, dass bei der Entwicklung, Beschaffung und Nutzung von KI-Systemen der Schutz der Rechte und der Sicherheit der US-amerikanischen Bevölkerung im Mittelpunkt stehe. Mit den Vorschriften beabsichtigt die US-Regierung sicherzustellen, bei der Abwehr von KI-Risiken und der Nutzung von KI-Chancen mit gutem Beispiel voranzugehen.

"Die Richtlinien werden die Behörden auch in die Lage versetzen, KI verantwortungsvoll einzusetzen, um ihre Aufgaben voranzubringen und ihre Fähigkeit zu stärken, den US-Amerikanern gerecht zu dienen. Und sie werden als Modell für staatliche und lokale Regierungen, Unternehmen und andere dienen, denen sie bei ihrer eigenen Beschaffung und Nutzung von KI folgen können", erläutert die US-Regierung.

Parallel zur US-Regierung haben auch die Veranstalter des 'AI Village' auf der Defcon 31 eine Stellungnahme veröffentlicht. Darin erklären sie: "Wir fangen gerade erst an, die immanenten und aufkommenden Risiken zu verstehen, die sich aus der Automatisierung dieser neuen Technologie im großen Maßstab ergeben. Halluzinationen, Jailbreaks, Voreingenommenheit (Bias) und ein drastischer Sprung in den Fähigkeiten sind alles neue Probleme, mit denen sich Sicherheitsexperten und die Öffentlichkeit auseinandersetzen müssen".

Traditionell hätten Unternehmen das Problem durch den Einsatz spezialisierter Red Teams gelöst, vorrangig im privaten Bereich, führt Sven Cattell, Gründer des 'AI Village', aus. Er ergänzt: "Die verschiedenen Probleme mit diesen Modellen lassen sich erst dann lösen, wenn mehr Menschen wissen, wie man sie in Red Teams untersucht und bewertet. Bug Bounties, Live-Hacking-Events und andere Standard-Community-Engagements im Sicherheitsbereich können für auf maschinellen Lernmodellen basierende Systeme angepasst werden". Das erschlage auch gleich zwei Fliegen mit einer Klappe: Einerseits das Angehen der potenziellen Risiken und andererseits das Aufbauen einer Forschergemeinschaft, die wisse, wie man weiterhelfen könne.

Hunderte Studenten von ausgewählten Institutionen und Communities nehmen dort Large Language Models (LLM) in die Zange. "Wir werden Laptops und einen zeitlich begrenzten Zugang zu mehreren LLMs von den Anbietern zur Verfügung stellen. Wir werden auch ein Punktesystem im Stil von Capture the Flag (CTF) anbieten, um das Testen einer breiten Palette von Angriffen zu fördern. Von den Red Team-Mitgliedern wird erwartet, dass sie sich an den hippokratischen Eid der Hacker halten. Die Person, die die höchste Punktzahl erreicht, gewinnt eine hochwertige Nvidia-GPU", führen die 'AI Village"-Verantwortlichen aus.

Es dürfte sich bei der Defcon 31 um das erste große Hacking-Event handeln, das sich intensiv und speziell im 'AI Village' mit der Sicherheit von KI-Systemen befasst. Dabei gibt es mehrere Arten von untersuchenswerten Schwachstellen darin. Eine Übersicht liefert der Artikel "Drei Gründe, warum KI-Chatbots eine Sicherheitskatastrophe sind" von der Technology Review.

(dmk)