Googles KI-Wettrennen: KI-Anzeigenmissbrauch mit KI entdecken

Betrüger nutzen KI, um Fake-Anzeigen zu schalten. Google nutzt KI, um Milliarden davon zu finden – bevor sie sichtbar werden.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Symbolbild Google Ads

(Bild: PixieMe/Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Google hat im vergangenen Jahr 5,5 Milliarden Anzeigen blockiert oder entfernt, die gegen die Richtlinien des Unternehmens verstoßen haben. Meist handelt es sich dabei um potenziell gefährliche Anzeigen. Betrüger nutzen zunehmend KI, um solche Fakes zu erstellen. Aber auch Google nutzt KI, um die Betrugsversuche zu erkennen – ein KI-Wettrennen entsteht.

Mehr als eine Milliarde der blockierten Anzeigen hat gegen Googles Richtlinien verstoßen, weil es sich um Schadsoftware handelte. Am zweithäufigsten fallen mit 550 Millionen jene Anzeigen auf, bei denen Markennamen und Logos unrechtmäßig verwendet wurden. Auch unrechtmäßig personalisierte Anzeigen werden von Google gelöscht, konkret sogar 372 Millionen Mal. Hinzukommen Scam-Versuche mit mehr als 200 Millionen aufgegebenen Anzeigen, die nicht erschienen, weil dahinter Versuche steckten, an Informationen und Daten von potenziellen Opfern zu gelangen. 270 Millionen Anzeigen, die gegen die Richtlinien für Finanzdienstleistungen verstießen, wurden ebenfalls gelöscht.

An letzterem Beispiel erklärt Google denn auch, wie das KI-Wettrennen abläuft. Früher setzte Google Machine-Learning-Modelle ein, die mit Hunderttausenden, wenn nicht gar Millionen Beispielen gefüttert werden mussten, die Missbrauchsversuche zeigten. Dadurch konnten die Systeme sehr ähnliche Fälle finden.

Große Sprachmodelle (Large Language Models, LLMs) können Inhalte nun deutlich besser analysieren und bewerten, weil sie Inhalte besser verstehen. Im Bereich der Finanzdienstleistungen sind Anzeigen à la "werde schnell reich mit diesem Trick" verboten. Die jeweiligen Tricks variieren, Betrüger passen die Anzeigen an aktuelle Trends und Themen an. LLMs können schneller reagieren, als bisheriges Machine Learning, weil sie beispielsweise auch dahinterliegende Muster finden.

Um noch mehr Betrugsversuche zu erkennen, zieht auch Gemini selbst in Googles Sicherheitssystem für Anzeigen. Gemini ist das große Sprachmodell von Google, das es in verschiedenen Größen und als eigenständigen Chatbot gibt. Es ist multimodal, kann also entsprechend Text, Bilder, Audio, Video und Code verarbeiten. Gegebenenfalls ist alles davon nötig, um Anzeigenbetrug zu erkennen.

Google hat 2023 auch weitere Richtlinien eingeführt, um Betrug einzudämmen. Beispielsweise werden Anzeigen von unbekannten Werbetreibenden zunächst nicht weitläufig ausgespielt. Es gibt eine sogenannte "Kennenlernphase", in der sich Auftraggeber erst beweisen müssen. Besonders wichtig ist es laut Google, schnell auf neue Betrugs- und Missbrauchsversuche reagieren zu können. Das zeige sich beispielsweise am Ende 2023 und Anfang 2024 aufgekommenen Trend, mit bekannten Personen zu werben – die allerdings mittels Deepfakes in die Anzeigen gesetzt wurden.

Wer sich fragt, wie es um die omnipräsente Werbung von chinesischen Handelsplattformen wie Temu und Shein steht: Diese Anzeigen entsprechen offensichtlich den erlaubten Kriterien. Temu ist einer der größten Werbetreibenden bei Google und sogar der größte Werbekunde von Meta.

12,7 Millionen Werbetreibende wurden gesperrt, weil sie mit ihren Anzeigen gegen Googles Richtlinien verstießen, beziehungsweise verstoßen wollten. Die meisten Anzeigen werden gesperrt, bevor sie online gehen. Zudem wurden die Anzeigen von mehr als 2 Millionen Seiten entfernt, weil diese nicht den Anforderungen entsprachen. 1,8 Millionen Seiten enthielten "sexuelle Inhalte", aber auch Seiten, die gefährliche und schockierende Inhalte, Waffen oder Online-Glücksspiel beinhalten, sind laut Google nicht als Werbeumfeld geeignet.

Neben den gesperrten Anzeigen gibt es auch solche, die grundsätzlich limitiert werden, weil sie sensible Themen behandeln. Dazu gehört etwa Alkohol, aber auch medizinische Produkte oder Glücksspiel. Insgesamt wurden 2023 rund 7 Milliarden Anzeigen eingeschränkt ausgespielt.

Auch Wahlwerbung ist ein heikles Feld, entsprechend gibt es von Google weitere Einschränkungen und Pflichten: "Alle Wahlwerbung muss einen 'Bezahlt von'-Hinweis enthalten und wird in unserem öffentlich zugänglichen Transparenzbericht aufgelistet. Im Jahr 2023 haben wir mehr als 5.000 neue Wahlwerber verifiziert und mehr als 7,3 Millionen Anzeigen zu Wahlen entfernt, die von Inserenten stammten, die die Überprüfung nicht abgeschlossen hatten." Für Wahlwerbung gilt zudem die Offenlegungspflicht, wenn sie mit synthetischen Inhalten werden wollen – der Einsatz von generativer KI muss gekennzeichnet sein. Potenziell irreführende Werbung ist verboten.

Google, Meta und Tiktok haben sich bereits dazu geäußert, wie sie die Integrität der Wahlen sicherstellen wollen. 2024 ist ein Superwahljahr, neben der Europawahl steht unter anderem die US-Präsidentschaftswahl an. Alle großen Plattform-Anbieter wollen KI-Inhalte kennzeichnen, die irreführend sind. Auch die Anbieter von Bildgeneratoren und Chatbots versuchen, Missbrauch zu verhindern. OpenAI etwa verbietet Dall-E Bilder zu generieren, auf denen die Kandidaten zu sehen sind. Auch arbeiten KI-Anbieter daran, wie Wasserzeichen integriert werden können.

(emw)