Wahlen 2024: OpenAI will Missbrauch verhindern

Europawahl, US-Wahlen und mehr: 2024 wird ein starkes Wahljahr. OpenAI sorgt sich um möglichen Missbrauch seiner Dienste.

In Pocket speichern vorlesen Druckansicht

(Bild: I'm friday/Shutterstock.com)

Lesezeit: 3 Min.

Neue Technik, neue Probleme: Diesen Grundsatz sieht auch OpenAI für die eigenen Dienste zutreffen. Im Jahr 2024 stehen weltweit zahlreiche wichtige Wahlen an. Der ChatGPT-Entwickler erklärt nun, wie er versuchen will, diese zu schützen und Missbrauch der eigenen Dienste zu verhindern.

Zunächst möchte OpenAI in ChatGPT und Co. freilich nur richtige Informationen wiedergeben. Dass das nicht immer so leicht ist, wie es klingt, hat zuletzt Bing bewiesen – die Suchmaschine zeichnete die CSU als rechtsextreme Partei aus. Bing nutzt GPT-4. Auch eine Untersuchung von AlgorithmWatch zeichnete ein eher düsteres Bild für die politische Bildung mit Bing.

Teams bei OpenAI – aus den Bereichen Sicherheit, Threat Intelligence, Entwicklung und Richtlinien – arbeiten nun gemeinsam daran, möglichst schnell Missbrauch und Fehlverhalten festzustellen. Zu den konkreten Versuchen, Missbrauch zu verhindern, gehört, dass beispielsweise Dall-E es nicht erlaubt, Bilder von echten Personen zu generieren – inklusive der Kandidaten. Deepfakes und künstlich generierte Bilder sind bereits in Wahlkämpfen und im politischen Umfeld genutzt worden. So hat etwa eine Partei in der Schweiz auf einem Wahlplakat Klimaaktivisten gezeigt, die einem Rettungswagen den Weg versperren. Diesen Fall hat es so nie gegeben, das Bild war von einem Bildgenerator erstellt worden.

Laut Blog-Eintrag versucht OpenAI noch herauszufinden, wie Menschen ChatGPT und die API nutzen, um andere Personen zu überzeugen. Bis dahin ist es nicht erlaubt, Anwendungen zu bauen, die für politische Kampagnen und Lobbying genutzt werden. Auch dürfen Chatbots nicht so tun, als seien sie echte Menschen oder Institutionen. Ebenso sind Anwendungen verboten, die in die Irre führen, wer wählen darf oder wo und wie gewählt wird. Nutzer, denen Missbrauchsfälle in GPTs auffallen, können diese direkt im Store melden. Das sind die kleinen Spezial-Chatbots, die alle Menschen im GPT-Store anbieten können.

Bei der Bildgenerierung sei Transparenz wichtig. OpenAI arbeitet laut eigener Aussage an zahlreichen Markern, die die Herkunft eines Bildes bestätigen sollen. Noch in diesem Frühjahr soll es Details geben, wie Bilder, die mit Dall-E 3 generiert wurden, mittels Kryptografie gekennzeichnet werden können. Journalisten und Wissenschaftler sollen zudem bald Zugriff auf einen Herkunftsdetektor bekommen, der anzeigt, welche Bilder von Dall-E erstellt wurden.

Zu guter Letzt will OpenAI besser kennzeichnen und verlinken, woher ChatGPT Informationen hat. In den USA verweist ChatGPT bei Fragen zum Wahlablauf auf eine offizielle Seite der National Association of Secretaries of State (NASS). Ähnliches wolle man auch in anderen Ländern anbieten.

Neben der US-Präsidentschaftswahl steht 2024 die Europawahl an. Auch in der Türkei, Indien, Großbritannien und in Österreich wird gewählt. Ob es Wahlen in der Ukraine gibt, ist noch unklar. In Russland steht Wladimir Putin vor der Wiederwahl.

(emw)